15 linee guida per le aziende che utilizzano chatbot con modelli linguistici di grandi dimensioni
Le raccomandazioni principali includono la definizione di direttive interne, il coinvolgimento dei responsabili della protezione dei dati, la sicurezza dell'autenticazione, l'astensione dall'inserimento e dall'emissione di dati personali, l'offerta di opzioni di opt-out, la garanzia di un coinvolgimento umano nelle decisioni legali e l'aggiornamento sulle normative in evoluzione, in particolare sul prossimo regolamento dell'UE sull'AI.
Lista di controllo AI per le aziende
L'emergere dell'AI generativa, in particolare sotto forma di chatbot come ChatGPT, Luminous e Bard, rappresenta un mezzo efficiente per la creazione di contenuti. Sebbene questi strumenti siano diventati parte integrante di molte istituzioni, il loro utilizzo spesso manca di linee guida chiare. Il funzionamento di questi grandi modelli 68 linguistici (LLM) in un ambiente cloud comporta rischi significativi per la protezione dei dati. La riservatezza e i dati personali sono messi a rischio dalla condivisione di modelli LLM basati sul cloud, dove gli input contribuiscono all'ulteriore formazione del modello, esponendo potenzialmente segreti aziendali e informazioni personali. La lista di controllo che segue serve come guida per le organizzazioni per garantire un uso dei chatbot conforme alla protezione dei dati.
15 aspetti per un uso controllato dei chatbot LLM:
- Specificare i regolamenti di conformità: Definire e documentare chiaramente le direttive interne sulle condizioni e gli scenari di utilizzo degli strumenti di intelligenza artificiale.
- Coinvolgere i responsabili della protezione dei dati: Coinvolga i responsabili interni della protezione dei dati nella creazione di direttive e nella conduzione di valutazioni d'impatto sulla protezione dei dati.
- Fornitura di un account funzionale: Fornire account di chatbot professionali per evitare la creazione di profili che utilizzano dati privati. Gli account di lavoro dovrebbero idealmente evitare i nomi dei singoli dipendenti.
- Autenticazione sicura: Implementare password forti e fattori di autenticazione aggiuntivi per prevenire accessi non autorizzati e potenziali abusi.
- Non inserire dati personali: Si astenga dal trasmettere dati personali ai modelli di intelligenza artificiale in base alle restrizioni dei termini e delle condizioni.
- Nessun output di dati personali: Assicurarsi che i risultati delle applicazioni di AI non contengano dati personali, limitando gli input a casi non individuali.
- Attenzione ai dati personali: Evitare inserimenti che potrebbero essere legati a persone specifiche, considerando il rischio di trarre conclusioni dal contesto.
- Opt-out dalla formazione AI: Consentire agli utenti di rifiutare l'uso dei loro dati per scopi di formazione AI, se il servizio lo consente.
- Opt-out della Cronologia: Disabilitare il salvataggio delle voci precedenti per evitare di collegare le singole voci, soprattutto in ambienti condivisi.
- Verificare la correttezza dei risultati: Verificare l'accuratezza dei risultati generati dall'AI, in quanto i modelli possono includere informazioni obsolete o errate.
- Controllare i risultati per la discriminazione: Valutare i risultati dell'IA per gli effetti discriminatori, assicurando la conformità con i quadri legali.
- Nessuna decisione finale automatizzata: Le decisioni con conseguenze legali devono essere prese da esseri umani per rispettare i requisiti del GDPR.
- Sensibilizzare i dipendenti: Fornisca formazione, linee guida e discussioni per sensibilizzare i dipendenti sull'uso consentito degli strumenti di IA.
- La protezione dei dati non è tutto: consideri altri aspetti, come la protezione del copyright e dei segreti commerciali, oltre alla protezione dei dati personali.
- Seguire gli ulteriori sviluppi: Rimanga informato sull'evoluzione delle normative a livello europeo, in quanto il futuro regolamento sull'AI potrebbe avere un impatto sui fornitori e sugli utenti di tali servizi.
Inoltre, sono essenziali revisioni continue, considerando i progressi tecnici e gli aggiornamenti dei modelli linguistici, mentre le autorità di protezione dei dati esaminano la legalità dei modelli linguistici esistenti nei casi di test.
altri articoli
Ultime notizie su protezione dei dati, GDPR, legislazione sull'AI e altro ancora