15 linee guida per le aziende che utilizzano chatbot con modelli linguistici di grandi dimensioni

Le raccomandazioni principali includono la definizione di direttive interne, il coinvolgimento dei responsabili della protezione dei dati, la sicurezza dell'autenticazione, l'astensione dall'inserimento e dall'emissione di dati personali, l'offerta di opzioni di opt-out, la garanzia di un coinvolgimento umano nelle decisioni legali e l'aggiornamento sulle normative in evoluzione, in particolare sul prossimo regolamento dell'UE sull'AI.

ai visualized wittmann legal services

Lista di controllo AI per le aziende

L'emergere dell'AI generativa, in particolare sotto forma di chatbot come ChatGPT, Luminous e Bard, rappresenta un mezzo efficiente per la creazione di contenuti. Sebbene questi strumenti siano diventati parte integrante di molte istituzioni, il loro utilizzo spesso manca di linee guida chiare. Il funzionamento di questi grandi modelli 68 linguistici (LLM) in un ambiente cloud comporta rischi significativi per la protezione dei dati. La riservatezza e i dati personali sono messi a rischio dalla condivisione di modelli LLM basati sul cloud, dove gli input contribuiscono all'ulteriore formazione del modello, esponendo potenzialmente segreti aziendali e informazioni personali. La lista di controllo che segue serve come guida per le organizzazioni per garantire un uso dei chatbot conforme alla protezione dei dati.

15 aspetti per un uso controllato dei chatbot LLM:

  • Specificare i regolamenti di conformità: Definire e documentare chiaramente le direttive interne sulle condizioni e gli scenari di utilizzo degli strumenti di intelligenza artificiale.
  • Coinvolgere i responsabili della protezione dei dati: Coinvolga i responsabili interni della protezione dei dati nella creazione di direttive e nella conduzione di valutazioni d'impatto sulla protezione dei dati.
  • Fornitura di un account funzionale: Fornire account di chatbot professionali per evitare la creazione di profili che utilizzano dati privati. Gli account di lavoro dovrebbero idealmente evitare i nomi dei singoli dipendenti.
  • Autenticazione sicura: Implementare password forti e fattori di autenticazione aggiuntivi per prevenire accessi non autorizzati e potenziali abusi.
  • Non inserire dati personali: Si astenga dal trasmettere dati personali ai modelli di intelligenza artificiale in base alle restrizioni dei termini e delle condizioni.
  • Nessun output di dati personali: Assicurarsi che i risultati delle applicazioni di AI non contengano dati personali, limitando gli input a casi non individuali.
  • Attenzione ai dati personali: Evitare inserimenti che potrebbero essere legati a persone specifiche, considerando il rischio di trarre conclusioni dal contesto.
  • Opt-out dalla formazione AI: Consentire agli utenti di rifiutare l'uso dei loro dati per scopi di formazione AI, se il servizio lo consente.
  • Opt-out della Cronologia: Disabilitare il salvataggio delle voci precedenti per evitare di collegare le singole voci, soprattutto in ambienti condivisi.
  • Verificare la correttezza dei risultati: Verificare l'accuratezza dei risultati generati dall'AI, in quanto i modelli possono includere informazioni obsolete o errate.
  • Controllare i risultati per la discriminazione: Valutare i risultati dell'IA per gli effetti discriminatori, assicurando la conformità con i quadri legali.
  • Nessuna decisione finale automatizzata: Le decisioni con conseguenze legali devono essere prese da esseri umani per rispettare i requisiti del GDPR.
  • Sensibilizzare i dipendenti: Fornisca formazione, linee guida e discussioni per sensibilizzare i dipendenti sull'uso consentito degli strumenti di IA.
  • La protezione dei dati non è tutto: consideri altri aspetti, come la protezione del copyright e dei segreti commerciali, oltre alla protezione dei dati personali.
  • Seguire gli ulteriori sviluppi: Rimanga informato sull'evoluzione delle normative a livello europeo, in quanto il futuro regolamento sull'AI potrebbe avere un impatto sui fornitori e sugli utenti di tali servizi.
La fonte

Inoltre, sono essenziali revisioni continue, considerando i progressi tecnici e gli aggiornamenti dei modelli linguistici, mentre le autorità di protezione dei dati esaminano la legalità dei modelli linguistici esistenti nei casi di test.

altri articoli

Ultime notizie su protezione dei dati, GDPR, legislazione sull'AI e altro ancora

european government strassbourg wittmann legal services

La Legge Europea La Normativa sui Dati (“Data Act”) e le sue conseguenze per la sua azienda.

La Normativa sui Dati (“Data Act”) sarà attuata nel settembre 2025 e influenzerà l'uso e l'accesso dei dati non personali generati dagli utenti in tutti i settori. Le aziende dovrebbero iniziare a prepararsi fin da ora per garantire la conformità alla nuova legislazione. Trovi una lista di controllo completa e le indicazioni principali per aiutare lei e la sua azienda a orientarsi tra i requisiti di accesso, condivisione e protezione dei dati.

LEGGI TUTTO
european flag wittmann legal services

L'IA generativa e il GDPR - una guida completa

Una guida completa per le aziende che utilizzano strumenti di IA generativa per garantire la conformità, la trasparenza e affrontare le potenziali sfide come i problemi di pregiudizio e di sicurezza, nonché il trattamento dei dati ai sensi del GDPR in relazione all'IA generativa.

LEGGI TUTTO
Contact us now