Aggiornamento: La legge europea sull'intelligenza artificiale (AI Act)
Il 12 luglio 2024, l'Unione Europea ha pubblicato ufficialmente la Legge sull'intelligenza artificiale (AI Act), Regolamento (UE) 2024/1689, nella Gazzetta ufficiale dell'UE. Questa storica normativa istituisce il primo quadro giuridico completo per la regolamentazione dei sistemi di IA nei 27 Stati membri dell'UE. Il Regolamento entrerà in vigore il 1° agosto 2024, con la maggior parte delle sue disposizioni applicabili a partire dal 2 agosto 2026.
Panoramica
La legge europea sull'intelligenza artificiale è il risultato di lunghe trattative, finalizzate a creare un quadro giuridico armonizzato per lo sviluppo, la commercializzazione e l'uso dei sistemi di IA all'interno dell'UE. Il regolamento comprende 180 considerando e 113 articoli, adottando un approccio basato sul rischio per regolare l'intero ciclo di vita dei sistemi di IA. Il mancato rispetto della legge può comportare sanzioni finanziarie significative fino a 35 milioni di euro o al 7% del fatturato annuo globale, a seconda di quale importo sia più elevato.
Ambito di Applicazione
Il Regolamento definisce i sistemi di IA come sistemi basati su macchine con diversi gradi di autonomia, progettati per generare risultati come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali. Questa definizione ampia mira a distinguere l'IA dai sistemi software più semplici, allineandosi agli standard internazionali come quelli stabiliti dall'OCSE.
La legge europea sull'intelligenza artificiale si applica a vari attori, inclusi fornitori, utilizzatori, importatori e distributori di sistemi di IA, in particolare quelli che operano nel mercato UE. Importante è che la legge si applichi anche ai fornitori di paesi terzi se i risultati del loro sistema di IA sono utilizzati all'interno dell'UE. Alcune eccezioni si applicano, ad esempio per i sistemi di IA open-source che non sono classificati come ad alto rischio o utilizzati esclusivamente per scopi di ricerca scientifica.
Sistemi di IA Proibiti
Il Regolamento vieta specifiche pratiche di IA considerate dannose o manipolative, come tecniche subliminali che manipolano il comportamento o pratiche ingannevoli che distorcono il processo decisionale umano. Eccezioni limitate sono previste per le forze dell'ordine, in particolare per l'identificazione biometrica remota in tempo reale in spazi pubblici.
Sistemi di IA ad Alto Rischio
Il Regolamento classifica i sistemi di IA in base ai rischi che presentano, con i sistemi di IA ad "alto rischio" soggetti ai requisiti più rigorosi. Questi includono i sistemi di IA utilizzati in aree critiche come l'istruzione, l'occupazione e l'applicazione della legge. I sistemi ad alto rischio devono rispettare standard rigorosi in materia di governance dei dati, trasparenza, supervisione umana e sicurezza informatica. La legge prevede anche un processo per aggiornare l'elenco dei casi d'uso ad alto rischio in base all'evoluzione della tecnologia IA.
Modelli di IA Generale (GPAI Models)
Il Regolamento dedica un capitolo specifico ai modelli di IA generale (GPAI models), definiti come modelli di IA capaci di eseguire una vasta gamma di compiti in applicazioni diverse. I fornitori di modelli GPAI devono soddisfare obblighi dettagliati, tra cui mantenere la documentazione tecnica, garantire il rispetto delle leggi nazionali e collaborare con le autorità dell'UE. I modelli classificati come a rischio sistemico sono soggetti a requisiti aggiuntivi, come valutazioni standardizzate e segnalazione di incidenti.
Sanzioni
Il mancato rispetto delle rigide norme della legge europea sull'intelligenza artificiale può comportare sanzioni significative. La multa massima per violazioni relative a pratiche di IA vietate è di 35 milioni di euro o il 7% del fatturato globale. Le violazioni minori possono comportare sanzioni fino a 15 milioni di euro o il 3% del fatturato. Sanzioni speciali si applicano anche ai fornitori di modelli GPAI.