Aggiornamento: La legge europea sull'intelligenza artificiale (AI Act)

Il 12 luglio 2024, l'Unione Europea ha pubblicato ufficialmente la Legge sull'intelligenza artificiale (AI Act), Regolamento (UE) 2024/1689, nella Gazzetta ufficiale dell'UE. Questa storica normativa istituisce il primo quadro giuridico completo per la regolamentazione dei sistemi di IA nei 27 Stati membri dell'UE. Il Regolamento entrerà in vigore il 1° agosto 2024, con la maggior parte delle sue disposizioni applicabili a partire dal 2 agosto 2026.

large language model wittmann legal services

Panoramica

La legge europea sull'intelligenza artificiale è il risultato di lunghe trattative, finalizzate a creare un quadro giuridico armonizzato per lo sviluppo, la commercializzazione e l'uso dei sistemi di IA all'interno dell'UE. Il regolamento comprende 180 considerando e 113 articoli, adottando un approccio basato sul rischio per regolare l'intero ciclo di vita dei sistemi di IA. Il mancato rispetto della legge può comportare sanzioni finanziarie significative fino a 35 milioni di euro o al 7% del fatturato annuo globale, a seconda di quale importo sia più elevato.

Ambito di Applicazione

Il Regolamento definisce i sistemi di IA come sistemi basati su macchine con diversi gradi di autonomia, progettati per generare risultati come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali. Questa definizione ampia mira a distinguere l'IA dai sistemi software più semplici, allineandosi agli standard internazionali come quelli stabiliti dall'OCSE.

La legge europea sull'intelligenza artificiale si applica a vari attori, inclusi fornitori, utilizzatori, importatori e distributori di sistemi di IA, in particolare quelli che operano nel mercato UE. Importante è che la legge si applichi anche ai fornitori di paesi terzi se i risultati del loro sistema di IA sono utilizzati all'interno dell'UE. Alcune eccezioni si applicano, ad esempio per i sistemi di IA open-source che non sono classificati come ad alto rischio o utilizzati esclusivamente per scopi di ricerca scientifica.

Sistemi di IA Proibiti

Il Regolamento vieta specifiche pratiche di IA considerate dannose o manipolative, come tecniche subliminali che manipolano il comportamento o pratiche ingannevoli che distorcono il processo decisionale umano. Eccezioni limitate sono previste per le forze dell'ordine, in particolare per l'identificazione biometrica remota in tempo reale in spazi pubblici.

Sistemi di IA ad Alto Rischio

Il Regolamento classifica i sistemi di IA in base ai rischi che presentano, con i sistemi di IA ad "alto rischio" soggetti ai requisiti più rigorosi. Questi includono i sistemi di IA utilizzati in aree critiche come l'istruzione, l'occupazione e l'applicazione della legge. I sistemi ad alto rischio devono rispettare standard rigorosi in materia di governance dei dati, trasparenza, supervisione umana e sicurezza informatica. La legge prevede anche un processo per aggiornare l'elenco dei casi d'uso ad alto rischio in base all'evoluzione della tecnologia IA.

Modelli di IA Generale (GPAI Models)

Il Regolamento dedica un capitolo specifico ai modelli di IA generale (GPAI models), definiti come modelli di IA capaci di eseguire una vasta gamma di compiti in applicazioni diverse. I fornitori di modelli GPAI devono soddisfare obblighi dettagliati, tra cui mantenere la documentazione tecnica, garantire il rispetto delle leggi nazionali e collaborare con le autorità dell'UE. I modelli classificati come a rischio sistemico sono soggetti a requisiti aggiuntivi, come valutazioni standardizzate e segnalazione di incidenti.

Sanzioni

Il mancato rispetto delle rigide norme della legge europea sull'intelligenza artificiale può comportare sanzioni significative. La multa massima per violazioni relative a pratiche di IA vietate è di 35 milioni di euro o il 7% del fatturato globale. Le violazioni minori possono comportare sanzioni fino a 15 milioni di euro o il 3% del fatturato. Sanzioni speciali si applicano anche ai fornitori di modelli GPAI.

eu ai act infographics

More Articles

Latest news about Data Protection, GDPR, AI Legislation and more

ai visualized wittmann legal services

15 guidelines for companies using large language model chatbots

Key recommendations include specifying internal directives, involving data protection officers, securing authentication, refraining from personal data input and output, offering opt-out options, ensuring human involvement in legal decisions, and staying updated on evolving regulations, particularly the EU's upcoming AI Regulation.

Read more
chatgpt screen darkmode ai regulations wittmann legal services

EU vs. US - Comparison on AI legislation

Comparing White House's Executive Order (EO) and the EU's AI Act. Both policies prioritize AI testing, monitoring, and privacy protection but differ in their approach. The EU Act is more comprehensive, risk-based, and regulates high-risk use cases while the US EO is more flexible, sector-specific, and addresses broader political dimensions. It is important to understand both approaches for effective privacy compliance and AI governance programs as businesses navigate overlapping compliance efforts globally.

Read more
Contact us now