Legge sull'intelligenza artificiale: Raggiunto un accordo fondamentale per le prime regole sull'intelligenza artificiale al mondo
Sommario
L'importante accordo sulla legge sull'intelligenza artificiale (AI) raggiunto dalla Presidenza del Consiglio e dal Parlamento europeo costituisce un precedente per l'integrazione dell'AI nel mercato europeo, proteggendo i diritti fondamentali e promuovendo l'innovazione. La legge sull'IA delinea un quadro normativo basato sul rischio, imponendo in particolare regole severe ai sistemi di IA ad alto rischio. La struttura di governance riveduta dell'accordo consente un'applicazione a livello di UE e prevede una valutazione dell'impatto sui diritti fondamentali per le implementazioni di IA ad alto rischio.
I sistemi di IA sono stati definiti in modo categorico, escludendo gli usi per la sicurezza nazionale, per scopi militari e per altre applicazioni non professionali, secondo l'approccio dell'OCSE. I sistemi ad alto rischio sono ora soggetti a severi requisiti di accesso al mercato dell'UE, con divieti specifici su pratiche come le tecniche di polizia manipolative o predittive. Ciononostante, le forze dell'ordine possono utilizzare l'identificazione biometrica a distanza con le opportune salvaguardie.
Sono state introdotte nuove disposizioni per i sistemi di IA di uso generale, incentrate sulla trasparenza e sulla gestione del rischio sistemico. Un Ufficio AI centralizzato gestirà questi sistemi, mentre il Consiglio AI e un forum consultivo ne sosterranno l'esecuzione e forniranno competenze. Le sanzioni per la non conformità si basano sul fatturato annuo globale, opportunamente adeguato per le PMI e le startup.
L'accordo mira inoltre a stimolare l'innovazione modificando le misure di sostegno e istituendo sandbox di regolamentazione dell'IA. L'applicazione della legge sull'IA è prevista due anni dopo la sua entrata in vigore, con alcune disposizioni soggette a scadenze specifiche. Questa proposta, avviata nell'aprile 2021, fa parte dello sforzo dell'UE di armonizzare lo sviluppo dell'IA con le considerazioni sui diritti fondamentali, rispecchiando l'influenza del Regolamento generale sulla protezione dei dati sulla protezione dei dati.
Aprire articolo completo
Legge sull'intelligenza artificiale: Raggiunto un accordo fondamentale per le prime regole sull'intelligenza artificiale al mondo
Introduzione
Dopo intensi negoziati durati tre giorni, la presidenza del Consiglio e il Parlamento europeo hanno raggiunto un accordo storico sulla legge sull'intelligenza artificiale. Questo atto, un'iniziativa legislativa pionieristica, mira a integrare in modo sicuro l'intelligenza artificiale nel mercato europeo, salvaguardando i diritti fondamentali e promuovendo l'innovazione in Europa.
Dichiarazione di Carme Artigas
Carme Artigas, Segretario di Stato spagnolo per la digitalizzazione e l'IA, ha sottolineato l'importanza di questo accordo. L'accordo rappresenta un equilibrio tra la promozione dell'innovazione dell'IA in Europa e la tutela dei diritti fondamentali dei cittadini.
La visione della legge sull'IA
La legge sull'IA è concepita per guidare lo sviluppo e l'uso dell'IA nel mercato unico dell'UE. Impiega un approccio basato sul rischio, stabilendo regole più severe per i sistemi di IA che presentano rischi maggiori. Questo atto è destinato a diventare un punto di riferimento globale per la regolamentazione dell'IA, proprio come il GDPR lo è stato per la protezione dei dati.
Punti salienti dell'accordo provvisorio
- Nuove regole e governance:
- L'accordo introduce regole per i modelli di IA ad alto impatto e per i sistemi di IA ad alto rischio.
- Un sistema di governance rivisto include poteri di applicazione a livello di UE.
- L'elenco dei divieti è stato ampliato, ma consente alle forze dell'ordine di utilizzare l'identificazione biometrica a distanza negli spazi pubblici nel rispetto di determinate garanzie.
- Chi impiega sistemi di IA ad alto rischio deve condurre una valutazione dell'impatto sui diritti fondamentali prima di utilizzarli.
- Definizioni e ambito di applicazione
- La definizione di sistema di IA è allineata con l'approccio dell'OCSE e fornisce criteri chiari.
- La legge sull'IA non copre la sicurezza nazionale, gli scopi militari, la ricerca, l'innovazione o l'uso non professionale dell'IA.
- Classificazione dei sistemi di IA:
- Un livello di protezione orizzontale prevede la classificazione dei sistemi di IA come ad alto rischio.
- I sistemi di IA ad alto rischio sono soggetti a requisiti per l'accesso al mercato dell'UE, con considerazioni sulla qualità dei dati e sulla documentazione tecnica, soprattutto per le PMI.
- Pratiche di IA vietate:
- Alcuni usi dell'IA sono considerati troppo rischiosi e sono vietati, come la manipolazione cognitiva del comportamento, il riconoscimento delle emozioni sul posto di lavoro e la polizia predittiva.
- Eccezioni per le forze dell'ordine:
- Sono previste eccezioni specifiche per le forze dell'ordine, bilanciando la riservatezza operativa con la tutela dei diritti fondamentali.
- Sistemi di IA per scopi generali e modelli di base:
- Nuove disposizioni riguardano i sistemi di IA per scopi generali e i modelli di fondazione, concentrandosi sulla trasparenza e sulla gestione del rischio sistemico.
- Architettura di governance:
- Un Ufficio AI all'interno della Commissione supervisionerà i modelli avanzati di AI.
- Il Comitato per l'IA, composto da rappresentanti degli Stati membri, coordinerà l'attuazione e fornirà consulenza sui modelli di base.
- Un forum consultivo includerà varie parti interessate per le competenze tecniche.
- Sanzioni:
- Le ammende sono fissate come percentuale del fatturato annuo globale o come importo predeterminato, con tetti proporzionali per le PMI e le startup.
- Trasparenza e diritti fondamentali:
- Prima di implementare sistemi di IA ad alto rischio, è obbligatorio effettuare una valutazione dell'impatto sui diritti fondamentali.
- È richiesta una maggiore trasparenza per l'uso di sistemi di IA ad alto rischio.
- Sostegno all'innovazione:
- L'accordo modifica le misure di sostegno all'innovazione, comprese le sandbox normative sull'IA per i test in condizioni reali.
- Entrata in vigore e fasi successive:
- L'AI Act si applicherà due anni dopo la sua promulgazione, con alcune disposizioni che hanno scadenze specifiche.
- Il testo di compromesso sarà sottoposto a finalizzazione e revisione giuridico-linguistica prima dell'adozione formale.
Contesto:
Lanciata nell'aprile 2021, la proposta della Commissione fa parte della politica dell'UE volta a promuovere uno sviluppo sicuro e legale dell'IA nel rispetto dei diritti fondamentali. Seguendo un approccio basato sul rischio, mira a creare un quadro giuridico uniforme per l'IA, migliorando la governance e l'applicazione e facilitando un mercato unico per le applicazioni di IA. I negoziati con il Parlamento europeo sono iniziati a metà giugno 2023 dopo l'accordo del Consiglio su questo dossier nel dicembre 2022.
Per saperne di più
- Atto sull'intelligenza artificiale, Approccio generale del Consiglio, 6 dicembre 2022
- Atto sull'intelligenza artificiale, proposta della Commissione, 14 aprile 2021
- Un approccio europeo all'intelligenza artificiale (informazioni della Commissione europea)
- Un futuro digitale per l'Europa (informazioni di base)
- La tua vita online: come l'UE la rende più facile e sicura (articolo)
- Intelligenza artificiale (informazioni di base)