In data odierna il Parlamento europeo ha approvato in via definitiva la legge sull'intelligenza artificiale (IA) dell'Unione europea, la EU AI Act, che rappresenta una delle prime normative al mondo in materia di IA. 
Stando al sito web del Parlamento europeo, la legge sull'IA dell'UE disciplinerà il blocco dei 27 Stati membri per garantire che "l'IA sia affidabile, sicura e rispetti i diritti fondamentali dell'UE, sostenendo al contempo l'innovazione".
Secondo l'annuncio, la legislazione ha ricevuto un voto favorevole di 523 persone. Si sono registrati 46 voti contrari e 49 astensioni.
Cointelegraph ha assistito a una conferenza stampa virtuale prima della votazione, durante la quale i membri del Parlamento europeo Brando Benifei e Dragos Tudorache hanno discusso con la stampa, definendola una "giornata storica nel nostro lungo cammino verso la regolamentazione dell'IA".
Benifei ha dichiarato che il risultato finale della legislazione contribuirà a creare un'IA "sicura e incentrata sull'uomo" con un collaudo che "riflette le priorità del Parlamento europeo".
La legislazione è stata proposta per la prima volta cinque anni fa e ha iniziato a prendere slancio nell'ultimo anno, di fronte al progressivo sviluppo di potenti modelli di IA e al loro utilizzo generalizzato. Il Parlamento ha raggiunto un accordo provvisorio al termine di quelle che Benifei ha definito "lunghe trattative" di dicembre 2023, per poi approvare l'accordo provvisorio con una votazione di 71-8 da parte delle Commissioni per il Mercato interno e per le Libertà civili il 13 febbraio. 
Mentre i legislatori si apprestano a votare oggi, Tudorache ha commentato che:

"Come Unione, abbiamo inviato a tutto il mondo il segnale che prendiamo molto sul serio la questione... Ora dobbiamo essere disposti a lavorare con gli altri... dobbiamo essere disposti a creare una governance [dell'IA] con il maggior numero di democrazie che la pensano allo stesso modo".

AI Act in azione

Dopo il provvedimento odierno, saranno apportate piccole modifiche linguistiche durante la fase di revisione della legge, che prevede la traduzione delle leggi dell'UE nelle lingue di tutti gli Stati membri.
Il disegno di legge sarà poi sottoposto a una seconda votazione nel mese di aprile e pubblicato nella Gazzetta ufficiale dell'UE, probabilmente a maggio, secondo quanto riportato da EuroNews.
A novembre inizieranno ad entrare in vigore i divieti sulle pratiche vietate.  Secondo Benifei, questi saranno obbligatori dal momento dell'emanazione. A parte le pratiche vietate, Benifei ha chiarito che "all'inizio non sarà completamente obbligatorio. C'è una tempistica".

Cosa è stato influenzato?

L'AI Act dell'UE suddivide i modelli di apprendimento automatico in quattro categorie in base al rischio che rappresentano per la società, con i modelli ad alto rischio soggetti alle regole più restrittive. 
Secondo il sito web dell'UE, il "rischio inaccettabile" è la categoria principale che vieta "tutti i sistemi di IA considerati una chiara minaccia alla sicurezza, ai mezzi di sostentamento e ai diritti delle persone saranno vietati, dal social scoring dei governi ai giocattoli che utilizzano un'assistenza vocale che incoraggia comportamenti pericolosi".
Un esempio potrebbe consistere nell'uso di sistemi di identificazione biometrica a distanza dotati di IA per la scansione dei volti in pubblico da parte delle autorità locali.
Le applicazioni "ad alto rischio" comprendono le infrastrutture critiche, la formazione scolastica o professionale, le componenti di sicurezza dei prodotti, i servizi privati e pubblici essenziali, l'applicazione della legge in grado di interferire con i diritti fondamentali delle persone, la gestione della migrazione e del controllo delle frontiere e l'amministrazione della giustizia e dei processi democratici.
Il "rischio contenuto" è correlato al livello di trasparenza nell'utilizzo dell'IA. L'esempio è quello dell'interazione con i chatbot dell'IA e della necessità che gli utenti siano consapevoli di interagire con una macchina, oltre a garantire che i contenuti generati dall'IA siano identificabili.
L'UE ha creato uno strumento chiamato "The EU AI Act Compliance Checker", che consente alle organizzazioni di verificare la propria posizione all'interno della legislazione. 

La legge dell'UE sull'IA concede un margine di manovra per il "libero utilizzo" dell'IA "a rischio minimo", che comprende applicazioni come i videogiochi dotati di IA o i filtri antispam.
Secondo l'UE, attualmente la "grande maggioranza" dei sistemi di IA utilizzati nell'UE rientra in questa categoria.

Chatbot AI 

Inoltre, con l'esplosione della diffusione e dell'accessibilità di chatbot IA come ChatGPT, Grok e Gemini, i legislatori hanno introdotto disposizioni per i modelli IA generativi.
Gli sviluppatori di modelli di IA generativi, comprese le startup nell'UE e alcuni dei nomi più importanti precedentemente menzionati, dovranno consegnare sintesi dettagliate dei dati di training utilizzati per istruire tali sistemi e rimanere conformi alla legge sul copyright dell'UE.
Anche i contenuti deepfake generati con l'IA dovranno essere etichettati in conformità alla legge in quanto manipolati artificialmente.

Reazione da parte delle aziende tecnologiche

In precedenza, l'AI Act dell'UE è stato contrastato dalle imprese e dalle società tecnologiche locali, le quali hanno esortato le autorità a non disciplinare eccessivamente le tecnologie AI emergenti a scapito dell'innovazione.
A giugno 2023, i dirigenti di 160 aziende del settore tecnologico hanno redatto una lettera pubblica alle autorità di regolamentazione dell'UE, sottolineando le implicazioni per l'innovazione locale in caso di regolamentazione troppo severa.
Tuttavia, dopo aver approvato la prima legislazione completa sull'IA al mondo, il Parlamento europeo ha ricevuto l'elogio del gigante tecnologico IBM in una dichiarazione di Christina Montgomery, vicepresidente e responsabile della privacy e della fiducia. Christina Montgomery ha dichiarato:

"Mi congratulo con l'UE per la sua leadership nell'approvare una legislazione completa e intelligente sull'IA. L'approccio basato sul rischio è in linea con l'impegno di IBM per le pratiche etiche di IA e contribuirà a sviluppare ecosistemi di IA aperti e affidabili".

Traduzione a cura di Walter Rizzo