L'Unione Europea sta compiendo importanti passi avanti nella delineazione del futuro dell'intelligenza artificiale con lo sviluppo del primo "Codice di buone pratiche in materia di AI per scopi generali."
L'iniziativa è guidata dall'Ufficio europeo per l'intelligenza artificiale e riunisce centinaia di esperti mondiali provenienti dal mondo accademico, dal settore dell'AI e dalla società civile per redigere in modo collaborativo un quadro che affronterà questioni chiave come la trasparenza, il copyright, la valutazione dei rischi e la governance interna.
Quasi 1.000 esperti plasmeranno il futuro dell'AI in Europa
La sessione plenaria di avvio, tenutasi online con quasi 1.000 partecipanti, ha segnato l'inizio di un processo lungo mesi che si concluderà con la pubblicazione della bozza finale nell'aprile 2025.
Il Codice diverrà la colonna portante per l'applicazione delle leggi ai modelli per uso generale, come Large Language Models (LLM) e altri sistemi AI integrati in vari settori. Questa sessione ha anche introdotto quattro gruppi di lavoro, guidati da illustri presidenti e vicepresidenti del settore, che dirigeranno la stesura del Codice.
Tra questi figurano esperti di spicco come Nuria Oliver, ricercatrice di intelligenza artificiale, e Alexander Peukert, specialista tedesco del diritto d'autore. Questi gruppi si concentreranno sulla trasparenza e sul copyright, nonché sull'identificazione e sulla gestione dei rischi.
Secondo l'Ufficio europeo per l'intelligenza artificiale, questi gruppi di lavoro si riuniranno tra ottobre 2024 e aprile 2025 per redigere le disposizioni, ricevere suggerimenti dalle parti interessate e perfezionare il Codice attraverso una consultazione continua.
Preparare il terreno per una governance globale
La legge sull'AI dell'Unione Europea, approvata dal Parlamento europeo nel marzo 2024, è il testo legislativo di riferimento che mira a regolamentare la tecnologia in tutto il territorio. È stato creato per stabilire un approccio alla governance dell'AI incentrato sul rischio: la legge infatti classifica i sistemi in diversi livelli di rischio, da minimo a inaccettabile, e impone specifiche misure di conformità.
La legge è particolarmente rilevante per i modelli per uso generale, a causa delle loro ampie applicazioni e del loro potenziale impatto sociale: tali modelli vengono spesso collocati nelle categorie a rischio più elevato delineate dalla normativa.
Tuttavia alcune importanti aziende operanti nel campo dell'AI, tra cui Meta, hanno criticato la normativa in quanto troppo restrittiva, sostenendo che potrebbe soffocare l'innovazione. L'approccio collaborativo dell'UE alla stesura del Codice mira a trovare il giusto equilibrio tra sicurezza e innovazione.
La consultazione ha già raccolto oltre 430 contributi, che influiranno nella stesura del Codice. È probabile il Codice influenzerà le politiche sull'intelligenza artificiale in tutto il mondo, dato che un numero sempre maggiore di Paesi considera l'Unione Europea una sorta di guida per la regolamentazione delle tecnologie emergenti.