ChatGPT, popolare chatbot basato su intelligenza artificiale, può nuovamente offrire i propri servizi in Italia, dopo aver risolto i problemi di privacy evidenziati dal "Garante per la protezione dei dati personali," autorità amministrativa indipendente che si occupa di garantire il rispetto della privacy.

Il 31 marzo, ChatGPT di OpenAI era stato sottoposto a un divieto temporaneo in Italia dopo che l'ente di controllo ha evidenziato che il servizio potrebbe violare la General Data Protection Regulation (GDPR) dell'Unione Europea. Il Garante aveva dichiarato:

"Stop a ChatGPT finché non rispetterà la disciplina privacy. [...] Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. [...]

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza."

Esattamente 29 giorni dopo, il CEO di OpenAI Sam Altman ha annunciato che ChatGPT è "nuovamente disponibile in Italia," senza tuttavia rivelare le misure adottate dall'azienda per soddisfare le richieste di trasparenza del regolatore:

Per poter nuovamente operare in Italia, ChatGPT ha dovuto rivelare le proprie pratiche di trattamento dei dati e vietare il servizio ai minori di 13 anni. Il divieto era stato imposto in seguito a una fuga di dati, che aveva permesso ad alcuni clienti di ChatGPT e GPT API di visualizzare i dati generati da altri utenti:

"Lunedì abbiamo mandato ChatGPT offline per correggere un bug in una libreria open-source, che permetteva ad alcuni utenti di vedere i titoli nella cronologia delle chat di altri utilizzatori del servizio. La nostra indagine mostra che solo l'1,2% dei clienti di ChatGPT Plus potrebbe aver rivelato i propri dati personali ad altri utenti.

Riteniamo che il numero di utenti i cui dati siano stati effettivamente rivelati a terzi sia estremamente basso, e abbiamo già contattato coloro che potrebbero essere stati danneggiati. Prendiamo molto sul serio la questione e condividiamo qui i dettagli della nostra indagine e del nostro piano."

I legislatori dell'Unione Europea stanno attualmente lavorando a un quadro normativo per tenere sotto controllo i rapidi sviluppi del settore AI. La proposta di legge mira a classificare gli strumenti basati su intelligenza artificiale in base alle loro capacità e al livello di rischio percepito, che andrà da "minimo" a "inaccettabile." Gli strumenti particolarmente rischiosi non saranno comunque vietati del tutto, bensì soggetti a requisiti di trasparenza più severi.

Traduzione a cura di Alessio Marino