La European Data Protection Board (EDPB) ha pubblicato il primo report della sua "GPT Taskforce."

L'EDPB ha preso atto degli sforzi compiuti da OpenAI per adeguare il suo modello di punta, ChatGPT, alle norme dell'Unione Europea, compresa la General Data Protection Regulation (GDPR). Tuttavia, l'organismo dell'UE considera tali misure insufficienti:

"Sebbene le misure adottate per conformarsi al principio di trasparenza siano utili per evitare un'interpretazione errata dell'output di ChatGPT, non sono sufficienti la conformità normativa."

Secondo il report dell'EDPB, OpenAI non avrebbe fatto abbastanza per rendere ChatGPT conforme alle leggi dell'UE. La principale lamentela sembra essere che ChatGPT sia eccessivamente incline a fornire informazioni imprecise:

"A causa della natura probabilistica del sistema, l'attuale approccio del training porta a un modello che può anche produrre risultati distorti o inventati. [Temiamo che] i risultati forniti da ChatGPT possano essere considerati accurati dagli utenti finali."

Al momento non è chiaro come OpenAI possa rendere ChatGPT conforme alle leggi europee. Il modello GPT-4 contiene infatti miliardi di data points e migliaia di miliardi di parametri: sarebbe impossibile per degli esseri umani esaminare l'accuratezza di questo dataset. Sfortunatamente per OpenAI, l'EDPB ha anche scritto che "l'impossibilità tecnica non può essere invocata per giustificare il mancato rispetto di tali requisiti."

Nel corso del 2024, diversi Stati membri dell'Unione Europea hanno inviato a OpenAI ordini di arresto temporaneo delle operazioni. A gennaio, il Garante italiano per la protezione dei dati personali ha rilasciato una dichiarazione in cui afferma che l'azienda starebbe violando le leggi sulla protezione dei dati e sulla privacy.