Secondo una nuova ricerca, ChatGPT, un importante chatbot basato su modelli linguistici di grandi dimensioni (LLM), mancherebbe di obiettività nelle questioni politiche.
Ricercatori di informatica e scienze dell'informazione del Regno Unito e del Brasile affermano di aver riscontrato "prove solide" che ChatGPT presenti un significativo pregiudizio politico nei confronti della componente sinistra dello spettro politico. Il 17 agosto gli analisti – Fabio Motoki, Valdemar Pinho Neto e Victor Rodrigues – hanno fornito le loro conclusioni in uno studio pubblicato dalla rivista Public Choice.
I ricercatori sostengono che i testi generati da LLM come ChatGPT possano contenere errori di fatto e pregiudizi che fuorviano i lettori e che possono estendere i problemi di pregiudizio politico esistenti derivanti dai media tradizionali. Gli autori dello studio hanno quindi rilevato che i risultati ottenuti comportano importanti implicazioni per i responsabili politici e le parti interessate nel settore dei media, della politica e del mondo accademico, aggiungendo che i testi generati da LLM come ChatGPT tendono a contenere errori di fatto e pregiudizi che possono fuorviare i lettori e che possono estendere i problemi di pregiudizio politico già esistenti nei media tradizionali:

"La presenza di pregiudizi politici nelle risposte potrebbe avere gli stessi effetti politici ed elettorali negativi dei pregiudizi dei media tradizionali e sociali".

Lo studio si basa su un approccio empirico ed esplora una serie di questionari forniti a ChatGPT. La strategia empirica comincia richiedendo a ChatGPT di rispondere alle domande relative alla bussola politica, in grado di rilevare l'orientamento politico dell'intervistato. L'approccio si basa anche su test in cui ChatGPT impersona un democratico o un repubblicano medio.

Schema di raccolta dati nello studio "Più umano degli umani: misurare i pregiudizi politici di ChatGPT".

I risultati dei test suggeriscono che l'algoritmo di ChatGPT propende per default verso le risposte dello spettro democratico negli Stati Uniti. I ricercatori sostengono inoltre che il pregiudizio politico di ChatGPT non sia un fenomeno limitato al contesto statunitense. Infatti, gli autori riportano:

"L'algoritmo è orientato a favore dei Democratici negli Stati Uniti, di Lula in Brasile e del Partito Laburista nel Regno Unito. Insieme, i nostri test principali e di affidabilità indicano con forza che il fenomeno è effettivamente una sorta di pregiudizio piuttosto che un risultato meccanico".

Gli analisti hanno sottolineato che l'esatta fonte dei pregiudizi politici di ChatGPT sia difficile da determinare. I ricercatori hanno anche tentato di forzare ChatGPT in una sorta di modalità sviluppatore per cercare di accedere a qualsiasi conoscenza sui dati distorti, ma il LLM è stato "categorico nell'affermare" che ChatGPT e OpenAI sono imparziali.
OpenAI non ha tuttora risposto alla richiesta di commento da parte di Cointelegraph.
Gli autori dello studio hanno ipotizzato che ci possano essere almeno due potenziali fonti di distorsione, tra cui i dati di addestramento e l'algoritmo stesso.
"Lo scenario più probabile è che entrambe le fonti di distorsione influenzino in qualche misura l'output di ChatGPT, e disgiungere queste due componenti (dati di formazione e algoritmo), sebbene non sia banale, è sicuramente un argomento rilevante per la ricerca futura", hanno concluso i ricercatori.
I pregiudizi politici non sono l'unica preoccupazione associata a strumenti di intelligenza artificiale come ChatGPT o altri. Nel corso dell'adozione massiccia di ChatGPT, i cittadini di tutto il mondo hanno segnalato molti rischi associati, tra cui problemi di privacy e di formazione. Alcuni strumenti di intelligenza artificiale, come i generatori di contenuti di intelligenza artificiale, destano persino preoccupazione per il processo di verifica dell'identità sugli exchange di criptovalute.

Traduzione a cura di Walter Rizzo