OpenAI ha evidenziato cinque importanti conclusioni maturate grazie al suo programma di finanziamento da 1 milione di dollari finalizzato a coinvolgere il pubblico nel decidere come l'intelligenza artificiale (IA) dovrebbe comportarsi per allineare meglio i suoi modelli ai valori dell'umanità.
A maggio 2023, l'azienda ha dichiarato la sua intenzione di assegnare 10 sovvenzioni del valore di 100.000$ ciascuna per esperimenti di creazione di un processo democratico "proof-of-concept" volto a determinare le regole da seguire per i sistemi di intelligenza artificiale.
In un blog post del 16 gennaio, l'azienda di AI ha illustrato come i 10 team beneficiari delle sovvenzioni hanno innovato la tecnologia democratica, i principali risultati del programma e i piani di implementazione di OpenAI per la nuova tecnologia democratica.
Stando al post, i team hanno raccolto le opinioni dei partecipanti con diverse modalità, scoprendo che le posizioni del pubblico cambiavano spesso, influenzando potenzialmente la frequenza dei processi di input. OpenAI ha constatato che un processo collettivo debba catturare in modo efficiente i valori fondamentali ed essere abbastanza sensibile da rilevare cambiamenti significativi nelle opinioni nel tempo.
Inoltre, alcuni team hanno riscontrato che il superamento del divario digitale è ancora complicato e può influenzare i risultati. Difatti, reclutare partecipanti attraverso il divario digitale è stato difficile a causa delle limitazioni della piattaforma e dei problemi di comprensione della lingua o del contesto locale.
Tuttavia, per alcuni team è stato complesso trovare un accordo all'interno di gruppi polarizzati, soprattutto quando un piccolo sottogruppo nutriva opinioni forti su una particolare questione. Il team di Collective Dialogues ha constatato che un piccolo gruppo si opponeva fortemente alla limitazione delle risposte degli assistenti AI a domande specifiche in ogni sessione, portando a disaccordi con i risultati della votazione a maggioranza.
Secondo OpenAI, bilanciare il consenso e rappresentare le diverse opinioni è una sfida per un singolo risultato. Il team di Inclusive.AI ha esplorato i meccanismi di voto, scoprendo che i metodi che riflettono i forti sentimenti delle persone e garantiscono una partecipazione paritaria sono considerati più democratici ed equi.
Per quanto riguarda i timori sul futuro dell'IA nella governance, il rapporto afferma che alcuni partecipanti hanno espresso nervosismo nei confronti della tecnologia applicata alla stesura delle politiche, auspicando trasparenza nel suo utilizzo. Tuttavia, dopo la deliberazione, i team hanno evidenziato una maggiore speranza nella capacità del pubblico di guidare l'IA.
OpenAI dichiara di voler implementare le idee dei partecipanti pubblici e di voler formare un nuovo team di ricercatori e ingegneri di Collective Alignment per creare un sistema di raccolta e codifica dei suggerimenti del pubblico sui comportamenti dei suoi modelli all'interno di prodotti e servizi dell'azienda.
Traduzione a cura di Walter Rizzo