Un pioniere dell'AI, soprannominato il "Padrino dell'intelligenza artificiale," si è dimesso dalla sua posizione in Google per poter parlare più apertamente dei potenziali pericoli di tale tecnologia.

Il dottor Geoffrey Hinton ha lavorato per oltre un decennio in Google sugli algoritmi di machine learning, e si è guadagnato il suo soprannome grazie ai traguardi raggiunti nelle reti neurali.

Tuttavia, in un tweet del 1° maggio, Hinton ha dichiarato di aver abbandonato l'azienda "per poter parlare dei pericoli dell'AI:"

"Sul New York Times di oggi, Cade Metz sostiene che io abbia lasciato Google per poter criticare la compagnia. In realtà, me ne sono andato per poter parlare dei pericoli dell'intelligenza artificiale senza dover considerare l'impatto che le mie parole potrebbero avere sull'azienda. Ad oggi, Google ha agito in modo molto responsabile."

In un'intervista rilasciata al New York Times, ha spiegato che la sua preoccupazione più immediata è la rapida diffusione sul web di foto, video e testi falsi, al punto che molti "non saranno più in grado di capire cosa sia vero e cosa no." Hinton teme inoltre che l'AI potrebbe rendere obsoleti molti posti di lavoro.

E in futuro non troppo lontano l'AI potrebbe rappresentare una minaccia per l'intera umanità, in quanto potrebbe apprendere comportamenti inaspettati dalle enormi quantità di dati che analizza costantemente.

Ha inoltre espresso preoccupazione per i continui tentativi di militarizzare l'intelligenza artificiale, ad esempio nell'uso di questa tecnologia nei Lethal Autonomous Weapons Systems (LAWS).

Hinton ha infine espresso un certo rimpianto per il lavoro di una vita:

"Mi consolo con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro."

Negli ultimi mesi, anche le autorità di regolamentazione, i legislatori e i dirigenti dell'industria tech hanno espresso timori per il rapido sviluppo dell'AI. A marzo, oltre 2.600 dirigenti e ricercatori del settore tech hanno firmato una lettera aperta in cui si chiedeva di bloccare temporaneamente lo sviluppo delle intelligenze artificiali, citando come motivazione "profondi rischi per la società e l'umanità."

Ad aprile un gruppo di 12 legislatori dell'Unione Europea ha pubblicato una lettera simile. Inoltre, un recente progetto di legge dell'UE mira a classificare gli strumenti basati su AI in base ai loro livelli di rischio. Il Regno Unito sta invece stanziando 125 milioni di dollari per sostenere una task force incentrata sullo sviluppo di una "AI sicura."