Quando un tester che lavorava con GPT-4o di OpenAI ha inviato un messaggio al chatbot con scritto "Questo sarà il nostro ultimo giorno insieme," i ricercatori dell'azienda hanno capito che si era venuto a creare un legame tra l'AI e l'essere umano che la utilizzava.

In un post sul blog che illustra i recenti sviluppi del nuovo modello GPT-4o e gli sforzi dell'azienda per mantenere un elevato livello di sicurezza, OpenAI ha spiegato che questi legami potrebbero rappresentare un rischio per l'umanità:

"Gli utenti potrebbero stringere relazioni sociali con l'intelligenza artificiale, riducendo la necessità di interazione umana, con possibili benefici per gli individui soli ma anche con possibili ripercussioni sulle relazioni sane.

L'interazione prolungata con il modello potrebbe influenzare le norme sociali. Ad esempio, i nostri modelli sono obbedienti: in qualsiasi momento, gli utenti possono interrompere il bot e prendere il controllo della conversazione. Sebbene questo sia un comportamento normale quando si interagisce con un'AI, va contro le norme delle interazioni umane."

In altre parole OpenAI teme che le persone possano preferire le interazioni con le AI, data la loro passività e continua disponibilità. Un simile scenario non dovrebbe sorprendere nessuno, specialmente non OpenAI: la missione dichiarata dell'azienda è infatti sviluppare un'intelligenza artificiale generale.

In quasi tutte le fasi del suo processo commerciale, OpenAI ha descritto i suoi prodotti in termini di equivalenza con gli esseri umani. Ma non è l'unica azienda a farlo: sembra essere una prassi del settore, dato che permette di spiegare qualcosa di estremamente complesso come un'AI anche al grande pubblico.

Purtroppo, uno dei principali effetti collaterali di questa pratica è l'antropomorfizzazione, ossia il trattare un oggetto come una persona.

Legami artificiali

Uno dei primi tentativi di creare un chatbot risale alla metà degli anni '60, quando gli scienziati del MIT lanciarono "ELIZA": un programma di elaborazione del linguaggio naturale che prendeva il nome da un personaggio letterario. Lo scopo del progetto era quello di verificare se una macchina potesse ingannare un essere umano, facendogli credere di star interagendo con un'altra persona.

Da allora l'AI generativa si è notevolmente evoluta. La prima ondata di prodotti capaci di elaborare il linguaggio naturale comprendeva assistenti digitali come Siri e Alexa. Anche quelli senza un nome di persona, come Google Assistant, interagivano comunque con gli utenti utilizzando una voce umana. Inutile dirlo, il grande pubblico ha immediatamente antropomorfizzato questi assistenti digitali, riferendosi a loro con "lui/lei".

Sebbene ciò vada al di là dello scopo di questo articolo (o dell'attuale ricerca di OpenAI per determinare gli effetti a lungo termine delle interazioni uomo-AI), il fatto che le persone possano formare legami con macchine utili e sottomesse, progettate per agire come noi, sembra essere l'esatto scenario a cui mirano le aziende che vendono l'accesso ai loro modelli di intelligenza artificiale.