Come recentemente riportato, il governatore della California Gavin Newsom si è impegnato a garantire la sicurezza dei minori sui social media.
In un comunicato pubblicato lunedì, l'ufficio del governatore indica la firma da parte di Newsom di diversi disegni di legge che imporranno alle piattaforme l'aggiunta di funzioni di verifica dell'età, protocolli per affrontare il tema del suicidio e dell'autolesionismo e avvertenze per i chatbot. Il disegno di legge sull'intelligenza artificiale, SB 243, è stato presentato dai senatori statali Steve Padilla e Josh Becker a gennaio.
Padilla ha citato esempi di bambini che comunicano con bot di compagnia basati sull'intelligenza artificiale, che secondo quanto riferito avrebbero portato in alcuni casi a incoraggiare il suicidio. Il disegno di legge richiede alle piattaforme di informare i minori che i chatbot sono generati dall'intelligenza artificiale e potrebbero non essere adatti ai bambini, stando a Padilla.
“Questa tecnologia può essere un potente strumento educativo e di ricerca, ma se lasciata a se stessa, l'industria tecnologica è incentivata a catturare l'attenzione dei giovani e a mantenerla a scapito delle loro relazioni nel mondo reale”, sostiene Padilla.
La legge avrà probabilmente un impatto sulle società di social media e sui siti web che offrono servizi ai residenti della California utilizzando strumenti di intelligenza artificiale, tra cui potenzialmente i social media decentralizzati e le piattaforme di gioco. Oltre alle misure di salvaguardia relative ai chatbot, i disegni di legge mirano a limitare le affermazioni secondo cui la tecnologia agisca "in modo autonomo”, consentendo alle aziende di eludere la responsabilità.
L'SB 243 dovrebbe entrare in vigore a gennaio 2026.
In alcuni casi è stato segnalato che i chatbot basati su IA avrebbero fornito risposte che incoraggiavano i minori a compiere atti di autolesionismo o che potevano potenzialmente mettere a rischio la salute mentale degli utenti. Nel 2024, il governatore dello Utah Spencer Cox ha firmato una legge simile a quella della California, entrata in vigore a maggio, che impone ai chatbot IA di comunicare agli utenti la consapevolezza che non stanno parlando con un essere umano.
Azioni federali con l'espansione dell'IA
A giugno, la senatrice del Wyoming Cynthia Lummis ha presentato il Responsible Innovation and Safe Expertise (RISE) Act, che prevede “l’immunità dalla responsabilità civile” per gli sviluppatori IA potenzialmente esposti a cause legali da parte dei leader del settore “sanitario, legale, finanziario e altri settori cruciali per l'economia”.
Il disegno di legge ha ricevuto reazioni contrastanti ed è stato deferito alla Commissione per l'istruzione e la forza lavoro della Camera dei rappresentanti.