Il New York Times (NYT) ha sfidato OpenAI e Microsoft in una storica battaglia legale in cui ha accusato le società di aver violato il diritto d'autore mentre addestravano indebitamente modelli di intelligenza artificiale con informazioni provenienti dall'archivio della testata.
Tutte le parti hanno rilasciato dichiarazioni che esprimono il loro punto di vista, con OpenAI che definisce le affermazioni del NYT prive di fondamento e gli avvocati di quest'ultimo che affermano che l'uso del materiale da parte di OpenAI "non rappresenta un utilizzo corretto in alcun modo".
Il caso ha attirato l'attenzione di esperti di IA e di diritto, che stanno seguendo da vicino come potrebbe ridisegnare il panorama della regolamentazione dell'IA e dei diritti dei creator di contenuti.
Cointelegraph ha intervistato Bryan Sterba, partner di Lowenstein Sandler e membro del Lowenstein AI practice group, e Matthew Kohel, partner di Saul Ewing, per meglio comprendere le complessità legali del caso.
Sterba rileva che OpenAI propugna un'interpretazione ampia della difesa del "fair use", una posizione non del tutto supportata dalle leggi esistenti ma ritenuta necessaria per il progresso dell'IA generativa.
Secondo Sterricba si tratterebbe "fondamentalmente di un'argomentazione di politica pubblica" che OpenAI vorrebbe formulare intorno alla difesa dell'uso corretto, già adottata in altri Paesi per evitare di ostacolare il progresso dell'IA.
" Sebbene sia sempre difficile stabilire con certezza come un tribunale deciderà su una determinata questione, il NYT ha dimostrato ampiamente di possedere gli elementi di base di una richiesta di risarcimento per violazione".
Kohel ha inoltre precisato che la posta in gioco in questa causa giudiziaria sia "indubbiamente" molto alta.
"Il NYT reclama miliardi di dollari di danni", ha dichiarato, aggiungendo che "sostiene che OpenAI stia fornendo i suoi preziosi contenuti – a cui non si può accedere senza un abbonamento a pagamento – gratuitamente".
Egli ritiene che una sentenza a favore di OpenAI, che non ha commesso alcuna violazione, significherebbe che essa e altri provider di tecnologie AI possono utilizzare e riprodurre liberamente uno dei "beni più preziosi" del NYT: i suoi contenuti.
Kohel ha sottolineato che, al momento, non esiste un quadro giuridico che disciplini specificamente l'uso dei dati di addestramento per un modello di IA. Di conseguenza, i creator di contenuti come il NYT e gli autori come Sarah Silverman hanno intentato causa basandosi sul Copyright Act per proteggere i loro diritti di proprietà intellettuale.
La situazione potrebbe però evolversi: a dicembre 2023 i legislatori statunitensi hanno introdotto l'AI Foundation Model Transparency Act a nome del Congressional Artificial Intelligence Caucus bipartisan.
Secondo Kohel, se la legge venisse approvata, implicherebbe l'uso e la trasparenza dei dati utilizzati per l'apprendimento.
In sua difesa, OpenAI ha dichiarato che, fornendo agli editori la possibilità di scegliere di non essere utilizzati per la raccolta dei dati, agisce "nel modo corretto".
Sterba ha commentato la decisione sostenendo che:
"Il concetto di opt-out sarà una magra consolazione per il NYT e gli altri editori, in quanto non dispongono di alcuna informazione su quali porzioni del loro materiale pubblicato protetto da copyright siano già state sottoposte a scraping da parte di OpenAI".
L'evoluzione della causa porta alla ribalta il panorama legale in evoluzione che circonda l'IA sia per gli sviluppatori che per i creator. Kohel ha sottolineato l'importanza della consapevolezza per entrambe le parti:
"Gli sviluppatori di IA dovrebbero comprendere che il Congresso e la Casa Bianca – come dimostra l'ordine esecutivo emesso dal Presidente Biden ad ottobre 2023 – stanno esaminando con attenzione le varie implicazioni che i modelli di IA esercitano sulla società".
Ciò andrebbe oltre i diritti di proprietà intellettuale e si estenderebbe alle questioni di sicurezza nazionale.
"I creator di contenuti dovrebbero proteggere i loro interessi registrando le loro opere presso l'Ufficio del copyright, in quanto gli sviluppatori di IA potrebbero ritrovarsi a dover pagare loro una fee di licenza se utilizzano le loro opere per addestrare i loro LLM [grandi modelli linguistici]".
L'esito di questa causa è attesissimo dagli addetti ai lavori. Probabilmente influenzerà le future discussioni sulla regolamentazione dell'IA, sull'equilibrio tra innovazione tecnologica e diritti di proprietà intellettuale e sulle considerazioni etiche relative all'addestramento di modelli di IA con dati disponibili al pubblico.
Traduzione a cura di Walter Rizzo