Esperti e ricercatori giapponesi di intelligenza artificiale invitano alla prudenza sull'uso di informazioni ottenute illegalmente per addestrare l'IA, che secondo loro potrebbe causare "un gran numero di casi di violazione del copyright", oltre alla perdita di posti di lavoro, alla falsificazione di informazioni e alla fuga di informazioni riservate.

Il 26 maggio è stata presentata una bozza del consiglio strategico sull'IA del governo, che solleva preoccupazioni sulla mancanza di regolamentazione in materia di IA, compresi i rischi che la tecnologia comporta per la violazione del copyright.

Secondo il legislatore giapponese Takashi Kii, attualmente non esistono leggi che vietino all'intelligenza artificiale di utilizzare materiale protetto da copyright e informazioni acquisite illegalmente per l'addestramento.

"Innanzitutto, quando ho controllato il sistema legale (legge sul copyright) in Giappone per quanto riguarda l'analisi delle informazioni da parte dell'IA, ho riscontrato che in Giappone, sia che si tratti di finalità non profit, sia che si tratti di attività a scopo di lucro, sia che si tratti di attività diverse dalla duplicazione, le informazioni vengono ottenute da siti illegali", ha dichiarato Takashi.

Takashi Kii interviene alla seconda sottocommissione del Comitato di supervisione della Camera dei Rappresentanti per gli insediamenti e l'amministrazione. Fonte: go2senkyo

"Il ministro Nagaoka ha dichiarato chiaramente che sia possibile utilizzare il lavoro per l'analisi delle informazioni, indipendentemente dal metodo e dal contenuto", aggiunge Takashi, riferendosi a Keiko Nagaoka, ministro dell'istruzione, della cultura, dello sport, della scienza e della tecnologia.

Takashi ha anche domandato quali siano le linee guida per l'uso di chatbot di intelligenza artificiale come ChatGPT nelle scuole, il che pone una serie di dilemmi, dato che, secondo quanto riferito, la tecnologia dovrebbe essere adottata dal sistema educativo già nel marzo 2024.

"Il Ministro Nagaoka ha risposto 'il prima possibile'; non c'è stata una risposta specifica riguardo alle tempistiche", ha precisato.

Intervistato da Cointelegraph, Andrew Petale, avvocato e responsabile dei diritti di marchio presso lo studio Y Intellectual Property di Melbourne, ha dichiarato che l'argomento rientra ancora in una "zona grigia".

"Gran parte di ciò che la gente non comprende è che il copyright protegge il modo in cui le idee vengono espresse, non protegge le idee stesse. Nel caso dell'IA, quindi, c'è un essere umano che inserisce informazioni in un programma", ha precisato, aggiungendo:

"Quindi gli input provengono dalle persone, ma l'espressione vera e propria proviene dall'IA stessa. Una volta immesse, le informazioni sono essenzialmente fuori dalle mani della persona, perché vengono generate o emesse dall'IA".

"Immagino che fino a quando la legislazione non riconoscerà le macchine o i robot come capaci di produrre autori, si tratterà di una sorta di zona grigia e di una specie di terra di nessuno".

Petale ha aggiunto che ciò genera molte domande ipotetiche che devono essere risolte prima con procedimenti legali e normative.

"Suppongo che la domanda sia: sono i creatori dell'IA ad essere responsabili della creazione dello strumento che viene usato per violare il copyright, o sono le persone che lo usano effettivamente per violare il copyright?" ha commentato.

In tale prospettiva, le aziende di IA sostengono generalmente che i loro modelli non violano il diritto d'autore, in quanto i loro AI-bot trasformano il lavoro originale in qualcosa di nuovo, il che si qualifica come fair use secondo le leggi degli Stati Uniti, dove si sta svolgendo la maggior parte degli interventi.

Traduzione a cura di Walter Rizzo