Il 19 Giugno, Etherscan, piattaforma di analisi e block explorer di Ethereum, ha lanciato un nuovo strumento chiamato "Code Reader" che utilizza l'AI per recuperare e interpretare il codice sorgente di uno specifico indirizzo di contratto. Una volta che l'utente inserisce una richiesta, Code Reader genera una risposta attraverso il modello linguistico di OpenAI, fornendo informazioni sui file del codice sorgente del contratto. Nella pagina del tutorial dello strumento si legge che:

"Per utilizzare lo strumento, hai bisogno di una Key API OpenAI valida e di sufficienti limiti di utilizzo di OpenAI. Questo strumento non memorizza le tue key API".

I casi d'uso del Code Reader includono la possibilità di approfondire il codice dei contratti attraverso spiegazioni generate dall'AI, ottenere elenchi completi di funzioni di smart contract relative ai dati di Ethereum e capire come il contratto sottostante interagisce con le applicazioni decentralizzate. 

"Una volta recuperati i file dei contratti, è possibile scegliere uno specifico file di codice sorgente da leggere. Inoltre, è possibile modificare il codice sorgente direttamente all'interno dell'UI prima di condividerlo con l'IA", si legge nella pagina.

Una dimostrazione dello strumento Code Reader. Fonte: Etherscan

Nel pieno boom dell'IA, alcuni esperti hanno messo in guardia sulla fattibilità degli attuali modelli di intelligenza artificiale. Secondo un recente report pubblicato da Foresight Ventures, società di venture capital con sede a Singapore, "le risorse per la potenza di calcolo saranno al centro di una grande battaglia nel prossimo decennio". Detto questo, nonostante la domanda crescente per addestrare modelli AI di grandi dimensioni in reti decentralizzate con potenza di calcolo distribuita, i ricercatori affermano che i prototipi attuali devono affrontare vincoli significativi come la sincronizzazione dei dati, l'ottimizzazione della rete, la privacy e i problemi di sicurezza.

Ad esempio, i ricercatori di Foresight hanno rilevato che l'addestramento di un modello di grandi dimensioni con 175 miliardi di parametri e una rappresentazione single-precision floating-point richiederebbe circa 700 gigabyte. Tuttavia, l'addestramento distribuito richiede che questi parametri vengano trasmessi e aggiornati frequentemente tra i nodi computazionali. Nel caso di 100 nodi computazionali in cui ogni nodo deve aggiornare tutti i parametri in ogni fase unitaria, il modello richiederebbe la trasmissione di 70 terabyte di dati al secondo, superando di gran lunga la capacità della maggior parte delle reti. I ricercatori hanno riassunto:

"Nella maggior parte degli scenari, i modelli AI di piccole dimensioni sono ancora la scelta più fattibile e non dovrebbero essere trascurati troppo presto a causa della FOMO [fear of missing out] sui modelli di grandi dimensioni".