La Commissione Europea richiederà alle piattaforme tecnologiche come TikTok, X e Facebook di rilevare i contenuti generati dall'intelligenza artificiale (AI) per proteggere le prossime elezioni Europee dalla disinformazione.
La Commissione ha avviato una consultazione pubblica sulle linee guida proposte per la sicurezza elettorale delle "very large online platforms" (VLOPs) e dei "very large online search engines" (VLOSEs). Le raccomandazioni mirano a ridurre le minacce per la democrazia rappresentate dall'IA generativa e dai deepfakes.
La bozza delle linee guida offre esempi di possibili misure per affrontare i rischi legati alle elezioni, tra cui azioni specifiche relative ai contenuti dell'IA generativa, la pianificazione della mitigazione dei rischi prima o dopo un evento elettorale e la definizione di indicazioni chiare per le elezioni del Parlamento Europeo.
L'IA generativa può fuorviare gli elettori o manipolare i processi elettorali creando e diffondendo contenuti artificiali ingannevoli e non autentici riguardanti personaggi politici, false rappresentazioni di eventi, sondaggi elettorali, contesti o narrazioni.
Condividiamo un tweet su X di — European Commission (@EU_Commission) February 8, 2024
Garantire l'integrità delle elezioni significa proteggere il dibattito pubblico, che in gran parte avviene online.
Stiamo chiedendo pareri sulla proposta di linee guida del Digital Services Act per affrontare i rischi online emergenti per i processi elettorali, salvaguardando al contempo gli elementi costitutivi delle nostre democrazie ↓
Ensuring election integrity means protecting public discourse – much of which occurs online.
— European Commission (@EU_Commission) February 8, 2024
We are seeking views on our draft Digital Services Act guidelines to address the emerging online risks to electoral processes while safeguarding the building blocks of our democracies ↓
Attualmente aperta alla consultazione pubblica nell'Unione Europea fino al 7 Marzo, la proposta di linee guida per la sicurezza elettorale raccomanda di avvisare gli utenti sulle piattaforme pertinenti di potenziali inesattezze nei contenuti prodotti dall'IA generativa.
Secondo la proposta, le linee guida suggeriscono anche di indirizzare gli utenti verso fonti di informazione autorevoli e affermano che i giganti tecnologici dovrebbero implementare misure di salvaguardia per prevenire la generazione di contenuti fuorvianti con un alto potenziale di impatto sul comportamento degli utenti.
Per quanto riguarda il testo generato dall'IA, la raccomandazione attuale è che i VLOP/VLOSE "indichino, ove possibile, negli output generati, le fonti reali delle informazioni utilizzate come input in modo da consentire agli utenti di verificarne l'affidabilità e contestualizzare ulteriormente le informazioni".
Le "best practices" per la riduzione dei rischi contenute nella bozza del documento si ispirano alla proposta legislativa recentemente approvata dall'UE, l'AI Act, e alla sua controparte non vincolante, l'AI Pact.
Le preoccupazioni per i sistemi avanzati di IA, come i modelli linguistici di grandi dimensioni, sono emerse dopo l'ondata virale del 2023, che ha reso noti strumenti come ChatGPT di OpenAI.
La Commissione non ha precisato quando le aziende saranno obbligate a etichettare i contenuti manipolati ai sensi del Digital Services Act.
Tuttavia, in un post sul blog aziendale, Meta ha annunciato che nei prossimi mesi introdurrà nuove linee guida sui contenuti generati dall' AI su Facebook, Instagram e Threads. Tutti i contenuti riconosciuti come generati dall'intelligenza artificiale, sia attraverso i metadati che attraverso un watermarking intenzionale, riceveranno un'etichetta visibile.