Le imminenti elezioni per il Parlamento europeo chiameranno al voto circa 400 milioni di persone e si inseriscono in un anno particolarmente vivace nello scenario mondiale (già definito “il più elettorale di sempre”), con un totale di circa 2 miliardi di elettori coinvolti in oltre 50 Paesi.
Come noto, da tempo sono all’attenzione delle istituzioni nazionali e sovranazionali i rischi sottesi, specialmente a ridosso delle elezioni, alle attività di disinformazione provenienti dall’interno ma soprattutto dall’esterno dei singoli Stati, dell’Unione Europea o degli Stati Uniti d’America, con particolare riguardo a quelle perpetrate, dopo l’espansione di internet e delle comunicazioni digitali, attraverso l’Intelligenza Artificiale.
A questo proposito, grazie allo sviluppo della “AI generativa” negli ultimi anni si sono diffusi sistemi in grado di produrre contenuti (immagini, video e testi) altamente realistici (deepfake): si pensi, ad esempio, alle tecniche di face reenactment e lip synching, attraverso le quali un video viene manipolato in modo da modificare i movimenti e le espressioni del volto della persona ritratta (è assai noto il caso del novembre 2023 legato alla diffusione massiva sui social network di un video che ritraeva la rappresentante democratica statunitense Ocasio-Cortez impegnata in un discorso su un argomento estremamente sensibile in realtà mai pronunciato); oppure ai sistemi capaci di sintetizzare contenuti audio a partire da input testuali (text-to-speech), ovvero di modificare contenuti audio in modo tale da trasferire su di essi le caratteristiche vocali di una determinata persona (voice conversion); o, infine, ai sistemi di produzione automatizzata di testi soltanto in apparenza realistici.
D’altro canto, l’Intelligenza Artificiale viene sempre più spesso utilizzata anche per la diffusione di contenuti disinformativi, come avviene attraverso i social bot, account falsi gestiti in forma automatizzata, oppure i sistemi di raccomandazione (recommender o recommendation systems) i quali, partendo dai dati e dalle informazioni raccolte sulle preferenze del singolo utente, sono in grado di predirne l’indice di gradimento con riferimento a nuovi contenuti ed elementi (specie nei social network o nelle piattaforme di video-sharing).
Consapevole del rischio che le elezioni di giugno per il Parlamento possano essere colpite – per utilizzare le parole della vicepresidente della Commissione europea per i Valori e la Trasparenza Vera Jurova – da “un’ondata di disinformazione”, l’Unione ha iniziato a spingere le grandi aziende tech a prendere dei provvedimenti anche nell’ottica di salvaguardare la partecipazione democratica. Infatti, dal 17 febbraio 2024 è in vigore il Regolamento UE 2022/2065 – Digital Services Act (DSA), che ha come principale obiettivo la protezione dei consumatori e dei loro diritti fondamentali all’interno della rete.
Il Regolamento si applica a tutti i servizi intermediari di trasmissione o memorizzazione dell’informazione (piattaforme, motori di ricerca, hosting) all’interno dell’Unione europea. I destinatari della normativa – società come Meta, Google, X Corp, ByteDance – sono assoggettati a una serie di nuovi obblighi improntati a una maggiore trasparenza nella gestione delle piattaforme (Facebook, Instagram, X, You Tube, TikTok, etc.), in particolare sul funzionamento degli algoritmi, sulle decisioni di rimozione dei contenuti e sulla personalizzazione della pubblicità nei confronti degli utenti. I prestatori di servizi sono altresì tenuti a predisporre meccanismi per consentire a qualunque persona o ente di notificare la presenza di informazioni o contenuti potenzialmente illegali; le eventuali restrizioni devono essere chiaramente e specificatamente motivate. In caso di accertata violazione, sono previste sanzioni pecuniarie (sino al 6% del fatturato mondiale totale annuo dell’impresa), penalità di mora (fino al 5% del fatturato medio giornaliero) e misure correttive adeguate.
A far data dall’entrata in vigore della normativa e nell’approssimarsi delle elezioni, la Commissione europea ha già formalmente instaurato alcuni procedimenti per valutare l’eventuale violazione del DSA, due dei quali nei confronti di Meta, fornitore di Facebook e Instagram. Il primo, risalente alla fine dello scorso mese di aprile, ha per oggetto proprio i contenuti politici: la Commissione sospetta che la strategia di Meta legata all’approccio ai contenuti politici, declassati nei sistemi di raccomandazione di Instagram e Facebook, compresi i loro feed, non sia conforme agli obblighi della DSA. L’indagine si concentrerà sulla compatibilità di tale approccio con gli obblighi di trasparenza e di ricorso degli utenti, nonché con i requisiti di valutazione e mitigazione dei rischi per il discorso civico e i processi elettorali. Un ulteriore profilo di indagine attiene alla presunta indisponibilità di un efficace strumento terzo di monitoraggio in tempo reale del discorso civico e delle elezioni in vista delle prossime operazioni di voto europee e nazionali, derivante dalla decisione di Meta di deprezzare “CrowdTangle”, uno strumento di public insights che consente il monitoraggio delle elezioni in tempo reale da parte di ricercatori, giornalisti e società civile.
Merita infine evidenziare che i sistemi di AI non possono essere concepiti soltanto come mezzi di produzione e diffusione dei contenuti fake, in quanto essi rappresentano nel contempo proprio uno dei principali strumenti di contrasto alla disinformazione sul web. L’AI viene infatti utilizzata dalle piattaforme on line per individuare i profili falsi (ad esempio i cosiddetti “bot” o “troll” della rete) monitorandone le attività e i comportamenti attraverso l’analisi di indicatori specifici; ma anche per scoprire i contenuti falsi o manipolati, utilizzando modelli di deep learning fondati su reti neurali “convoluzionali” (convolutional neural networks, CNN).
Le istituzioni e le tech companies sono dunque chiamate a modulare le loro strategie di contrasto alla disinformazione alla luce del contesto odierno: nella specie, andrà perseguito nel tempo l’obiettivo di cogliere le opportunità offerte dalle tecnologie di AI per garantire il regolare svolgimento dei processi di partecipazione e decisione pubblica, a partire dal test fondamentale delle operazioni di voto di questa settimana.
*Riccardo Borsari è avvocato e professore di diritto penale all’Università di Padova