Bruxelles – Si moltiplicano i campanelli d’allarme sull’implementazione effettiva di alcuni dei pilastri dell’AI Act, il pioneristico regolamento dell’Ue sull’intelligenza artificiale entrato in vigore nell’agosto 2024. Sotto i riflettori, la stesura del ‘Codice di buone pratiche’, che giocherà un ruolo fondamentale nel contrasto ai “rischi sistemici” dell’IA. La scorsa settimana, i quattro gruppi di maggioranza dell’Eurocamera hanno espresso la propria preoccupazione sull’annacquamento delle norme a favore dei giganti dell’hi-tech. È di oggi (2 aprile) un secondo indizio: Reporters Sans Frontières (RSF) ha abbandonato il tavolo di scrittura, denunciando “la mancanza di garanzie sul diritto all’informazione e l’esorbitante peso dell’industria nel processo”.
L’AI Office, istituito presso la Commissione europea e composto da circa 140 dipendenti tra esperti informatici, assistenti amministrativi, avvocati, specialisti politici ed economisti, ha già prodotto tre bozze di tale Codice. Si tratta di una sorta di manuale di istruzioni sul rispetto della legislazione per quanto riguarda la cybersicurezza, la trasparenza delle informazioni nei riguardi degli utilizzatori, i dati usati per l’addestramento dei modelli, il rispetto del copyright, e la verifica di tutti gli elementi di rischio sistemico riguardo alla libertà di informazione, alla democrazia e ai diritti fondamentali. La scadenza indicata dal regolamento per arrivare alla stesura del testo definitivo è ormai dietro l’angolo, a inizio maggio. Se l’esecutivo Ue non lo ritenesse soddisfacente, potrebbe a quel punto assumersi il compito di prescrivere entro agosto una serie di norme comuni per l’attuazione degli obblighi prescritti ai fornitori di modelli di IA per finalità generali con rischio sistemico.
Nella stesura, l’Ufficio ad hoc all’interno della Commissione europea è affiancato da un forum consultivo (Advisory forum), composto dalle parti interessate: rappresentanti dell’industria, Pmi, start-up, società civile e del mondo accademico. È da questo organo che RSF, importante organizzazione per la libertà di stampa, ha deciso di disimpegnarsi in seguito alla pubblicazione della terza versione del Codice di buone pratiche, lo scorso 11 marzo. Un documento che secondo RSF “rimane ampiamente sufficiente”. Secondo il direttore generale, Thibaut Bruttin, “il Codice non contiene una sola disposizione concreta per combattere i pericoli comprovati che l’IA pone all’accesso a informazioni affidabili”. La conclusione è inequivocabile: “Non siamo stati ascoltati, non ci faremo prendere per fessi (‘Nous ne jouerons pas les idiots utiles’)”.
Questa dura presa di posizione riflette la critica già espressa chiaramente in una lettera, datata 25 marzo, giunta alla vicepresidente esecutiva della Commissione europea responsabile per la Sovranità tecnologica, Henna Virkkunen. La lettera è stata firmata firmata dall’eurodeputato del Partito Democratico, Brando Benifei, che è stato relatore dell’AI Act per il Parlamento europeo, dai relatori ombra dei quattro gruppi politici che hanno spinto per l’adozione del testo (popolari, socialdemocratici, liberali e verdi), e dall’ex segretaria di Stato spagnola alla Digitalizzazione e l’Intelligenza artificiale, Carme Artigas, che al tempo aveva condotto i negoziati sul testo a nome della presidenza spagnola del Consiglio dell’Ue.

I colegislatori hanno comunicato a Virkkunen la loro “grande preoccupazione” riguardo al Codice di buone pratiche, “in cui la valutazione e la mitigazione di vari rischi per i diritti fondamentali e la democrazia sono ora improvvisamente del tutto volontarie per i fornitori di modelli di IA a finalità generali con rischi sistemici”. La lettera prosegue: “Noi, i co-legislatori che hanno negoziato l’AI Act, sottolineiamo: questa non è mai stata l’intenzione dell’accordo” interistituzionale. Viceversa, “i rischi per i diritti fondamentali e la democrazia sono rischi sistemici che i fornitori di IA più impattanti devono valutare e mitigare. È pericoloso, antidemocratico e crea incertezza giuridica reinterpretare completamente un testo legale e restringere la sua portata, tramite un Codice di buone pratiche, dopo che è stato concordato dai co-legislatori”, rileva ancora la lettera.
Benifei, in un’intervista per Askanews, ha sottolineato però altri due elementi critici emersi dalla terza bozza del Codice: il primo riguarda le regole per garantire il rispetto dei diritti d’autore, il secondo le disposizioni sulla trasparenza e sulla condivisione di informazioni tecniche e di sicurezza. In un durissimo comunicato congiunto, le maggiori associazioni europee per la tutela dei diritti d’autore hanno dichiarato di non poter sostenere un Codice che “mina gli obiettivi della legge sull’Ia, contravviene alla legislazione europea e ignora le intenzioni dei legislatori”. La presidente esecutiva di Impala (l’Organizzazione europea per le imprese di musica indipendenti e le associazioni nazionali), Helen Smith, ha spiegato che la bozza “non fornisce ai creatori e ai titolari dei diritti europei gli strumenti per esercitare e far valere i propri diritti” di fronte all’uso delle informazioni per addestrare i modelli di IA.
Il timore di Benifei è che “ci possa essere un cedimento alla linea politica degli Stati Uniti” e alle pressioni dei giganti dell’Intelligenza Artificiale a stelle e strisce. Sarebbe una beffa, considerando che si parla di una legge di cui l’Ue si è dotata – per prima al mondo – proprio per tutelare i propri cittadini dall’utilizzo aggressivo e deregolamentato che si fa dell’IA oltreoceano.