dall’inviato a Strasburgo – Un Regolamento “volto a limitare i rischi e aumentare le opportunità, combattere le discriminazioni, portare trasparenza e i nostri valori democratici di libertà e uguaglianza dentro lo sviluppo dell’intelligenza artificiale, sostenendo allo stesso tempo l’innovazione e la competitività”. È così che il relatore per il Parlamento Europeo sull’Atto Ue sull’intelligenza artificiale, Brando Benifei (Pd), descrive la prima legislazione al mondo che disciplina usi e sviluppi dell’Ia, che oggi (13 marzo) ha superato un altro ostacolo sulla strada dell’entrata in vigore e ora attende solo il via libera conclusivo del Consiglio dell’Ue.
Con 523 voti a favore, 46 contrari e 49 astenuti gli eurodeputati riuniti in sessione plenaria hanno dato il semaforo verde al nuovo Regolamento sull’intelligenza artificiale, confermando la larghissima maggioranza già testata esattamente un mese fa nelle commissioni congiunte per il Mercato interno e la protezione dei consumatori (Imco) e Libe (per le Libertà civili, la giustizia e gli affari interni). “Abbiamo incluso nel testo finale la parte sulla trasparenza e la sicurezza dei modelli più potenti e gli obiettivi ambientali, riflette molto le priorità del Parlamento Europeo”, ha assicurato il capo-delegazione del Partito Democratico, rilanciando il lavoro per la prossima legislatura: “Abbiamo già chiesto alla Commissione una direttiva specifica per l’intelligenza artificiale sui luoghi di lavoro“. Un tema che è “parzialmente coperto” dal nuovo Regolamento, ma che “richiede ulteriore lavoro più dettagliato”, ha messo in chiaro Benifei parlando con la stampa. Ciò che manca ancora per la pubblicazione in Gazzetta Ufficiale dell’Ue è l’approvazione definitiva del Consiglio dell’Ue, che non dovrebbe essere particolarmente problematico dopo lo sblocco dell’impasse il 2 febbraio tra gli ambasciatori dei Ventisette.
Per quanto riguarda il lavoro immediato – non appena arriverà l’ok finale dai 27 ministri Ue – “dobbiamo accompagnare le aziende e le istituzioni, perché all’inizio il Regolamento non sarà subito obbligatorio“, ha ricordato il co-relatore Benifei. Il Regolamento sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, fatta eccezione per i divieti di pratiche proibite (dopo 6 mesi), i codici di condotta (dopo 9 mesi), le norme generali sull’Ia compresa la governance (dopo 12 mesi) e gli obblighi per i sistemi ad alto rischio (dopo 36 mesi). Nel frattempo, in vista del potenziale impatto delle nuove tecnologie sulle elezioni europee di giugno 2024 e considerati i tempi di entrata in vigore del nuovo Regolamento, è stato lanciato a metà novembre il Patto Ue sull’intelligenza artificiale per anticipare volontariamente i requisiti
La scala di rischio dell’intelligenza artificiale
Il Regolamento Ue prevede un livello orizzontale di protezione degli utenti, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Per quelli ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti.
Il Regolamento pone a livello inaccettabile – e perciò vieta – sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale) o le convinzioni religiose, e alcuni casi di polizia predittiva per gli individui.
Eccezioni, governance e modelli di fondazione
Rispetto alla proposta della Commissione è stata introdotta una procedura di emergenza che consentirà alle forze dell’ordine di utilizzare uno strumento di intelligenza artificiale ad alto rischio che non ha superato la procedura di valutazione, che dovrà dialogare con il meccanismo specifico sulla tutela dei diritti fondamentali. Deroghe anche per l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico, “previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti”. L’utilizzo ‘post-remoto’ potrà essere utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre quello in tempo reale “limitato nel tempo e nel luogo” per le ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica “specifica e attuale” e per la localizzazione o identificazione di una persona sospettata di aver commesso reati specifici (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Tra le nuove disposizioni già in atto c’è quella che ha istituito l’Ufficio ad hoc sull’Ia all’interno della Commissione Europea per supervisionare i sistemi di intelligenza artificiale per scopi generali integrati in un altro sistema ad alto rischio, affiancato da un forum consultivo per le parti interessate (rappresentanti di industrie, Pmi, start-up, società civile e del mondo accademico). Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato. Dalla stesura di una documentazione tecnica, al rispetto della legge Ue sul copyright, fino alla diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.
Innovazione e sanzioni
Sul piano del sostegno dell’innovazione, le sandbox (gli ambienti di prova in ambito informatico) di regolamentazione dell’intelligenza artificiale potranno creare un ambiente controllato per lo sviluppo, la sperimentazione e la convalida di sistemi innovativi anche in condizioni reali. Per alleggerire l’onere amministrativo delle imprese più piccole e proteggerle dalle pressioni degli attori dominanti del mercato, il Regolamento prevede azioni di sostegno e deroghe “limitate e chiaramente specificate”.
Per quanto riguarda infine le sanzioni, qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge Ue sull’intelligenza artificiale. In caso di violazione del Regolamento, l’azienda dovrà pagare o una percentuale del fatturato globale annuo nell’esercizio finanziario precedente o un importo predeterminato (a seconda di quale sia il più alto): 35 milioni di euro o il 7 per cento per le violazioni delle applicazioni vietate, 15 milioni di euro o il 3 per cento per le violazioni degli obblighi della legge, 7,5 milioni di euro o l’1,5 per cento per la fornitura di informazioni non corrette. Massimali più proporzionati saranno applicati invece per piccole e medie imprese e start-up.
I commenti
“Come con il Digital Services Art e la legge sulla pubblicità politica, anche sull’Intelligenza Artificiale l’Unione europea si pone come modello per il resto del mondo. Oggi, grazie all’approvazione dell’AI Act da parte del Parlamento europeo, diamo vita a una via europea all’innovazione, alla ricerca e allo sviluppo tecnologico, preservando i nostri valori democratici e le nostre libertà fondamentali”. Lo afferma Sandro Gozi, eurodeputato di Renew Europe e segretario generale del Partito democratico europeo.
Secondo Sabrina Pignedoli, europarlamentare del gruppo M5S (che si è astenuto, “il testo che è emerso rischia di essere più dannoso che utile. Le definizioni sono troppo vaghe, la ‘misurabilità’ dell’intelligenza artificiale è una chimera e l’AI Act si sovrappone, in alcune parti, ad altre norme europee, andando anche in contraddizione”. A giudizio di Pignedoli, “in questo modo diventa molto difficile, soprattutto per le piccole e medie imprese, poter avere un quadro normativo chiaro e semplice su cui basare i propri investimenti e la possibilità di accedere a tecnologie di intelligenza artificiale. Il rischio è che invece di promuovere la diffusione di una intelligenza artificiale sicura, si creino barriere d’entrata aumentando i divari e scoraggiando l’innovazione europea”.
Innocenzo Cipolletta, presidente dell’Associazione Italiana Editori (AIE) e di Confindustria Cultura Italia (CCI) sostiene che: “Con l’AI Act l’Unione Europea si dota di una legislazione quadro sull’Intelligenza Artificiale all’avanguardia nel mondo per la tutela dei diritti dei cittadini e del diritto d’autore”. “In particolare – continua Cipolletta – è importante che siano previste regole chiare sulla trasparenza delle fonti utilizzate dai sistemi di Intelligenza Artificiale per addestrare gli algoritmi: la trasparenza è infatti il requisito per poter analizzare criticamente gli output dell’Intelligenza Artificiale e, per chi detiene i diritti, sapere quali opere sono utilizzate nello sviluppo di questi strumenti, se provengono da fonti legali e se l’uso è stato autorizzato”.
Anche la Federazione degli editori europei (Fep) accoglie con favore l’adozione della legge sull’intelligenza artificiale (AI) da parte del Parlamento europeo: “l’UE dispone ora di regole che saranno un modello per il resto del mondo. La legge sull’IA richiama principi basilari ma fondamentali che le aziende di IA devono rispettare. Devono rispettare la legge sul diritto d’autore dell’Ue e garantire attivamente che lo facciano, anche se l’IA è stata addestrata al di fuori dell’Europa. Dovranno finalmente essere trasparenti sui dati utilizzati per addestrare la loro IA che, per loro stessa ammissione, si basa sull’uso di contenuti protetti da copyright”.