Bruxelles – L’ultimo passo prima della sessione plenaria che, vista l’anteprima in commissioni congiunte, metterà senza dubbio il timbro finale alla prima legislazione al mondo sull’intelligenza artificiale. “Con una schiacciante maggioranza” – come l’ha descritta la presidente della commissione per il Mercato interno e la protezione dei consumatori (Imco) del Parlamento Ue, Anna Cavazzini – gli eurodeputati hanno dato il via libera oggi (13 febbraio) al testo dell’accordo di compromesso raggiunto a inizio dicembre dello scorso anno con i negoziatori del Consiglio sul Regolamento Ue sull’intelligenza artificiale. Ora si attende l’approvazione definitiva in sessione plenaria e si potrà procedere con la messa a terra della nuova legislazione dell’Unione.
“Siamo i primi al mondo ad adottare una normativa così completa sull’intelligenza artificiale, che spiana la strada a un modello incentrato sull’essere umano, ora dobbiamo procedere con l’applicazione per proteggere i cittadini e costruire un Mercato unico digitale forte e resiliente“, ha messo in chiaro il co-relatore per il Parlamento Ue sull’Atto Ue sull’intelligenza artificiale, Brando Benifei (Pd), in occasione del voto in commissioni congiunte Imco e Libe (per le Libertà civili, la giustizia e gli affari interni). “Oggi è una giornata importante, l’abbiamo detto quando abbiamo approvato le nostre posizioni in commissione e, con negoziati lunghi e difficili, abbiamo lavorato per un risultato migliore possibile“, ha ricordato il capo-delegazione del Partito Democratico all’Eurocamera la maratona di 36 ore tra il 6 e l’8 dicembre 2023 per finalizzare l’intesa. Le “lunghissime ore” di trattative tra i negoziatori delle due istituzioni Ue sono state menzionate anche dal co-relatore Dragoș Tudorache (Renew Europe), che ha scherzato affermando che “non meritavamo di soffrire così tanto”.
Dopo il via libera più difficile in Consiglio dell’Ue lo scorso 2 febbraio e con i 71 voti a favore, 8 contrari e 7 astenuti in commissione, si prospetta una strada in discesa per l’Atto Ue sull’Ia all’ultima prova del voto in sessione plenaria dell’Eurocamera che – come confermano diverse fonti all’interno dell’istituzione Ue – dovrebbe tenersi alla mini-sessione planaria in programma a Bruxelles tra il 10 e l’11 aprile. Il Regolamento sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, fatta eccezione per i divieti di pratiche proibite (dopo 6 mesi), i codici di condotta (dopo 9 mesi), le norme generali sull’Ia compresa la governance (dopo 12 mesi) e gli obblighi per i sistemi ad alto rischio (dopo 36 mesi). Nel frattempo, in vista del potenziale impatto delle nuove tecnologie sulle elezioni europee di giugno 2024 e considerati i tempi di entrata in vigore del nuovo Regolamento, è stato lanciato a metà novembre il Patto Ue sull’intelligenza artificiale per anticipare volontariamente i requisiti, e dal 24 gennaio la Commissione ha istituito al suo interno un Ufficio ad hoc per l’Ia.
Cosa prevede l’Atto Ue sull’intelligenza artificiale
Il testo dell’intesa ha mantenuto un livello orizzontale di protezione, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Vietati invece – in quanto ‘livello inaccettabile‘ – i sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale).
Per i sistemi ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti. Una delle eccezioni più sostanziali è quella che riguarda la procedura di emergenza che consentirà alle forze dell’ordine l’utilizzo di strumenti che non hanno superato la procedura di valutazione, che dovrà dialogare con il meccanismo specifico sulla tutela dei diritti fondamentali. Anche l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico ha visto delle deroghe “previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti”. L’utilizzo ‘post-remoto’ esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre quello in tempo reale “limitato nel tempo e nel luogo” per le ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica “specifica e attuale” e per la localizzazione o identificazione di una persona sospettata di aver commesso reati specifici (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Nel testo dell’accordo sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di intelligenza artificiale possono essere utilizzati per molti scopi diversi (Ia per scopi generali) e in cui la tecnologia per scopi generali viene successivamente integrata in un altro sistema ad alto rischio. Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, è stato concordato che i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato. Dalla stesura di una documentazione tecnica, al rispetto della legge Ue sul copyright, fino alla diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.
Qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge Ue sull’intelligenza artificiale. In caso di violazione del Regolamento, l’azienda dovrà pagare o una percentuale del fatturato globale annuo nell’esercizio finanziario precedente o un importo predeterminato (a seconda di quale sia il più alto): 35 milioni di euro o il 7 per cento per le violazioni delle applicazioni vietate, 15 milioni di euro o il 3 per cento per le violazioni degli obblighi della legge, 7,5 milioni di euro o l’1,5 per cento per la fornitura di informazioni non corrette. Massimali più proporzionati saranno applicati invece per piccole e medie imprese e start-up.