Bruxelles – Il primo agosto è un giorno che entrerà nella storia dell’Unione Europea. “Oggi entra in vigore la legge Ue sull’intelligenza artificiale, il quadro pionieristico europeo per un’intelligenza artificiale innovativa e sicura“, è l’annuncio della stessa presidente della Commissione Europea, Ursula von der Leyen, che in un post su X ha voluto aprire la giornata sottolineando l’importanza della notizia: “Promuoverà lo sviluppo dell’Ia di cui gli europei possono fidarsi e fornirà sostegno alle Pmi e alle startup europee per portare sul mercato soluzioni di intelligenza artificiale all’avanguardia”.
Esultano anche i socialdemocratici al Parlamento Europeo, che ringraziano il co-relatore per l’Atto Ue sull’Ia ed ex-capodelegazione del Partito Democratico, Brando Benifei, per il lavoro svolto nella scorsa legislatura: “Le pratiche inaccettabili di intelligenza artificiale saranno vietate in Europa e i diritti dei lavoratori e dei cittadini saranno tutelati”, anche grazie al “controllo umano e il suo uso responsabile”. Come aveva confermato lo stesso Benifei in un’intervista a Eunews dopo l’approvazione quasi plebiscitaria del testo da parte degli eurodeputati in sessione plenaria lo scorso 13 marzo, si potrà impostare nella decima legislatura del Parlamento Ue un ulteriore lavoro legislativo su aspetti ancora più specifici, come per esempio sull’uso nei luoghi di lavoro. “Noi europei abbiamo sempre sostenuto un approccio che mette le persone e i loro diritti al centro di tutto ciò che facciamo”, è quanto assicura von der Leyen lanciando oggi il nuovo Regolamento Ue: “Creiamo nuovi paletti, non solo per proteggere le persone e i loro interessi, ma anche per dare alle imprese e agli innovatori regole chiare e certezze“.
A questo punto bisogna osservare con attenzione le date. La nuova legislazione sarà pienamente applicabile fra 24 mesi, vale a dire che entro il 2 agosto 2026 tutti i Paesi membri dovranno adeguarsi alle disposizioni, ma con alcune eccezioni. Per i divieti di pratiche proibite l’applicazione scatterà già dopo 6 mesi, per i codici di condotta dopo 9 e per le norme generali sull’Ia (compresa la governance) dopo 12, mentre gli obblighi per i sistemi ad alto rischio saranno posticipati per un altro anno, con l’applicazione dopo 36 mesi. Nel frattempo, considerati i tempi di entrata in vigore del nuovo Regolamento e il potenziale impatto delle nuove tecnologie che continueranno a svilupparsi, è stato lanciato a metà novembre dello scorso anno il Patto Ue sull’intelligenza artificiale per anticipare volontariamente i requisiti sull’Ia e agevolare la transizione verso l’applicazione delle nuove norme.
La scala di rischio dell’intelligenza artificiale
Il Regolamento Ue prevede un livello orizzontale di protezione degli utenti, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Per quelli ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti.
Il Regolamento pone a livello inaccettabile – e perciò vieta – sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale) o le convinzioni religiose, e alcuni casi di polizia predittiva per gli individui.
Eccezioni, governance e modelli di fondazione
Nel Regolamento è stata introdotta una procedura di emergenza che consentirà alle forze dell’ordine di utilizzare uno strumento di intelligenza artificiale ad alto rischio che non ha superato la procedura di valutazione, che dovrà dialogare con il meccanismo specifico sulla tutela dei diritti fondamentali. Deroghe anche per l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’utilizzo ‘post-remoto’ potrà essere utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre quello in tempo reale “limitato nel tempo e nel luogo” per le ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica “specifica e attuale” e per la localizzazione o identificazione di una persona sospettata di aver commesso reati specifici (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Tra le nuove disposizioni già in atto c’è quella che ha istituito l’Ufficio ad hoc sull’Ia all’interno della Commissione Europea per supervisionare i sistemi di intelligenza artificiale per scopi generali integrati in un altro sistema ad alto rischio, affiancato da un forum consultivo per le parti interessate (rappresentanti di industrie, Pmi, start-up, società civile e del mondo accademico). Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato. Dalla stesura di una documentazione tecnica, al rispetto della legge Ue sul copyright, fino alla diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.
Innovazione e sanzioni
Sul piano del sostegno dell’innovazione, le sandbox (gli ambienti di prova in ambito informatico) di regolamentazione dell’intelligenza artificiale potranno creare un ambiente controllato per lo sviluppo, la sperimentazione e la convalida di sistemi innovativi anche in condizioni reali. Per alleggerire l’onere amministrativo delle imprese più piccole e proteggerle dalle pressioni degli attori dominanti del mercato, il Regolamento prevede azioni di sostegno e deroghe “limitate e chiaramente specificate”.
Per quanto riguarda infine le sanzioni, qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge Ue sull’intelligenza artificiale. In caso di violazione del Regolamento, l’azienda dovrà pagare o una percentuale del fatturato globale annuo nell’esercizio finanziario precedente o un importo predeterminato (a seconda di quale sia il più alto): 35 milioni di euro o il 7 per cento per le violazioni delle applicazioni vietate, 15 milioni di euro o il 3 per cento per le violazioni degli obblighi della legge, 7,5 milioni di euro o l’1,5 per cento per la fornitura di informazioni non corrette. Massimali più proporzionati saranno applicati invece per piccole e medie imprese e start-up.