Bruxelles – Un mese e mezzo dopo lo storico accordo sulla prima legge al mondo per disciplinare gli usi dell’intelligenza artificiale nasce all’interno della Commissione Europea il nuovo Ufficio per l’intelligenza artificiale, che avrà il compito di “garantire lo sviluppo e il coordinamento della politica sull’Ia a livello europeo” e di “supervisionare l’attuazione e l’applicazione” della legge che dovrà ora essere ratificata dai co-legislatori del Parlamento e del Consiglio dell’Ue. Una decisione che rientra nel più ampio pacchetto sull’innovazione per sostenere le start-up e le piccole e medie imprese, approvato oggi (24 gennaio) dal Collegio dei commissari.
La decisione – in vigore a partire da oggi, mentre le operazioni inizieranno nei prossimi mesi – dà seguito all’accordo politico sull’Atto sull’Ia raggiunto l’8 dicembre 2023. Come spiega in una nota l’esecutivo comunitario, l’Ufficio ad hoc diventerà “un organo centrale di coordinamento” delle politiche specifiche a livello Ue, attraverso una cooperazione con altri servizi della Commissione, con gli organi dell’Ue, con gli Stati membri e tutte le parti interessate. L’Ufficio avrà “una vocazione internazionale”, promuovendo l’approccio dell’Unione alla governance dell’Ia a livello globale e, più in generale, sviluppando “la conoscenza e la comprensione” delle nuove tecnologie e la loro “adozione e innovazione”.
Oltre all’Ufficio per l’Ia interno al Berlaymont, l’esecutivo comunitario ha previsto anche una serie di misure per un accesso privilegiato ai supercomputer per l’addestramento di modelli “affidabili” per le start-up e le Pmi, con l’obiettivo di “creare fabbriche di Ia”. Si punterà sull’acquisizione, l’aggiornamento e la gestione di supercomputer “per consentire un rapido apprendimento automatico e l’addestramento di modelli di Ia per scopi generali di grandi dimensioni”, la creazione di uno sportello unico per sviluppo di algoritmi, valutazione dei test e convalida di modelli di Ia su larga scala, e lo sviluppo di “applicazioni emergenti di Ia basate su modelli per scopi generali”. Tutto questo sarà possibile grazie a una modifica del Regolamento EuroHpc – quello che istituisce l’Impresa comune europea per il calcolo ad alte prestazioni – che definirà il “nuovo pilastro per le attività” dei supercomputer EuroHpc, tra cui Leonardo al Tecnopolo di Bologna. Bruxelles spingerà anche sull’iniziativa GenAI4EU (per il supporto ad applicazioni di robotica, salute, biotecnologie, clima e mondi virtuali), sulla diffusione degli spazi dati comuni europei e su due consorzi per le infrastrutture digitali europee: l’Alleanza per le tecnologie del linguaggio e CitiVerse (per simulare e ottimizzare i processi cittadini, dalla gestione del traffico alla gestione dei rifiuti).
L’Atto Ue sull’intelligenza artificiale
Dopo una maratona di 36 ore tra il 6 e l’8 dicembre 2023, i co-legislatori del Parlamento e del Consiglio dell’Ue hanno finalizzato l’accordo di compromesso sull’Atto Ue sull’intelligenza artificiale. Un’intesa che ha mantenuto un livello orizzontale di protezione, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Vietati invece – in quanto ‘livello inaccettabile‘ – i sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale) o le convinzioni religiose.
Per i sistemi ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti. Una delle eccezioni più sostanziali è quella che riguarda la procedura di emergenza che consentirà alle forze dell’ordine l’utilizzo di strumenti che non hanno superato la procedura di valutazione, che dovrà dialogare con il meccanismo specifico sulla tutela dei diritti fondamentali. Anche l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico ha visto delle deroghe “previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti”. L’utilizzo ‘post-remoto’ esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave, mentre quello in tempo reale “limitato nel tempo e nel luogo” per le ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica “specifica e attuale” e per la localizzazione o identificazione di una persona sospettata di aver commesso reati specifici (terrorismo, traffico di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Nel testo dell’accordo sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di intelligenza artificiale possono essere utilizzati per molti scopi diversi (Ia per scopi generali) e in cui la tecnologia per scopi generali viene successivamente integrata in un altro sistema ad alto rischio. Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, è stato concordato che i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato. Dalla stesura di una documentazione tecnica, al rispetto della legge Ue sul copyright, fino alla diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.
Qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge Ue sull’intelligenza artificiale. In caso di violazione del Regolamento, l’azienda dovrà pagare o una percentuale del fatturato globale annuo nell’esercizio finanziario precedente o un importo predeterminato (a seconda di quale sia il più alto): 35 milioni di euro o il 7 per cento per le violazioni delle applicazioni vietate, 15 milioni di euro o il 3 per cento per le violazioni degli obblighi della legge, 7,5 milioni di euro o l’1,5 per cento per la fornitura di informazioni non corrette. Massimali più proporzionati saranno applicati invece per piccole e medie imprese e start-up.