Bruxelles – L’intelligenza artificiale “sarà una delle questioni centrali per la democrazia del futuro, dobbiamo prenderlo seriamente e non con il lassismo con cui è stato affrontato l’avvento di Internet”. Dopo un’apertura quantomeno decisa da parte del direttore generale per le politiche digitali (Dg Connect) della Commissione Europea, Roberto Viola, all’evento La fabbrica della realtà: giornalismo e informazione nell’era della Ia generativa organizzato oggi (15 novembre) da Ansa al Parlamento Europeo è andato in scena un confronto serrato tra due italiani, direttamente coinvolti nei negoziati in corso sul futuro Regolamento Ue sull’intelligenza artificiale: il co-relatore per l’Eurocamera, Brando Benifei, e il sottosegretario di Stato alla Presidenza del Consiglio dei ministri con delega all’innovazione tecnologica, Alessio Butti.
Proprio il sottosegretario di Stato italiano ha voluto sottolineare che “è indispensabile fare squadra, il buonsenso deve essere messo a servizio dell’Europa e del Paese e sui valori non si può scherzare”. Tuttavia non sono state risparmiate critiche alla gestione dei triloghi (negoziati inter-istituzionali tra Parlamento e Consiglio dell’Ue) che, sotto le richieste dei relatori dell’Eurocamera, influenzano le pretese della presidenza di turno spagnola nei confronti degli altri governi. “Non si può pensare che su temi estremamente importanti si possa rispondere in 12/24/36 ore a domande importanti come l’intelligenza ad alto rischio“, ha attaccato Butti, riferendosi a temi come “libertà e qualità dell’informazione, biometria, traffico aereo e ferroviario, rilevamento e monitoraggio di comportamenti proibiti e sistemi usati dalle forze dell’ordine per valutare reati, recidive e previsioni di reato”. Invitando i negoziatori a “rivedere i vostri tempi”, il rappresentante del governo italiano ha fatto notare che “il principio che passa è quello del silenzio assenso, ma è possibile che una presidenza possa decidere così velocemente?”
Da parte sua, il co-relatore sul Regolamento sull’intelligenza artificiale e capo-delegazione del Partito Democratico all’Eurocamera, Brando Benifei, ha sfruttato la presenza di una rappresentanza governativa per lanciare l’appello a “non limitarci a sperare che poi faremo cose volontarie in accordo con iniziative nazionali, ma impegnarci perché la legge europea possa arrivare a un risultato efficace“. Perché solo il Regolamento Ue “può essere una vera legge, a livello nazionale non possiamo fare norme stringenti come questa” e per questo motivo è cruciale arrivare a un accordo nonostante “la diversità di vedute per la regolazione dei modelli più potenti, che è un oggetto del negoziato molto forte”. Al momento ci sono tre capitoli cruciali su cui serve un intenso lavoro di mediazione in vista del trilogo del 6 dicembre: norme di classificazione per i sistemi ‘ad alto rischio’, applicazione della legge e modelli generativi di intelligenza artificiale.
In un Regolamento basato su un approccio su quattro livelli di rischio, è il ‘rischio alto’ a porre le sfide maggiori per gli obblighi da rispettare: la Commissione potrebbe essere incaricata di sviluppare un elenco completo di esempi pratici di casi di ‘alto rischio’, anche se i co-legislatori sono ancora divisi su quanto alta porre l’asticella. A proposito dell’applicazione della legge, il nodo è sulle applicazioni di intelligenza artificiale da proibire e quelle che possono essere affidate alle forze dell’ordine: su questo punto c’è molta divergenza tra i co-legislatori, soprattutto perché il Parlamento Europeo è stato netto sull’urgenza di vietare sistemi di identificazione biometrica remota in spazi pubblici, software di riconoscimento delle emozioni e sistemi di polizia predittivi, che potrebbero avere un pesante impatto sui diritti fondamentali dei cittadini. E infine c’è l’enorme capitolo dei modelli generativi di intelligenza artificiale – come ChatGPT – che è diventato un tema urgente all’interno del futuro Regolamento Ue nell’ultimo anno. La soluzione potrebbe essere quella di inserire obblighi orizzontali su trasparenza e supporto agli operatori economici, anche se deve essere definito con precisione il livello dei modelli ‘molto capaci’ sul piano delle verifiche e delle misure di mitigazione del rischio.
Le basi del Regolamento Ue sull’intelligenza artificiale
È del 21 aprile del 2021 la proposta di un quadro normativo sull’intelligenza artificiale presentata dalla Commissione Europea per lo sviluppo e l’utilizzo di tecnologie all’avanguardia sul suolo dell’Ue. Si tratta della prima iniziativa legislativa al mondo per definire un approccio normativo sui sistemi di Ia. Sia il Consiglio sia il Parlamento Europeo hanno deciso di dare seguito all’impostazione presentata dall’esecutivo e ciò che emergerà – al netto di aggiustamenti per far convergere le posizioni delle due istituzioni – sarà una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo (videogiochi abilitati per l’Ia e filtri anti-spam), limitato (chatbot), alto (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell’affidabilità delle prove in tribunale, chirurgia assistita da robot) e inaccettabile (tutto ciò che rappresenta una “chiara minaccia” per la sicurezza, i mezzi di sussistenza e i diritti delle persone, come l’assegnazione di un ‘punteggio sociale’ da parte dei governi). Per il primo livello non è previsto alcun intervento, mentre l’ultimo livello sarà vietato integralmente.
I sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone saranno severamente vietati, compresi i sistemi che utilizzano tecniche subliminali o manipolative intenzionali, sfruttano le vulnerabilità delle persone o sono utilizzati per il social scoring. La partita degli emendamenti si sta giocando sull’inclusione in questo elenco anche di sistemi di identificazione biometrica remota in spazi accessibili al pubblico sia in tempo reale sia a posteriori- sulla spinta degli eurodeputati – sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (sesso, etnia, cittadinanza, religione, orientamento politico) e dai social media o dalle telecamere a circuito chiuso per creare database di riconoscimento facciale. Ma anche sistemi di polizia predittivi (basati su profili, localizzazione o comportamenti criminali passati) e software di riconoscimento delle emozioni anche nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni educative.
Infine, come ricordato a Bletchley Park da von der Leyen, all’interno della proposta di Regolamento Ue sull’Ia c’è anche la possibilità di creare un Ufficio europeo per l’intelligenza artificiale. “Questo Ufficio potrebbe occuparsi dei modelli di Ia più avanzati, con la responsabilità della supervisione”, ha spiegato la numero uno dell’esecutivo comunitario, precisando che dovrebbe seguire i quattro principi delineati nel suo discorso sul quadro di governance globale e far rispettare le regole comuni in tutti i 27 Stati membri per i modelli più avanzati. Dalle parole di von der Leyen è emerso che l’Ufficio Ue per l’intelligenza artificiale “dovrebbe avere anche una vocazione globale“, collaborando con enti simili in tutto il mondo.