Bruxelles – Nella terra di Alan Turing, padre dell’informatica moderna, in quella Bletchley Park dove oltre 80 anni fa fu decifrato il codice Enigma. In occasione del Summit sulla sicurezza dell’intelligenza artificiale 2023 nel Regno Unito, è stata la presidente della Commissione Europea, Ursula von der Leyen, a cercare di spingere la comunità internazionale verso una nuova era di cooperazione in una delle aree che nel futuro a breve e lungo termine sarà la fonte di maggiori possibilità di ricerca, di guadagno economico e anche di rischio: le tecnologie emergenti basate su sistemi di intelligenza artificiale avanzata. “Dobbiamo stabilire standard di sicurezza dell’Ia che siano accettati in tutto il mondo”, è l’appello rivolto ai capi di Stato e di governo e ai proprietari delle aziende più rilevanti sul mercato.
“Non so quanto siamo vicini a macchine in grado di ragionare, alcuni dicono che esisteranno tra cinque anni, altri dicono di no”, ma non è minimamene in dubbio il fatto che “stiamo entrando in un’epoca completamente diversa, in cui le macchine possono agire in modo intelligente”. È per questo motivo che l’auspicio di von der Leyen è quello “imparare dal passato e agire in fretta”, per “sbloccare gli enormi vantaggi dell’intelligenza artificiale”. La base del discorso della numero uno dell’esecutivo comunitario è data dall’imminente Atto Ue sull’Ia, la prima legislazione al mondo che regola le nuove tecnologie emergenti sulla base di una scala di rischio. Proprio i principi del Regolamento in fase di ultimazione tra i co-legislatori del Parlamento e del Consiglio dell’Ue forniscono la bussola per tutta la comunità internazionale, che dovrà muoversi unita nell’affrontare un livello di sfide non gestibili dai singoli Paesi. È per questo motivo che proprio la fautrice della prima proposta legislativa in assoluto su questo tema ha voluto indicare come si può remare tutti insieme nella stessa direzione.
“Credo che un quadro di riferimento per comprendere e mitigare i rischi dei sistemi di intelligenza artificiale molto complessi debba essere costruito su 4 pilastri“, è stato l’annuncio di von der Leyen nel secondo giorno di Summit a Bletchley Park. Il primo pilastro del “sistema di governance efficace” è una comunità scientifica “fiorente e indipendente”, dotata di finanziamenti pubblici e dell’accesso “ai migliori supercomputer”. Il secondo è quello della definizione di procedure e standard di sicurezza globali, il terzo dell’implementazione di una procedura standard per cui “ogni incidente significativo causato da errori o uso improprio dell’Ia venga segnalato e seguito”. E infine il quarto pilastro, che riguarda un sistema internazionale di allarmi “alimentato da segnalatori di fiducia”. Il quadro di governance è perciò una sintesi tra la necessità di avere scienziati liberi e indipendenti – che forniscano “bilanciamenti scientifici oggettivi” ai rischi delle tecnologie – e organizzazioni più pronte a rispondere alle minacce grazie alla condivisione delle informazioni: “È una questione di tempo, anche i sistemi di intelligenza artificiale si evolvono e imparano“, ha ricordato von der Leyen. Di conseguenza gli sviluppatori devono agire “rapidamente” quando si verificano problemi, “sia prima sia dopo la commercializzazione dei loro modelli”.
L’impostazione della leader della Commissione Ue non si basa solo sull’analisi delle sfide future, ma anche sugli insegnamenti del passato: “Data la complessità di queste macchine intelligenti, la sicurezza dell’intelligenza artificiale è di conseguenza molto più complessa” e perciò “l’esperienza di altre tecnologie può essere la nostra guida“. Il primo esempio è l’energia atomica. La presidente von der Leyen ha ricordato che “gli scienziati hanno scoperto la fisica quantistica che ha portato all’energia nucleare – un bene – ma anche alla bomba atomica”, un rischio per l’umanità. E poi c’è una chiara dimostrazione di come si può sviluppare l’approccio comune: “Il trasporto aereo è diventato estremamente sicuro perché abbiamo imparato sistematicamente dagli errori”. Dal momento in cui “qualsiasi errore può portare a un risultato catastrofico”, è stato necessario definire una prassi standard per cui “viene reso pubblico e seguito”. In altre parole, segnalare un errore “non è un fallimento, ma è responsabile e appropriato”, visto che porta a indagini, condivisione dei risultati e raccomandazioni da seguire. La stessa “cultura della responsabilità” che von der Leyen chiede anche per l’intelligenza artificiale. Usando una semplice similitudine, le “regole di principio vincolanti” dovrebbero essere come i guardrail: “Non sono barriere, ma permettono al traffico di mantenere la strada e di procedere in sicurezza”.
La legge Ue sull’intelligenza artificiale
È del 21 aprile del 2021 la proposta di un quadro normativo sull’intelligenza artificiale presentata dalla Commissione Europea per lo sviluppo e l’utilizzo di tecnologie all’avanguardia sul suolo dell’Ue. Si tratta della prima iniziativa legislativa al mondo per definire un approccio normativo sui sistemi di Ia. Sia il Consiglio sia il Parlamento Europeo hanno deciso di dare seguito all’impostazione presentata dall’esecutivo e ciò che emergerà – al netto di aggiustamenti per far convergere le posizioni delle due istituzioni – sarà una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo (videogiochi abilitati per l’Ia e filtri anti-spam), limitato (chatbot), alto (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell’affidabilità delle prove in tribunale, chirurgia assistita da robot) e inaccettabile (tutto ciò che rappresenta una “chiara minaccia” per la sicurezza, i mezzi di sussistenza e i diritti delle persone, come l’assegnazione di un ‘punteggio sociale’ da parte dei governi). Per il primo livello non è previsto alcun intervento, mentre l’ultimo livello sarà vietato integralmente. Su un modello simile si è imposta anche la dichiarazione di Hiroshima sui principi del G7 per lo sviluppo dell’intelligenza artificiale, pubblicata lunedì (30 ottobre).
I sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone saranno severamente vietati, compresi i sistemi che utilizzano tecniche subliminali o manipolative intenzionali, sfruttano le vulnerabilità delle persone o sono utilizzati per il social scoring. La partita degli emendamenti si sta giocando sull’inclusione in questo elenco anche di sistemi di identificazione biometrica remota in spazi accessibili al pubblico sia in tempo reale sia a posteriori- sulla spinta degli eurodeputati – sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (sesso, etnia, cittadinanza, religione, orientamento politico) e dai social media o dalle telecamere a circuito chiuso per creare database di riconoscimento facciale. Ma anche sistemi di polizia predittivi (basati su profili, localizzazione o comportamenti criminali passati) e software di riconoscimento delle emozioni anche nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni educative.
Infine, come ricordato oggi (2 novembre) a Bletchley Park da von der Leyen, all’interno della proposta di Regolamento Ue sull’Ia – che si trova ora “nelle fasi finali del processo legislativo” – c’è anche la possibilità di creare un Ufficio europeo per l’intelligenza artificiale. “Questo Ufficio potrebbe occuparsi dei modelli di Ia più avanzati, con la responsabilità della supervisione”, ha spiegato la numero uno dell’esecutivo comunitario, precisando che dovrebbe seguire i quattro principi delineati nel suo discorso sul quadro di governance globale e “far rispettare le regole comuni in tutti i 27 Stati membri per i modelli più avanzati”. Dalle parole di von der Leyen emerge però che non sono solo i Ventisette a esserne interessati, perché l’Ufficio Ue per l’intelligenza artificiale “dovrebbe avere anche una vocazione globale“, collaborando con enti simili “in tutto il mondo”.