Bruxelles – L’attesa è finita. La proposta di un quadro normativo sull’intelligenza artificiale è stata presentata oggi (mercoledì 21 aprile) dalla Commissione Europea e da adesso si potrà discutere su basi concrete dei parametri europei per lo sviluppo e l’utilizzo di tecnologie all’avanguardia sul suolo dell’Unione Europea. “Questa proposta è la prima di sempre nel suo genere al mondo e rappresenta il nostro approccio all’intelligenza artificiale”, ha presentato così il nuovo quadro e il piano coordinato con gli Stati membri la vicepresidente della Commissione per il Digitale, Margrethe Vestager.
Regolamentazione delle tecnologie ad alto rischio, paletti per il riconoscimento biometrico, sicurezza dell’intelligenza artificiale (IA), rafforzamento degli investimenti e rispetto dei valori europei. Sono questi i punti focali di un insieme di regole pensate per “creare fiducia attorno a questo tema e rendere l’Unione un punto di riferimento globale”, ha spiegato Vestager. Grazie alla definizione di standard comunitari, “possiamo aprire la strada alla tecnologia etica in tutto il mondo“. Nello stesso momento, l’UE “rimarrà competitiva”, perché le regole “interverranno quando sono in gioco la sicurezza e diritti fondamentali dei cittadini europei”.
La scala di rischio
L’approccio europeo alle tecnologie all’avanguardia si basa su quattro livello di rischio per i diritti o la sicurezza dei cittadini. Alla base c’è il rischio minimo, che caratterizza la “stragrande maggioranza” dei sistemi IA (come videogiochi abilitati per l’intelligenza artificiale o filtri anti-spam): il progetto di regolamento non interviene in questo caso e consente l’uso gratuito delle applicazioni.
Salendo di grado, c’è il rischio limitato, che impone obblighi di trasparenza specifici ai sistemi IA. Per esempio, nel caso di utilizzo di chatbot (personaggi virtuali di intelligenza artificiale animati) gli utenti devono essere consapevoli che stanno interagendo con una macchina, “in modo che possano prendere una decisione informata per continuare o fare un passo indietro”, si legge nella proposta.
Il vertice della scala è occupato dal rischio inaccettabile, tutto ciò che rappresenta una “chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone”. Questa tipologia di intelligenza artificiale sarà vietata. Sono incluse le applicazioni che manipolano il comportamento umano e che hanno conseguenze sull’esercizio del libero arbitrio, come i giocattoli che utilizzano l’assistenza vocale per incoraggiare i minori verso comportamenti pericolosi e i sistemi che favoriscono l’assegnazione di un “punteggio sociale” da parte dei governi.
Tra il rischio limitato e il rischio inaccettabile si trova la fascia più complessa di intelligenza artificiale: è quella ad alto rischio, che ha richiesto alla Commissione un lavoro dettagliato di regolamentazione. I campi di applicazione sono diversi e spaziano dalle infrastrutture critiche (come i trasporti) che potrebbero mettere a rischio la vita e la salute dei cittadini, alla formazione scolastica e professionale (come l’assegnazione del punteggio agli esami) che può determinare l’accesso o meno a determinati percorsi di studio o lavorativi. Ma anche i servizi pubblici e privati (smistamento dei curriculum, valutazione del credito, verifica dell’autenticità dei documenti di viaggio), l’amministrazione della giustizia (valutazione dell’affidabilità delle prove e applicazione della legge) e la gestione delle componenti di sicurezza dei prodotti, come nel caso della chirurgia assistita da robot.
In tutti questi casi, i sistemi di intelligenza artificiale “saranno soggetti a severi obblighi prima di poter essere immessi sul mercato“. Dovranno dimostrare di possedere adeguati sistemi di mitigazione del rischio, un’alta qualità dei set di dati che alimentano il sistema (per minimizzare i rischi di discriminazione) e di registrare tutte le attività in fase di elaborazione dati. Dovranno poi essere accompagnati da una documentazione dettagliata che fornisca tutte le informazioni e gli scopi di utilizzo, per permettere alle autorità di valutare la conformità del sistema e ai cittadini di sentirsi protetti nei propri diritti.
Il caso del riconoscimento biometrico
A preoccupare di più l’opinione pubblica è però la questione dell’identificazione biometrica remota (il riconoscimento facciale), che la Commissione ha classificato come “un sistema ad alto rischio, soggetto a severi requisiti”. La proposta dell’esecutivo UE mette chiaramente nero su bianco che “il loro uso dal vivo in spazi accessibili al pubblico per scopi di applicazione della legge è vietato in linea di principio“.
Esistono però delle eccezioni alla regola generale (altrimenti sarebbe ricaduto nella fascia di rischio inaccettabile). Sono poche, ma definite con precisione: il riconoscimento facciale può essere utilizzato in luoghi pubblici quando è “strettamente necessario per cercare un bambino scomparso“, oppure “per prevenire una minaccia terroristica specifica e imminente“, o infine “per rilevare, individuare, identificare o perseguire un autore o sospetto di un reato grave“. In quest’ultimo caso, l’utilizzo è subordinato all’autorizzazione di un organo giudiziario e a “opportuni limiti di tempo, portata geografica e banche dati ricercate”, riporta la proposta dell’esecutivo UE.
“Abbiamo voluto porre l’accento sui diritti fondamentali”, perché “non c’è spazio per la sorveglianza di massa nella nostra società“, ha voluto specificare in conferenza stampa la vicepresidente Vestager. Tuttavia, traspare un certo scetticismo da parte del Parlamento Europeo: “Nonostante le rassicurazioni verbali” della Commissione e “pur constatando la presenza di alcuni aspetti positivi nel testo, ci sono ancora molti elementi da migliorare per garantire i diritti e le libertà fondamentali e proteggere lo Stato di diritto“, ha commentato l’eurodeputato Brando Benifei, membro del comitato speciale sull’Intelligenza artificiale nell’era digitale (AIDA). Per questo motivo, “siamo pronti a lavorare per un iter rapido e migliorativo della proposta“, ha aggiunto il capo-delegazione del Partito Democratico al Parlamento UE, “che garantisca certezza giuridica, promuova l’innovazione, ma abbia al centro la persona e i suoi diritti”.
Standard per aziende e macchinari
Intervenuto in conferenza stampa, il commissario per il Mercato interno, Thierry Breton, ha invitato le aziende che vogliono usare applicazioni di intelligenza artificiale a “venire in Europa”, perché “qui sapranno cosa fare e come farlo” e “avranno partner con cui lavorare”. Breton ha ricordato che l’Europa è il primo continente a fornire linee guida in questo campo e così facendo “aumenta la fiducia dei cittadini e moltiplica gli investimenti in infrastrutture sovrane, disegnate sui nostri valori”. Inoltre, “questo approccio basato sul rischio mette in luce che ciò che è proibito è molto limitato” e che nell’Unione Europea “potranno viaggiare dati sicuri, protetti, di qualità ed essenziali per lo sviluppo delle imprese“.
Dal momento in cui “l’intelligenza artificiale è un mezzo, non un fine“, come ha affermato il commissario per il Mercato interno, l’esecutivo UE ha inserito nella proposta un nuovo Regolamento Macchine, per garantire l’integrazione sicura dei sistemi di intelligenza artificiale in macchinari come robot, tosaerba, stampanti 3D, macchine edili e linee di produzione industriale. Un regolamento che sembra puntare su una nuova generazione di macchinari, in linea con gli standard di sicurezza degli utenti e dei consumatori, incoraggiando l’innovazione.
Grazie alla proposta di un quadro sull’IA, “l’Europa potrà diventare un hub globale di eccellenza nell’intelligenza artificiale, dal laboratorio al mercato”, è stato l’augurio del commissario Breton. A livello di governance, la Commissione UE ha proposto che le autorità nazionali competenti sulla vigilanza del mercato sovrintendano le nuove norme, mentre la creazione di un Comitato europeo per l’Intelligenza artificiale dovrebbe facilitare l’attuazione e guidare lo sviluppo degli standard comunitari.
Le reazioni
La direttrice generale di Digital Europe (organizzazione europea dell’industria della tecnologia digitale), Cecilia Bonefeld-Dahl, in una nota ha commentato con favore, ma anche con qualche perplessità, la nuova proposta della Commissione. “La proposta è una buona base di partenza, ma c’è ancora del lavoro da fare“, in particolare sul fronte della semplicità e della chiarezza dei requisiti dell’IA: “Dopo aver letto questo regolamento, resta ancora aperta la questione se i futuri fondatori di start-up in settori ad alto rischio decideranno di avviare la loro attività in Europa”.
C’è preoccupazione soprattutto per le aziende più piccole, che “avranno bisogno di guida, supporto finanziario e processi semplici e ottimizzati per essere in grado di soddisfare questi requisiti”. L’esortazione di Bonefeld-Dahl è quella di “non seppellirle sotto nuove regole”, anche se il Consiglio europeo per l’IA “potrebbe svolgere un ruolo fondamentale nel ridurre le barriere e la frammentazione”, conclude la nota.