Bruxelles – È stato un voto polarizzato quello che si è registrato oggi in commissione per le Libertà civili del Parlamento Europeo (LIBE) sull’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle forze polizia. I gruppi politici di S&D, Verdi/ALE, La Sinistra e Renew Europe hanno appoggiato la proposta del relatore Petar Vitanov (S&D) sulle “forti salvaguardie e supervisione umana” a cui devono essere sottoposti i sistemi di IA in dotazione alle forze dell’ordine, che possono “potenzialmente portare a una sorveglianza di massa”.
La relazione è passata in commissione con 36 voti a favore (tra cui anche quello dell’eurodeputata del Movimento 5 Stelle, Laura Ferrara), ma ha trovato l’opposizione compatta del PPE e di ID (24 voti contro), mentre ECR si è astenuta (6 voti). Ora si attende la discussione e il voto durante la prossima sessione plenaria, prevista per il 5-8 luglio.
“L’uso dell’intelligenza artificiale sta crescendo in modo esponenziale“, ha commentato il relatore bulgaro. “Cose che pensavamo possibili solo nei libri e nei film di fantascienza, come la polizia predittiva e la sorveglianza di massa attraverso dati biometrici, sono già realtà in alcuni Paesi”. Espressa soddisfazione per il fatto che la maggioranza degli eurodeputati in commissione LIBE abbia riconosciuto il “pericolo intrinseco di tali pratiche per la nostra democrazia” e che “il progresso tecnico non dovrebbe mai andare a scapito dei diritti fondamentali delle persone”.
Non è una richiesta di sospensione dell’uso delle nuove tecnologie emergenti, ma un avvertimento sui potenziali rischi di “violazione dei principi fondamentali dell’UE di proporzionalità e necessità”. La proposta di risoluzione non legislativa evidenzia che i sistemi di intelligenza artificiale e di apprendimento automatico possono essere connessi a input con discriminazioni alla radice. Se i dati di addestramento presentano dei bias (distorsione della valutazione causata dal pregiudizio), le stesse applicazioni di IA saranno basate su algoritmi distorti. “Attualmente, i sistemi di identificazione sono imprecisi” e possono identificare erroneamente “gruppi etnici minoritari, persone LGBTI, anziani e donne, tra gli altri gruppi“.
Forme di discriminazione che preoccupano in particolare nel contesto delle forze dell’ordine e della magistratura. Ricalcando la posizione del Garante europeo della protezione dei dati (GEPD) e del Comitato europeo per la protezione dei dati (EDPB) sulla questione del riconoscimento a distanza delle caratteristiche umane (nell’ambito del quadro normativo sull’intelligenza artificiale della Commissione UE), la maggioranza degli eurodeputati ha chiesto un divieto permanente all’uso di dettagli biometrici per riconoscere le persone in spazi accessibili al pubblico, come andatura, impronte digitali, DNA o voce.
Le applicazioni pratiche dell’identificazione a distanza attraverso biometria ricoprono un ruolo centrale nella relazione. Un esempio è la posizione sul progetto iBorderCtrl, un “sistema intelligente di rilevamento della menzogna” che dovrebbe regolare l’ingresso dei viaggiatori attraverso le frontiere dell’Unione Europea. Percepito dagli eurodeputati come “problematico” e “da sospendere”, se la proposta di risoluzione passerà in plenaria, sarà chiesto alla Commissione Europea di “avviare procedure di infrazione” contro gli Stati membri che fanno uso di sistemi simili.
Infine, come già successo nel caso della multa alla polizia svedese per l’uso del sistema Clearview AI, è stata sottolineata l’esigenza di vietare alle forze dell’ordine l’utilizzo di database privati di riconoscimento facciale, almeno “fino a quando tali sistemi non rispettano i diritti fondamentali”. Questione inapplicabile in senso assoluto, invece, alle pratiche di punteggio sociale (sistemi che premiano o penalizzano i singoli cittadini rispetto ai comportamenti rilevati da strumenti tecnologici), dal momento in cui “violano i principi della fondamentale dignità umana”.
L’europarlamentare del Movimento 5 Stelle, Sabrina Pignedoli, ha espresso soddisfazione per il voto di oggi, parlando di “grandi potenzialità delle applicazioni di intelligenza artificiale nel campo delle attività di contrasto e della cooperazione giudiziaria”, come è stato messo in luce dalla relazione. Allo stesso tempo, “ne evidenzia i rischi di un uso diffuso e automatizzato per i diritti fondamentali dei cittadini”. Per questo motivo, “si propone una moratoria per l’utilizzo delle tecnologie di riconoscimento facciale per contrastare i reati e identificare le vittime”, spiega l’eurodeputata, “ma la difesa dei diritti degli indagati deve restare una prerogativa delle nostre democrazie”.