Bruxelles – Opportunità, ma non senza rischi. Nel mai finito dibattito sulle nuove tecnologie, l’Agenzia per i diritti fondamentali dell’Unione Europea (FRA) richiama l’attenzione sui rischi per i diritti fondamentali. Le nuove conquiste, se non governate, possono tramutarsi nel più classico dei boomerang per l’Unione europea e i suoi Stati membri. E’ quanto evidenziato dal nuovo rapporto sull’intelligenza artificiale di fresca pubblicazione, in cui si esortano i leader europei a vigilare sulle possibili violazioni in materia di diritti essenziali.
La fallibilità delle tecnologie dell’intelligenza artificiale, precisato l’agenzia dell’UE, potrebbe incidere negativamente sui diritti fondamentali quando utilizzate nel campo della della pubblicità mirata, delle diagnosi mediche e delle prestazioni sociali. Il rapporto dell’Agenzia per i diritti fondamentali dell’Unione Europea, mette in guardia sull’impatto negativo che l’intelligenza artificiale, e quindi la capacità delle macchine di apprendere, interagire e creare nuovi processi, potrebbe esercitare sulla dignità della persona, sulla protezione dei dati personali e sull’uguaglianza dei diritti.
Rischi che potrebbero essere accentuati con la pandemia di Covid-19 in corso, che ha rafforzato il ruolo dell’intelligenza artificiale in numerosi processi di gestione e controllo. Dal tracciamento dei casi all’accesso alle prestazioni sociali, l’automazione ha consentito di agevolare una serie di pratiche che hanno migliorato la gestione dell’emergenza, ma che potrebbe anche lasciare spazio a pericoli concreti in termini di rispetto dei diritti fondamentali, come peraltro già denunciato dal Parlamento europeo.
Tra gli ambiti più meritevoli di attenzione quello della sanità. “La cartella clinica elettronica può rendere i sistemi sanitari più a misura di cittadino e può garantirgli trattamento più coordinato e tempestivo”, si legge nella relazione. “Tuttavia, la mole dei dati archiviati, più elevata rispetto a molti tutti gli altri settori, e la alta capacità di consultazione, rendono il settore sanitario attrattivo per possibili attacchi hacker“.
L’Agenzia chiede perciò un maggior coinvolgimento da parte delle istituzioni europee e dei Paesi membri, con un appello alla costituzione di un quadro normativo chiaro che impedisca un utilizzo delle intelligenza artificiali per discriminazioni e violazioni dei diritti umani, che informi gli utenti dell’impiego di tale tecnologia nei processi che li riguardano e nel creare un sistema di sorveglianza.
“L’intelligenza artificiale non è infallibile, perché è creata dalle persone, che possono fare errori”, ricorda il direttore dell’Agenzia per i diritti fondamentali dell’UE Michal O’Flaherty. “L’Unione Europea deve chiarire come le norme vigenti devono essere applicate all’intelligenza artificiale”. Allo stesso tempo occorre che le organizzazioni “verifichino che le loro tecnologie possano interferire con i diritti delle persone nello sviluppare e nell’utilizzare le nuove tecnologie”. Occorre fare in modo che l’intelligenza artificiale “sia non solo rispettosa dei diritti umani, ma anche capace di proteggerli”.
Attualmente gli effetti dell’intelligenza artificiale sono al centro del dibattito nel Parlamento europeo, il quale si è dotato anche di una commissione speciale (AIDA).