Roma – Bello saltare quasi tutti i controlli in aeroporto. Oppure sapere che la violenza negli stadi si può fermare con la semplice ricerca del volto di chi ha lanciato un petardo. Facile, e lo sarà sempre di più ma con molti rischi ancora non valutati o non sufficientemente valutabili di fronte a una tecnologia che avanza ogni minuto che passa.
Il tema del riconoscimento facciale è uno dei punti critici del libro bianco sull’intelligenza artificiale presentato dalla Commissione europea nell’ambito del piano sul futuro digitale dell’UE. E se l’orientamento di Bruxelles puntava a una moratoria di alcuni anni, ora il libro bianco appare meno rigido quando viene specificato che “le norme comunitarie in materia di protezione dei dati vietano in linea di principio il trattamento di dati biometrici ai fini dell’identificazione univoca di una persona fisica, tranne in condizioni specifiche”. Gli ambiti non sono definiti, l’indicazione prevede che all’interno delle norme del regolamento sulla privacy “tale trattamento può avvenire solo per un numero limitato di motivi, il principale dei quali è quello di un interesse pubblico sostanziale”. Un’applicazione molto limitata dunque e “sulla base del diritto comunitario o nazionale nel rispetto dei requisiti di proporzionalità, del diritto alla protezione dei dati e di adeguate garanzie”.
Basterà una griglia così generica? Per ora sembra insufficiente ed è questo il timore che avanza Filippo Sensi, deputato del Pd che in Italia ha sollevato il dibattito su questi aspetti, confronto che per la verità è ancora limitato a pochi esperti. “Da una parte la Commissione ha riconosciuto che questo tema è da isolare e valutare, ma non c’è stata la moratoria che si attendeva e si è edulcorato il tutto con un breve periodo di consultazione prima di arrivare a una posizione definita”.
Una formulazione ambigua che non specifica neppure i settori nei quali le deroghe pur eccezionali sono possibili, e dunque prosegue Sensi, “ci troviamo al solito confine tra sicurezza e libertà”, ovvero quanta libertà siamo disposti a cedere per sentirci più sicuri. Pur avendo l’UE tutele importanti su questo fronte della privacy e del trattamento dati, “è difficile dire se questa scelta può essere solo del singolo, perché certe tecnologie consentono il matching della fisionomia di una persona con tutte le sue occorrenze (amici, scambi di messaggi, frequentazioni) sui social networks. Confronti che coinvolgono tutte le altre persone richiamate e dunque viene trattata una sfera di relazioni molto più ampia di quella strettamente personale”.
Viene individuato così uno dei problemi, il rischio di una sorta di schedatura a strascico, e in secondo luogo “di chi ha l’accesso a queste informazioni, chi le può utilizzare. Non basta sapere che sarà la magistratura, la polizia giudiziaria o gli agenti di pubblica sicurezza ad avere accesso perché queste banche dati o i loro server a volte non sono totalmente blindate, ma affidate in outsourcing. E senza scomodare l’intelligenza artificiale, la proposta sull’istallazione di telecamere negli asili o nelle case di riposo per prevenire maltrattamenti, già genera dubbi sufficienti perché le immagini di videosorveglianza in casi come questi non si sa chi le custodisca e come vengono utilizzate, chissà per fini diversi dalla loro funzione. “A volte non ci rendiamo conto – dice Sensi – che ci esponiamo talmente tanto da affidare a qualcun altro che spesso non sappiamo chi sia, i nostri dati, i nostri segreti, le nostre abitudini più riservate. E questo è un elemento che il legislatore, in questo caso comunitario, deve affrontare”.
Il capitolo più ampio della gestione dei dati incrocia ancora il libro bianco sull’intelligenza artificiale e il deal digitale che l’Europa vuole costruire. “Se le norme attuali non saranno sufficienti, le renderemo ancora più rigorose” ha detto qualche giorno fa il commissario al mercato interno Thierry Breton, seguito dalla vicepresidente Margrethe Vestager che ha ipotizzato una “sovranità tecnologica europea” quale obiettivo da raggiungere per gestire la mole di dati con sicurezza, secondo le regole e i valori dell’Europa.
Per alcuni è già troppo tardi per intervenire, (le maggiori piattaforme su cui sono appoggiati dati sensibili sono extraeuropee) siamo a un livello tale di sofisticazione che non è possibile legiferare con efficacia. Per altri come Filippo Sensi invece è ancora possibile “inquadrare il fenomeno e con lungimiranza ragionare su regole flessibili in grado di ricomprendere futuri sviluppi della tecnologia”, e legiferare continuando a tutelare la libertà e i diritti del cittadino.
Le macchine non devono spaventarci, “non dobbiamo avere paura della tecnologia” ha detto Ursula von der Leyen, ma questo non significa che non sia necessario su questo fronte un surplus di trasparenza, cioè continuare a essere protetti e liberi, senza necessariamente voler gridare “fermate il mondo voglio scendere”.