Bruxelles – I veicoli a guida autonoma sono una delle frontiere del futuro digitale e della sicurezza per la mobilità dell’Unione Europea. Basata sull’uso dell’intelligenza artificiale (IA), questa tecnologia dovrebbe ridurre gli incidenti stradali e le vittime, rimuovendo la causa più comune: la variabile umana. Ma allo stesso tempo, potrebbe rappresentare un tipo di rischio completamente diverso per conducenti, passeggeri e pedoni: come tutti i sistemi IT, i veicoli autonomi sono vulnerabili ad attacchi che potrebbero comprometterne il corretto funzionamento.
Per esaminare i rischi per la sicurezza informatica connessi all’intelligenza artificiale nei veicoli a guida autonoma, il Joint Research Centre (JRC) e l’Agenzia dell’UE per la cibersicurezza (ENISA) hanno pubblicato un rapporto che fornisce raccomandazioni per mitigare questi rischi. “È importante che le normative europee garantiscano che i vantaggi della guida autonoma non siano controbilanciati da rischi per la sicurezza”, ha commentato il direttore generale del JRC, Stephen Quest. Il direttore esecutivo di ENISA, Juhan Lepassaar, ha aggiunto che “quando un veicolo autonomo non sicuro attraversa il confine di uno Stato membro dell’Unione, porta con sé anche le sue vulnerabilità”. Ma, come per le auto convenzionali, “la sicurezza deve essere un prerequisito per l’utilizzo affidabile di questi veicoli sulle strade europee“, ha aggiunto.
Quali sono le vulnerabilità
Alla base dei veicoli autonomi ci sono sistemi di intelligenza artificiale che impiegano tecniche di apprendimento autonomo per raccogliere, analizzare e trasferire dati, al fine di prendere decisioni al posto dell’essere umano. I sistemi IA applicati al settore della mobilità stanno implementando il riconoscimento dei segnali stradali e della segnaletica orizzontale, ma anche il rilevamento dei veicoli, la stima della velocità di movimento e la pianificazione del percorso.
Oltre alle minacce non intenzionali (come come malfunzionamenti improvvisi), questi sistemi sono vulnerabili ad attacchi intenzionali, che hanno lo scopo specifico di interferire con il sistema di intelligenza artificiale. Per interrompere le funzioni critiche per la sicurezza, possono essere messe in atto alterazioni come l’aggiunta di vernice sulla strada per fuorviare la navigazione o adesivi su un segnale di stop per impedirne il riconoscimento.
Questi attacchi intenzionali – così come i malfunzionamenti non intenzionali – possono portare il sistema di intelligenza artificiale che guida il veicolo autonomo a classificare erroneamente gli oggetti lungo il percorso e a determinarne un comportamento imprevedibile e potenzialmente pericoloso per passeggeri, altri mezzi e pedoni.
Raccomandazioni per mitigare i rischi
La prima raccomandazione è di eseguire regolarmente le valutazioni della sicurezza dei componenti dell’IA durante il loro ciclo di vita: “Questa convalida di modelli e dati è essenziale per garantire che il veicolo si comporti sempre correttamente di fronte a situazioni impreviste o attacchi dannosi”, si legge nel rapporto.
Sarebbe poi necessaria l’implementazione dei processi di valutazione del rischio con il supporto di servizi di intelligence: “Ciò potrebbe consentire l’identificazione di potenziali minacce emergenti legate alla diffusione dell’intelligenza artificiale nella guida autonoma”.
Secondo gli esperti del CCR ed ENISA, l’intero settore dovrebbe essere regolato da politiche e da una cultura di sicurezza dell’IA. “L’industria automobilistica dovrebbe adottare un approccio security by design nello sviluppo e nell’implementazione di funzionalità di intelligenza artificiale”, dove “la sicurezza informatica diventa un elemento centrale del design digitale sin dall’inizio del progetto”.
L’ultimo punto riguarda l’aumento di preparazione nelle capacità di risposta agli incidenti da parte del settore automobilistico, per gestire i nuovi problemi di sicurezza informatica legati all’IA nella guida di veicoli autonomi.