Bruxelles – Dopo l’Unione Europea, scende in campo anche il Gruppo dei Sette. Con la dichiarazione di Hiroshima adottata oggi (30 ottobre) dai leader del G7, l’intelligenza artificiale entra a tutti gli effetti nel mirino delle maggiori potenze globali per definire i contorni delle possibilità di innovazione e quelli di gestione di rischi inaccettabili. “Per affrontare queste sfide è necessario creare una governance inclusiva per l’intelligenza artificiale“, è quanto messo nero su bianco dai capi di Stato e di governo di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti, per la soddisfazione delle istituzioni comunitarie: “Siamo stati all’avanguardia con la legge sull’Ia, ora sono lieta di accogliere i Principi guida internazionali del G7 e il Codice di condotta volontario per un’intelligenza artificiale affidabile”, si è congratulata la numero uno della Commissione Ue, Ursula von der Leyen.
La dichiarazione di Hiroshima parte dal riconoscimento delle “opportunità innovative e il potenziale di trasformazione dei sistemi avanzati di intelligenza artificiale, in particolare dei modelli di fondazione e dell’Ia generativa”, anche se allo stesso tempo viene sottolineata la necessità di “gestire i rischi e proteggere gli individui, la società e i nostri principi condivisi, tra cui lo Stato di diritto e i valori democratici, mantenendo l’uomo al centro”. È per questo motivo che la dichiarazione è accompagnata da altri due documenti: quello sugli 11 principi-guida per i sistemi avanzati di intelligenza artificiale e quello sul Codice di condotta internazionale. “Al fine di garantire che entrambi i documenti rimangano adeguati allo scopo e rispondano a questa tecnologia in rapida evoluzione, saranno rivisti e aggiornati se necessario“, ribadiscono i sette leader (più la presidente von der Leyen a nome dell’Unione Europea), mentre parallelamente le organizzazioni che sviluppano modelli e sistemi avanzati vengono invitate a “impegnarsi ad applicare” quanto stabilito a livello internazionale.
“I potenziali benefici dell’intelligenza artificiale sono enormi“, ha ricordato la stessa leader della Commissione Ue, rallegrandosi per l’allineamento da parte delle maggiori potenze mondiali (di cui tre sono membri dell’Unione) al lavoro iniziato nell’aprile 2021 a Bruxelles e ora in dirittura di arrivo. Gli 11 principi sanciti dal G7 e il Codice di condotta volontario integreranno a livello internazionale le norme comunitarie giuridicamente vincolanti che i co-legislatori del Parlamento e del Consiglio dell’Ue stanno finalizzando nell’ambito dei triloghi sul Regolamento sull’intelligenza artificiale. Ciò che emergerà – al netto di aggiustamenti per far convergere le posizioni delle due istituzioni – sarà una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo (videogiochi abilitati per l’Ia e filtri anti-spam), limitato (chatbot), alto (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curriculum, valutazione dell’affidabilità delle prove in tribunale, chirurgia assistita da robot) e inaccettabile (tutto ciò che rappresenta una “chiara minaccia” per la sicurezza, i mezzi di sussistenza e i diritti delle persone, come l’assegnazione di un ‘punteggio sociale’ da parte dei governi). Per il primo livello non è previsto alcun intervento, mentre l’ultimo livello sarà vietato integralmente.
Gli 11 principi del G7 sull’intelligenza artificiale
Per quanto riguarda la dichiarazione di Hiroshima, i leader del G7 esortano ad “adottare misure appropriate durante tutto lo sviluppo di sistemi avanzati” di intelligenza artificiale, “anche prima e durante la loro distribuzione e immissione sul mercato, per identificare, valutare e mitigare i rischi lungo tutto il ciclo di vita” delle tecnologie emergenti con “test interni ed esterni indipendenti”. A proposito dell’uso “improprio”, le organizzazioni che sviluppano sistemi avanzati devono “monitorare le vulnerabilità, gli incidenti, i rischi emergenti“, anche facilitando la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti dopo l’implementazione. In questo senso vanno “segnalate pubblicamente le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato” attraverso rapporti di trasparenza “contenenti informazioni significative”. In questo senso il lavoro dovrà essere indirizzato per la “condivisione responsabile delle informazioni e per la segnalazione degli incidenti” con industria, governi, società civile e mondo accademico. L’approccio da implementare è quello basato sulla gestione del rischio, proprio come avanzato dal Regolamento Ue in fase di ultimazione: “Ciò dovrebbe includere processi di responsabilità e di governance per valutare e mitigare i rischi”.
Sul fronte degli investimenti dovranno essere implementati “solidi controlli di sicurezza, tra cui quella fisica, la cybersicurezza e la protezione contro le minacce interne” (per algoritmi, modelli, server e set di dati), mentre parallelamente serviranno “meccanismi affidabili di autenticazione e provenienza dei contenuti“, come watermarking (filigrane), etichettatura, dichiarazioni di non responsabilità o altri sistemi che consentano agli utenti di determinare se un determinato contenuto è stato creato con il sistema di intelligenza artificiale di una specifica organizzazione. Tra le priorità sono elencate “la mitigazione dei rischi per la società e la sicurezza” e lo sviluppo di sistemi avanzati per “affrontare sfide come la crisi climatica, la salute globale e l’istruzione” in linea con gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Infine, i leader G7 sostengono la necessità di “promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali” così come “misure appropriate” di protezione dei dati personali e della proprietà intellettuale.