Bruxelles – Gli eurodeputati lo avevano ribadito con forza più di un mese fa: la tecnologia deve essere sempre a servizio dell’uomo, che prende la decisione finale e ne ha la responsabilità. Con la riunione di ieri (giovedì 8 luglio) la Commissione Europea ha lanciato un segnale in questa direzione, mettendo attorno a uno stesso tavolo un gruppo di 25 esperti per iniziare a tracciare le linee guida per l’uso dell’intelligenza artificiale (IA) e dei dati nell’istruzione e nella formazione.
La prima riunione si inserisce all’interno del quadro del Piano d’azione per l’educazione digitale, che si pone l’obiettivo di implementare la comprensione delle tecnologie emergenti in questo ambito e di individuarne i rischi. Per mettere nelle mani di educatori e docenti degli strumenti sicuri, dovranno essere affrontate le sfide poste dal rischio di discriminazione e di bias (distorsione della valutazione causata dal pregiudizio) riprodotti negli algoritmi, ma anche problemi etici, di sicurezza e di privacy.
Entro luglio del prossimo anno si terranno altri tre incontri tra esperti, con l’obiettivo di presentare nel settembre del 2022 le linee guida e un programma di formazione per ricercatori e studenti sugli aspetti etici dell’IA (con una partecipazione femminile di almeno il 45 per cento). Il gruppo di lavoro è chiamato anche a tenere conto della proposta di quadro normativo sull’IA presentato lo scorso aprile dal gabinetto von der Leyen.
La commissaria per l’Innovazione, la ricerca, la cultura, l’istruzione e la gioventù, Mariya Gabriel, ha riconosciuto le “comprensibili preoccupazioni” di educatori, genitori e studenti per “chi raccoglie, controlla e interpreta i dati generati su di loro”. Per questo motivo è stato attivato il gruppo di esperti, il cui lavoro “sarà strumentale per preparare linee guida etiche”, ha confermato la commissaria. “Insieme garantiremo che l’intelligenza artificiale soddisfi le reali esigenze educative e sia utilizzata in modo sicuro in tutta Europa”.