Bruxelles – La prima scadenza del Digital Services Act è ormai imminente e per la prima volta le piattaforme online sono chiamate a rispondere dei propri comportamenti sul territorio dell’Unione Europea. Entro domani (25 agosto) i 19 fornitori di servizi digitali identificati dalla Commissione Ue come dominanti dello spazio online dovranno inviare all’esecutivo comunitario una valutazione dei rischi ciascuno sulla propria piattaforma, secondo il rispetto degli obblighi stabiliti dalla nuova legge Ue sui servizi digitali entrata in vigore nel novembre dello scorso anno.
“Ci aspettiamo di ricevere le valutazioni secondo il Digital Services Act sui rischi sistemici su cui si devono focalizzare”, ha commentato alla stampa di Bruxelles il portavoce della Commissione Ue responsabile per l’economia digitale, Johannes Bahrke. Quella di domani è la prima scadenza per le 19 grandi piattaforme online entrate nella lista della Commissione lo scorso 25 aprile, anche se è più una “deadline politica, perché alcune piattaforme possono aver qualche giorno in più a seconda della data di ricezione della conferma”, ha precisato il portavoce. A essere coinvolti sono due grandi motori di ricerca (VLOSEs, in gergo) – Bing e Google Search – e 17 grandi piattaforme online (VLOPs): social media (Facebook, Instagram, Twitter, TikTok, Snapchat, LinkedIn, Pinterest), servizi di commercio elettronico (Alibaba AliExpress, Amazon Store, Apple AppStore, Zalando), servizi Google (Google Play, Google Maps e Google Shopping), e anche Booking.com, Wikipedia e YouTube. I rischi “sono diversi da piattaforma a piattaforma”, ma tutte le valutazioni saranno esaminate “con attenzione” dalla Commissione, “poi ci sarà un audit indipendente”. Solo dopo questi due passaggi potranno essere pubblicati i report.
La Commissione Ue ha presentato una proposta per un pacchetto digitale il 15 dicembre 2020, che comprende il Digital Services Act (la legge sui servizi digitali) e il Digital Markets Act (la legge sui mercati digitali). Dopo poco più di un anno di negoziati all’interno del Parlamento e del Consiglio dell’Ue e tra co-legislatori, il 25 aprile 2022 è arrivata l’intesa definitiva, che ha sancito la pietra miliare del “ciò che è illegale offline, è illegale online”. Il 16 novembre il Digital Services Act è entrato in vigore, applicandosi a tutti gli intermediari online che forniscono servizi sul territorio comunitario, con un livello di obblighi crescenti e proporzionati al numero di utenti raggiunti. Le grandi piattaforme online saranno soggette a requisiti sulla valutazione indipendente e annuale dei rischi sistemici di disinformazione, contenuti ingannevoli, violazione dei diritti fondamentali dei cittadini e violenza di genere e minorile. Le violazioni del regolamento comporteranno multe fino al 6 per cento del fatturato globale e saranno sorvegliate dalle autorità nazionali (le piattaforme più piccole) e dalla Commissione Ue (potere esclusivo su quelle più grandi).
Quali sono gli obblighi secondo il Digital Services Act
Gli obblighi previsti dalla Digital Services Act pongono l’obiettivo di responsabilizzare e proteggere gli utenti online attraverso la mitigazione dei “rischi sistemici” e l’applicazione di “solidi strumenti di moderazione dei contenuti”. Gli utenti dovranno ricevere informazioni “chiare” sul motivo per cui vengono raccomandate loro determinate informazioni e avranno il diritto di rinunciare ai sistemi di raccomandazione basati sulla profilazione (sempre vietata invece per i minori), mentre gli annunci pubblicitari non potranno essere basati sui dati sensibili dell’utente (origine etnica, opinioni politiche, orientamento sessuale). Per quanto riguarda la protezione dei minori, le piattaforme dovranno riprogettare i loro sistemi per garantire un “elevato livello” di privacy e sicurezza.
Previste dal Digital Services Act anche etichette su tutti gli annunci e informazioni su chi li promuove, con l’obbligo per le piattaforme di elaborare le segnalazioni degli utenti su contenuti illegali grazie a un meccanismo apposito. A questo proposito serviranno misure per affrontare i rischi e gli effetti negativi sulla libertà di espressione e di informazione, attraverso termini e condizioni “chiari” e rispetto “in modo diligente e non arbitrario”. La valutazione sarà condotta anche in modo esterno e indipendente, compreso l’accesso ai dati ai ricercatori attraverso un meccanismo speciale. Gli archivi di tutti gli annunci serviti dovranno essere pubblicati sull’interfaccia delle piattaforme, così come rapporti di trasparenza sulle decisioni di moderazione.
Infine, è prevista una nuova architettura di vigilanza paneuropea, di cui la Commissione sarà l’autorità competente, ma in stretta collaborazione con i coordinatori nazionali dei servizi digitali nel quadro del Digital Services Act. Le autorità nazionali – che saranno responsabili della vigilanza di piattaforme e motori di ricerca con meno di 45 milioni di utenti attivi mensili – dovranno essere istituite dai Ventisette entro il 17 febbraio 2024, data entro cui tutte aziende online dovranno adempiere agli obblighi previsti dal Digital Services Act. Un Centro europeo per la trasparenza algoritmica (Ecat) fornirà assistenza a tutti gli attori di vigilanza per valutare se il funzionamento degli algoritmi è in linea con le linee rossa della legislazione comunitaria.