Bruxelles – Ora i principi teorici vengono calati nella realtà e il Digital Services Act, la legge sui servizi digitali, inizia a chiamare una serie di aziende specifiche, riconosciute come dominanti dello spazio online, al rispetto degli obblighi di tutela degli utenti. Sono 19 le grandi piattaforme online (compresi due grandi motori di ricerca) a finire nella lista stilata dalla Commissione Europea sulla base del criterio dei 45 milioni di utenti attivi mensili, che dovranno adeguarsi entro il 25 agosto ai requisiti imposti dalla nuova legislazione entrata in vigore nel novembre dello scorso anno.
“Da grandi dimensioni derivano grandi responsabilità”, ha parafrasato la celebre frase di Spider-Man il commissario per il Mercato interno, Thierry Breton, rendendo note le piattaforme digitali coinvolte in questa prima decisione secondo il Digital Services Act. I due grandi motori di ricerca (VLOSEs, in gergo) sono Bing e Google Search, mentre le grandi piattaforme online (VLOPs) spaziano dai social media (Facebook, Instagram, Twitter, TikTok, Snapchat, LinkedIn, Pinterest) ai servizi di commercio elettronico (Alibaba AliExpress, Amazon Store, Apple AppStore, Zalando), fino a quelli Google (Google Play, Google Maps e Google Shopping), ma anche Booking.com, Wikipedia e YouTube. “Dovranno rispettare le nostre nuove regole sull’Internet, tra cui la rimozione dei contenuti illegali, la trasparenza degli algoritmi e il controllo dell’ID dei venditori sul mercato”, ha precisato la vicepresidente della Commissione Ue per il Digitale, Margrethe Vestager.
È del 15 dicembre 2020 la proposta dell’esecutivo comunitario del pacchetto digitale, che comprende il Digital Services Act (la legge sui servizi digitali) e il Digital Markets Act (la legge sui mercati digitali). Dopo poco più di un anno di negoziati all’interno del Parlamento e del Consiglio dell’Ue e tra co-legislatori, il 25 aprile 2022 si è arrivati all’intesa definitiva, che ha sancito la pietra miliare del “ciò che è illegale offline, è illegale online”. Con il passaggio finale all’Eurocamera due mesi più tardi, il 16 novembre si è arrivati all’entrata in vigore del Digital Services Act, che si applica ora a tutti gli intermediari online che forniscono servizi sul territorio comunitario, con un livello di obblighi crescenti e proporzionati al numero di utenti raggiunti. Le grandi piattaforme online (come quelle inserite nella prima lista della Commissione) saranno soggette a requisiti sulla valutazione indipendente e annuale dei rischi sistemici di disinformazione, contenuti ingannevoli, violazione dei diritti fondamentali dei cittadini e violenza di genere e minorile. Le violazioni del regolamento comporteranno multe fino al 6 per cento del fatturato globale e saranno sorvegliate dalle autorità nazionali (le piattaforme più piccole) e dalla Commissione Ue (potere esclusivo su quelle più grandi).
Quali sono gli obblighi secondo il Digital Services Act
Dopo la designazione di ieri (25 aprile) da parte dell’esecutivo comunitario, le 19 piattaforme online dovranno conformarsi entro quattro mesi all’intera serie di nuovi obblighi previsti dalla Digital Services Act, che pongono l’obiettivo di responsabilizzare e proteggere gli utenti online attraverso la mitigazione dei “rischi sistemici” e l’applicazione di “solidi strumenti di moderazione dei contenuti”. Gli utenti dovranno ricevere informazioni “chiare” sul motivo per cui vengono raccomandate loro determinate informazioni e avranno il diritto di rinunciare ai sistemi di raccomandazione basati sulla profilazione (sempre vietata invece per i minori), mentre gli annunci pubblicitari non potranno essere basati sui dati sensibili dell’utente (origine etnica, opinioni politiche, orientamento sessuale). Per quanto riguarda la protezione dei minori, le piattaforme dovranno riprogettare i loro sistemi per garantire un “elevato livello” di privacy e sicurezza.
Previste dal Digital Services Act anche etichette su tutti gli annunci e informazioni su chi li promuove, con l’obbligo per le piattaforme di elaborare le segnalazioni degli utenti su contenuti illegali grazie a un meccanismo apposito. A questo proposito serviranno misure per affrontare i rischi e gli effetti negativi sulla libertà di espressione e di informazione, attraverso termini e condizioni “chiari” e rispetto “in modo diligente e non arbitrario”. La valutazione sarà condotta anche in modo esterno e indipendente, compreso l’accesso ai dati ai ricercatori attraverso un meccanismo speciale: dopo la consultazione aperta fino al 25 maggio, la Commissione presenterà un atto delegato per definire un processo “facile, pratico e chiaro”. Gli archivi di tutti gli annunci serviti dovranno essere pubblicati sull’interfaccia delle piattafrome, così come rapporti di trasparenza sulle decisioni di moderazione.
Infine, è prevista una nuova architettura di vigilanza paneuropea, di cui la Commissione sarà l’autorità competente, ma in stretta collaborazione con i coordinatori nazionali dei servizi digitali nel quadro del Digital Services Act. Le autorità nazionali – che saranno responsabili della vigilanza di piattaforme e motori di ricerca con meno di 45 milioni di utenti attivi mensili – dovranno essere istituite Ventisette entro il 17 febbraio 2024, data entro cui tutte aziende online dovranno adempiere agli obblighi previsti dal Digital Services Act. Un Centro europeo per la trasparenza algoritmica (Ecat) fornirà assistenza a tutti gli attori di vigilanza per valutare se il funzionamento degli algoritmi è in linea con le linee rossa della legislazione comunitaria.