Bruxelles – La scure del Digital Services Act (Dsa) si abbatte ancora su Meta, e questa volta per questioni che recentemente hanno coinvolto da vicino anche TikTok. La Commissione Europea ha avviato oggi (16 maggio) un nuovo procedimento formale nell’ambito del rispetto della legge sui servizi digitali per valutare se il fornitore di Facebook e Instagram abbia violato le norme entrate pienamente in vigore lo scorso 17 febbraio in materia di protezione dei minori sulle due piattaforme online. “Temiamo che Facebook e Instagram possano stimolare la dipendenza comportamentale e che i metodi di verifica dell’età messi in atto da Meta sui propri servizi non siano adeguati”, ha spiegato la vicepresidente della Commissione Ue responsabile per il Digitale, Margrethe Vestager.
A sole due settimane dal procedimento formale aperto per valutare le violazioni in materia pubblicità ingannevole, disinformazione, segnalazione dei contenuti illegali e mancata disponibilità di un “efficace strumento” in vista delle elezioni europee, Meta si ritrova di nuovo sotto indagine Ue. Come rende noto lo stesso esecutivo Ue, i procedimenti formali avviati oggi si concentrano su tre aree in materia di protezione dei minori online su cui sono state già state inviate richieste di informazioni al fornitore di Facebook e Instagram, ma senza risposte al momento soddisfacenti. In primis la conformità rispetto agli obblighi previsti dal Dsa sulle misure di mitigazione per prevenire l’accesso dei minori a contenuti inappropriati: “Gli strumenti di verifica dell’età utilizzati da Meta potrebbero non essere ragionevoli, proporzionati ed efficaci“.
Sotto la lente della Commissione Ue c’è anche il rispetto degli obblighi di valutazione e mitigazione dei rischi causati dalla progettazione delle interfacce online di Facebook e Instagram, “che possono sfruttare le debolezze e l’inesperienza dei minori”, causando comportamenti di dipendenza e stimolando i cosiddetti ‘effetti rabbit hole‘, ovvero la visualizzazione di video e contenuti continua e impulsiva. Così come per l’indagine in corso su TikTok, “tale valutazione è necessaria per contrastare i potenziali rischi per l’esercizio del diritto fondamentale al benessere fisico e mentale dei minori“. E infine il terzo ambito è quello relativo all’applicazione di misure “appropriate e proporzionate” per garantire un elevato livello di privacy, sicurezza e protezione dei minori, più nello specifico per quanto riguarda le impostazioni di privacy predefinite per i minori “come parte della progettazione e del funzionamento dei loro sistemi di raccomandazione”, precisa l’esecutivo Ue.
A questo punto i servizi del Berlaymont continueranno a raccogliere prove su queste tre aree di potenziale violazione delle disposizioni del Digital Services Act, con ulteriori richieste di informazioni, colloqui e ispezioni, e parallelamente potranno adottare misure provvisorie e decisioni di non conformità. “L’avvio di un procedimento formale non ne pregiudica l’esito”, precisa la Commissione, sottolineando che il Dsa non fissa alcun termine legale per la conclusione dei procedimenti formali. La durata dell’indagine può dipendere da fattori come la complessità del caso e la misura in cui Meta collaborerà anche con impegni per porre rimedio alle questioni oggetto del procedimento. Dopo l’entrata in vigore alla fine dello scorso anno, dal 25 agosto Meta è nella lista delle 19 piattaforme digitali che devono adeguarsi agli obblighi previsti dal Digital Services Act.