L’UE avvia un’indagine formale su TikTok per potenziali violazioni del Digital Services Act (DSA) in materia di sicurezza dei minori, algoritmi di dipendenza, verifica dell’età e impostazioni di privacy. L’inchiesta si concentra anche sulla trasparenza degli annunci e sull’accesso ai dati per i ricercatori.
TikTok si trova nel mirino dell’Unione Europea (UE) per potenziali violazioni del Digital Services Act (DSA), in particolare per questioni legate alla sicurezza dei minori e alla trasparenza degli annunci. La Commissione europea ha annunciato l’apertura di un procedimento formale per esaminare gli algoritmi di TikTok, che potrebbero incoraggiare la dipendenza e l’effetto tana del coniglio, portando gli utenti, soprattutto i più giovani, verso contenuti potenzialmente dannosi.
L’indagine si concentrerà su diverse aree critiche, tra cui il design e gli algoritmi della piattaforma, che potrebbero avere un impatto negativo sul benessere fisico e mentale degli utenti minori, violando i loro diritti fondamentali. Inoltre, verranno esaminate le pratiche di verifica dell’età impiegate da TikTok per prevenire l’accesso a contenuti inadatti e assicurare che le impostazioni predefinite sulla privacy offrano adeguati livelli di protezione.
Il controllo dell’UE si estende anche alla conformità di TikTok agli obblighi del DSA relativi alla trasparenza degli annunci, richiedendo che la piattaforma fornisca un archivio ricercabile e affidabile per le pubblicità. Un ulteriore punto di indagine riguarda le presunte carenze nell’accesso dei ricercatori ai dati pubblici di TikTok, come stabilito dalla normativa.
In risposta alle pressioni normative, TikTok (e la società madre ByteDance) ha già implementato diverse modifiche per gli utenti dell’UE, tra cui la possibilità per gli utenti di optare per non ricevere contenuti suggeriti dagli algoritmi sulla loro pagina For You (FYP). La piattaforma ha inoltre introdotto nuove opzioni per la segnalazione di contenuti dannosi e ha limitato gli annunci personalizzati per gli utenti europei tra i 13 e i 17 anni.
Questa indagine si inserisce in un contesto più ampio di esame delle pratiche di TikTok e di altre piattaforme, come Meta, riguardo alla gestione di contenuti illegali e alla disinformazione. Nel 2023, Meta ha ricevuto una multa di 390 milioni di euro per le sue pratiche di pubblicità personalizzata. Di fronte a queste sfide, sia Meta che TikTok stanno valutando l’introduzione di opzioni a pagamento per eliminare gli annunci personalizzati, una strategia molto criticata da alcuni gruppi per i diritti civili come un tentativo di rendere la privacy un servizio a pagamento.