Bruxelles – Tredicenni su TikTok? No, grazie. Il social cinese ha annunciato oggi, 16 gennaio, l’implementazione di una nuova tecnologia di verifica dell’età in tutta l’UE. Il meccanismo è interno alla piattaforma e prevede il controllo diretto da parte dei moderatori di account di possibili utenti sotto i tredici anni. La decisione avviene durante una lunga fase di pressione politica sul tema.
Il caso europeo non è isolato. In Australia, a dicembre, è stato introdotto un divieto sui social media per i minori di 16 anni. La decisione ha già portato alla rimozione di oltre 4,7 milioni di account su 10 piattaforme. In Unione Europea, invece, diversi stati vogliono introdurre una normativa analoga, mentre lo stesso Parlamento UE sta spingendo per l’imposizione di limiti specifici sui social network.
La procedura per gli under 13
La risposta di Tik Tok a questa pressione politica è arrivata in giornata. A quanto si apprende dalla nota diffusa dalla piattaforma, sarà messo in piedi un vero e proprio meccanismo per comprendere chi è il vero proprietario del profilo. Questo avverrà attraverso l’analisi delle “informazioni fornite dal titolare dell’account su sé stesso, come le informazioni del profilo, i video pubblicati e altri comportamenti adottati in piattaforma”. Dopo un processo di revisione, i moderatori di TikTok potranno sospendere l’account del minore.
L’operazione non avrà, secondo quanto dichiara TikTok, nessuno scopo di profilazione commerciale, ma unicamente quello di segnalare e sospendere gli account degli under 13. A quanto si legge nella nota diffusa, la procedura è stata messa a punto insieme alla Commissione irlandese (stato in cui a sede la filiale europea di Tik Tok) per la protezione dei dati, la principale autorità di regolamentazione della privacy nell’UE.
Come fare ricorso al ban
Il meccanismo, in ogni caso, potrebbe generare dei falsi positivi. Per questo, TikTok prevede che si possa fare ricorso e riottenere il proprio profilo attraverso tre modalità: la stima dell’età facciale da parte della società di verifica Yoti, l’autorizzazione della carta di credito o un documento d’identità approvato dal governo.
I limiti per le altre fasce d’età
L’impegno della piattaforma di proprietà della società cinese ByteDance è poi anche sulla sicurezza di altre fasce d’età. Ad esempio, non è possibile utilizzare i messaggi diretti dagli account di persone under 16. Per gli under 18, invece, esiste un limite di tempo di utilizzo impostato automaticamente a 60 minuti al giorno e non si possono ricevere notifiche dopo un certo orario notturno. Regole che però possono essere aggirate se, al momento della creazione del profilo, il minore dichiara un’età anagrafica superiore ai diciotto anni.
Le azioni dell’Unione
Nonostante i passi avanti rimangono comunque ancora molti ostacoli per rendere operativo il Digital Services Act. Per questo, i governi non smettono di mantenere in agenda questo argomento. Facendo una rapida panoramica: il Parlamento Europeo, il 26 novembre, ha approvato una risoluzione non vincolante che propone un limite minimo di 16 anni per accedere ai social media, con la possibilità di utilizzo dai 13 ai 16 anni solo con consenso dei genitori.
L’impegno dei governi UE
In Francia, dal 2023, si discute di una legge che obbligherebbe i minori di 15 anni ad avere il consenso dei genitori per accedere ai social. Stallo sul tema anche in Spagna e Danimarca. In Italia, il limite formale al trattamento dei dati (elemento essenziale nell’utilizzo dei social) è di 14 anni. In teoria dunque, nessun under 14 potrebbe accedere ai social senza il consenso dei genitori.
L’introduzione di queste regole, però, cozza con una lacuna fondamentale: fino a quando non esisterà un meccanismo efficace di verifica dell’età, qualsiasi legge rimarrà facilmente superabile.













![Taranto, lo stabilimento ArceloMittal Ex Ilva, l'impianto siderurgico più grande d'Europa. [Credits: Fabio Altobello/IPA agency]](https://www.eunews.it/wp-content/uploads/2026/02/IPA_Agency_IPA19107140-120x86.jpg)
