- TikTok despliega en Europa una tecnología avanzada de predicción y verificación de edad para detectar cuentas de menores de 13 años.
- Los algoritmos analizan perfil, vídeos y comportamiento y, si hay dudas, pasan cada caso a moderadores humanos especializados.
- La plataforma elimina millones de cuentas de menores cada mes y refuerza las medidas para adolescentes con más de 50 ajustes de seguridad.
- Los usuarios podrán apelar decisiones y verificar su edad mediante Yoti, documentación oficial o tarjeta de crédito, bajo supervisión de reguladores europeos.
La red social de vídeos cortos TikTok ha iniciado un endurecimiento notable de sus controles de edad en Europa con el objetivo de sacar de la plataforma a los menores de 13 años y ajustar mejor la experiencia de adolescentes, una estrategia que recuerda la verificación de edad en Roblox. El movimiento llega en plena ofensiva regulatoria en la Unión Europea y otros países europeos, donde se exige a las grandes plataformas más garantías para la protección de los menores sin disparar al mismo tiempo la recogida de datos personales.
La compañía, propiedad del grupo chino ByteDance, está desplegando una tecnología de predicción de edad más sofisticada que se suma al clásico campo de fecha de nacimiento. El sistema utiliza información del perfil, el contenido publicado y ciertos patrones de uso para estimar la edad del usuario y, si detecta señales de que podría tratarse de un menor de 13 años, envía el caso a equipos humanos especializados para una revisión detallada y, en su caso, la eliminación de la cuenta.
Una verificación de edad más estricta para menores de 13 años
Para la plataforma, la verificación de edad en Internet se ha convertido en un “desafío complejo” porque no existe un método universalmente aceptado que garantice al mismo tiempo exactitud y respeto a la privacidad. En este contexto, TikTok ha reiterado su compromiso de mantener fuera del servicio a los menores de 13 años —edad mínima oficial para abrir cuenta— y de ofrecer experiencias diferenciadas por tramos de edad a los usuarios que sí cumplen ese requisito.
El nuevo enfoque en Europa se apoya en una tecnología mejorada de predicción de edad que combina varios tipos de señales. En primer lugar, se tiene en cuenta la información declarada por el propio usuario en su perfil, incluyendo la fecha de nacimiento y otros datos básicos. A continuación, el sistema analiza los vídeos que publica, el lenguaje utilizado y la forma en la que interactúa con otros contenidos, identificando patrones estadísticos asociados a usuarios más jóvenes.
Cuando el modelo automático detecta una probabilidad significativa de que detrás de una cuenta haya un menor de 13 años, el caso no se cierra de manera instantánea. La cuenta pasa a manos de un equipo humano de moderadores especializados en control de edad, que vuelve a revisar el perfil en profundidad y decide si procede su eliminación definitiva.
Según ha explicado la propia compañía, este sistema no ha surgido de la nada: se ha probado previamente durante un año en Europa en un programa piloto, del que TikTok asegura que se derivó la eliminación de miles de cuentas gestionadas por menores. Ese periodo de pruebas ha servido para ajustar la precisión de los algoritmos y el flujo de trabajo de los moderadores antes de extender el despliegue a todo el continente.

Cómo funciona el nuevo sistema de control de edad
TikTok insiste en que su tecnología de predicción de edad no se basa únicamente en lo que el usuario dice sobre sí mismo, sino en una combinación de elementos. Entre ellos se incluyen los datos del perfil, el tipo de vídeos que sube, el estilo visual, los efectos utilizados, la forma de escribir comentarios y la red de contactos, así como otros comportamientos dentro de la aplicación que suelen asociarse a menores.
Una vez que el algoritmo marca una cuenta como potencialmente gestionada por alguien que no alcanza la edad mínima, se activa un protocolo interno. La cuenta se remite a un moderador humano con formación específica en detección de menores, que revisa contenido, interacciones y cualquier indicio adicional antes de tomar una decisión. Si se confirma que el usuario es menor de 13 años, la cuenta se elimina y se bloquea la posibilidad de reabrir otra con una fecha de nacimiento distinta desde el mismo dispositivo o entorno inmediato.
La compañía subraya además que, incluso durante la fase de alta, la primera barrera de protección sigue siendo la fecha de nacimiento introducida al crear la cuenta. Este sistema se considera “neutral” porque, según TikTok, no induce ni presiona al usuario para que ponga una edad concreta; si el dato indica que la persona es menor de la edad mínima, el registro se bloquea y se restringe volver a intentarlo con una fecha diferente.
Más allá de la tecnología automatizada, la plataforma también refuerza la vigilancia manual. Los equipos de moderación general reciben formación para identificar señales de que una cuenta podría pertenecer a un menor, incluso cuando revisan contenidos por otras razones, como infracciones de normas comunitarias. Si detectan indicios de ello, pueden remitir la cuenta a un grupo de revisión especializado en edad para un análisis más minucioso.
Este conjunto de barreras automatizadas y humanas tiene un impacto cuantificable: TikTok asegura que, a escala mundial, elimina alrededor de seis millones de cuentas de menores cada mes. Buena parte de esas suspensiones se apoyan en este tipo de sistemas combinados de detección y revisión.
Derecho a apelar y recuperación de cuentas bloqueadas por error
La compañía admite que ningún sistema de verificación de edad es infalible y, por ello, ha habilitado un procedimiento formal de apelación para usuarios europeos cuyas cuentas se vean eliminadas o suspendidas por sospecha de minoría de edad. Este proceso busca equilibrar la protección de los menores con la posibilidad de corregir errores de moderación cuando afectan a adultos o adolescentes que sí cumplen los requisitos.
En el marco de este mecanismo de recurso, los usuarios podrán demostrar que tienen la edad exigida utilizando varias vías. Una de las opciones es la tecnología de estimación facial desarrollada por la empresa británica Yoti, que funciona mediante un vídeo rápido grabado con la cámara del móvil y estima la edad a partir de rasgos faciales sin identificar de manera biométrica al usuario.
Quienes no deseen recurrir a este sistema automatizado pueden optar por proporcionar una identificación oficial válida emitida por un organismo público, como el DNI, pasaporte o documento equivalente en otros países europeos. Alternativamente, se contempla también la verificación mediante tarjeta de crédito, un recurso que ya se utiliza en otros servicios para demostrar mayoría de edad.
La compañía insiste en que estas herramientas de verificación adicionales solo se activan cuando el usuario decide apelar una decisión de moderación, y no de forma indiscriminada para todos los perfiles. De este modo, pretende responder a las exigencias de los reguladores europeos en materia de transparencia y protección de datos sin generalizar la recogida de información especialmente sensible.
En paralelo, TikTok se compromete a enviar notificaciones claras a los usuarios en el Espacio Económico Europeo, Suiza y Reino Unido cuando se pongan en marcha estos controles reforzados y, en su caso, cuando una cuenta se vea afectada por decisiones tomadas por sistemas automatizados. Ese tipo de avisos forman parte de las obligaciones de la Ley de Servicios Digitales y de la normativa de protección de datos de la UE.
Experiencias diferenciadas y más de 50 ajustes de seguridad para adolescentes
El endurecimiento de los controles no solo se dirige a expulsar a los menores de 13 años, sino también a afinar las experiencias de uso para adolescentes que sí pueden estar en la plataforma. TikTok ha desplegado lo que denomina “cuentas de adolescentes”, que incorporan de serie más de 50 funciones y configuraciones pensadas para este tramo de edad, similares a la app PlayStation Family.
Entre esos ajustes se encuentran límites de tiempo de pantalla activados por defecto, como un tope diario de uso que, en algunos casos, se sitúa en torno a los 50 minutos para los usuarios más jóvenes, así como restricciones en el envío de notificaciones automáticas durante la noche para reducir las interrupciones a la hora de dormir. También se endurecen las opciones de privacidad y la posibilidad de que desconocidos interactúen con el contenido de los menores.
La misma tecnología de predicción de edad que sirve para identificar a los menores de 13 años se aprovecha para asignar a cada usuario la experiencia que corresponde a su rango de edad. Si el sistema detecta señales de que alguien podría tener, por ejemplo, entre 13 y 15 años, pero la fecha proporcionada no encaja con esa estimación, la cuenta vuelve a pasar por manos de moderadores para decidir si se ajustan las configuraciones de seguridad y privacidad al perfil real del usuario.
Con este enfoque, TikTok pretende ofrecer capas adicionales de protección sin introducir barreras de entrada tan intrusivas que requieran la entrega sistemática de documentación personal. La clave está en ajustar automáticamente qué puede hacer un usuario, qué tipo de contenido ve y qué funciones le aparecen activadas según el rango de edad en el que se le encuadre tras la revisión.
Al mismo tiempo, la plataforma recuerda que cualquier persona puede denunciar una cuenta que sospeche que pertenece a un menor de 13 años, incluso aunque no tenga perfil en TikTok. Estas denuncias externas se integran en los canales de revisión del equipo especializado, que cruza la información con los resultados de las herramientas de detección automatizada.
Presión regulatoria en Europa y diálogo con autoridades de protección de datos
El refuerzo de los sistemas de verificación de edad no se entiende sin el contexto regulatorio. Los reguladores europeos llevan tiempo exigiendo a las redes sociales mecanismos más sólidos para proteger a los menores, pero al mismo tiempo alertan de que algunas soluciones podrían derivar en una recopilación excesiva de datos personales, algo chocaría con el Reglamento General de Protección de Datos (RGPD).
En este tira y afloja, las autoridades piden a las plataformas que expliquen con claridad cómo funcionan sus sistemas automatizados de moderación, qué tipo de datos utilizan, hasta qué punto son precisos y cuáles son los márgenes de error. La Ley de Servicios Digitales obliga además a ofrecer vías de apelación accesibles, notificaciones transparentes cuando se tomen decisiones con intervención de algoritmos y supervisión permanente por parte de reguladores nacionales.
En el caso concreto de TikTok, la empresa afirma haber mantenido consultas con la Comisión de Protección de Datos (CPD) de Irlanda, principal autoridad responsable de supervisar a la plataforma en la UE, para ajustar el diseño de sus herramientas de predicción de edad a los estándares de privacidad europeos. La compañía asegura haber integrado los principios de protección de datos “desde la fase de diseño”, limitando el uso de estos sistemas exclusivamente a la verificación de edad y la derivación de cuentas a moderadores humanos.
Paralelamente, en distintos países del entorno europeo se está abriendo un debate político más amplio sobre el acceso de niños y adolescentes a las redes sociales y sus posibles efectos psicológicos y físicos. Desde propuestas de prohibición total para ciertos grupos de edad hasta “toques de queda digitales”, los parlamentos nacionales valoran cómo combinar las obligaciones de las plataformas con restricciones legales directas al uso de estos servicios por parte de menores.
En un escenario donde Francia, Dinamarca, España, Italia o Grecia exploran leyes más severas, los pasos de TikTok hacia controles de edad más estrictos pueden servir como referencia para lo que los reguladores esperan del resto de grandes plataformas. El equilibrio entre seguridad infantil, libertad de expresión y protección de la privacidad se ha convertido en uno de los grandes temas de la agenda digital europea.
Con la implantación progresiva de esta tecnología en el Espacio Económico Europeo, Suiza y Reino Unido, el servicio de vídeos cortos intenta adelantarse a futuras sanciones y demostrar que refuerza la seguridad de los menores sin exigir a todos los usuarios una identificación invasiva. La eficacia real de estos controles, la tasa de aciertos en la detección y la gestión de las apelaciones serán ahora observadas con lupa por reguladores, legisladores y organizaciones de defensa de la infancia en toda Europa.