Bruselas acusa a Meta y TikTok de vulnerar la Ley de Servicios Digitales

Última actualización: octubre 27, 2025
  • La Comisión Europea señala a Meta y TikTok por fallos de transparencia y trabas a la denuncia de contenidos ilícitos bajo la DSA.
  • Las plataformas se exponen a multas de hasta el 6% de su facturación global si se confirman las infracciones.
  • Meta discrepa y alega cambios ya aplicados; TikTok pide claridad por la tensión entre DSA y RGPD.
  • Impacto directo para usuarios en España y la UE: mecanismos de aviso, apelación y acceso a datos para investigadores.

Ley de Servicios Digitales y grandes plataformas en Europa

La Comisión Europea ha comunicado hallazgos preliminares según los cuales Meta y TikTok habrían incumplido obligaciones clave de la Ley de Servicios Digitales (DSA). Bruselas apunta a deficiencias de transparencia y a obstáculos en los mecanismos para denunciar contenidos ilegales, un expediente que, de confirmarse, puede acarrear sanciones de hasta el 6% del volumen de negocio mundial.

La DSA impone a las grandes plataformas medidas para mitigar la difusión de contenidos ilícitos y nocivos, facilitar el acceso a datos a investigadores acreditados y ofrecer procesos de apelación claros; en un contexto que incluye las nuevas normas de Google, todo ello con impacto directo en los usuarios en España y el resto de la UE, que deben poder reportar con facilidad material prohibido y entender cómo se les recomiendan contenidos.

Qué investiga la Comisión Europea

Investigación europea sobre cumplimiento de plataformas

Según el Ejecutivo comunitario, tanto Facebook e Instagram (Meta) como TikTok habrían restringido el acceso a datos públicos a investigadores mediante procedimientos engorrosos. Esa complejidad habría derivado en la disponibilidad de información parcial o poco fiable, lo que limita el escrutinio independiente sobre riesgos para los usuarios, incluidos los menores, y choca con debates sobre límites al uso de contenido en IA.

  Google renueva su buscador con Gemini 2.5 Pro y funciones avanzadas de IA

Bruselas también cuestiona la falta de transparencia sobre los algoritmos de recomendación de TikTok, esenciales para entender por qué se muestra cierto contenido. Además, recuerda que mantiene otra investigación abierta para comprobar si la plataforma protege adecuadamente a los menores en el entorno europeo, un foco que también ha motivado medidas como la prohibición de redes sociales para menores en otros países.

En el caso de Meta, la Comisión sostiene que no ofrece un mecanismo sencillo y visible para reportar material de abuso sexual infantil o contenido terrorista en Facebook e Instagram. Asimismo, identifica posibles “patrones oscuros” o diseños de interfaz que añaden pasos innecesarios, generando confusión y desincentivando la denuncia.

De acuerdo con cifras compartidas por la UE, desde la primavera de 2024 Meta adoptó cerca de 918 millones de decisiones de moderación que afectaron a usuarios europeos; alrededor de 68 millones fueron apeladas y aproximadamente el 31% (unos 21 millones) acabaron siendo repuestas, lo que refuerza la relevancia de contar con procesos de recurso eficaces en el marco de la DSA.

  Fallece un hombre de 30 años tras perder el conocimiento en una montaña rusa de Universal

Qué dicen Meta y TikTok

Meta rechaza la interpretación de la Comisión y asegura que no comparte las conclusiones. Su portavoz, Ben Walters, afirma que desde la entrada en vigor de la DSA han introducido cambios en las opciones de reporte, el proceso de apelaciones y las herramientas de acceso a datos, y que confían en que sus soluciones se ajustan a lo exigido en la UE.

TikTok, por su parte, dice estar revisando los hallazgos y subraya que ciertos requisitos de transparencia pueden entrar en tensión con el Reglamento General de Protección de Datos (RGPD). Su portavoz, Paolo Ganino, pide a los reguladores claridad sobre cómo conciliar ambas normas y sostiene que la empresa ha invertido en intercambio de datos, con casi 1.000 equipos de investigación que ya han accedido a sus herramientas.

Multas y próximos pasos

La Comisión recuerda que se trata de conclusiones preliminares y que las compañías pueden presentar alegaciones y adoptar medidas de remedio. Si las infracciones se confirman, la DSA permite imponer multas de hasta el 6% de la facturación global anual, una cifra que supondría un fuerte incentivo para acelerar la adecuación.

Desde Bruselas insisten en que la normativa no busca censurar, sino empoderar a los usuarios y abrir los sistemas al escrutinio público. Los mecanismos de “Aviso y Acción” son clave para que cualquier persona pueda señalar contenidos que incumplen la legislación de la UE o nacional, en línea con el mensaje que ha reiterado la vicepresidenta Henna Virkkunen.

  Pilatus PC-21: así entrena España a sus nuevos aviadores

Impacto para usuarios en España y la UE

Para los usuarios españoles, la aplicación estricta de la DSA debe traducirse en botones de denuncia visibles, procesos de recurso comprensibles y más claridad sobre por qué ven determinados contenidos. También implicará mayor vigilancia por parte de las autoridades europeas y nacionales sobre cómo las plataformas moderan publicaciones y gestionan quejas.

En paralelo, investigadores y sociedad civil deberían disponer de acceso a datos suficiente —mediante APIs o conjuntos de datos— para estudiar riesgos sistémicos, desde la desinformación hasta posibles daños a la salud mental. Ese escrutinio independiente forma parte del núcleo de la DSA y condicionará la evolución de las funciones clave de las grandes plataformas en Europa.

La resolución de este caso marcará el alcance práctico de la DSA en el mercado europeo: entre las posibles sanciones del 6% y las reformas que propongan Meta y TikTok, el pulso entre transparencia, protección de datos y seguridad del usuario definirá lo que verán y podrán hacer millones de personas en España y el resto de la Unión.

Investigación de la CNMC a Apple en su App Store
Artículo relacionado:
La CNMC investiga a Apple por supuestas restricciones en la App Store