La avalancha de basura generada por IA en YouTube pone a España en el foco

Última actualización: diciembre 31, 2025
  • Más de un 20% de las recomendaciones a nuevos usuarios en YouTube serían vídeos generados por IA de baja calidad
  • España lidera el número de suscriptores a canales de “AI slop”, superando los 20 millones
  • El modelo de recomendación y monetización de YouTube incentiva la producción masiva de contenido basura automatizado
  • Esta dinámica complica distinguir contenidos reales de los generados por IA y degrada el valor informativo de la plataforma

Basura generada por IA en YouTube

En los últimos meses, muchos usuarios han empezado a notar que el feed de YouTube, sobre todo en Shorts, se ha llenado de vídeos raros, repetitivos y sin apenas sentido. No es solo una sensación: varios análisis independientes apuntan a que una parte nada desdeñable de lo que la plataforma recomienda a quien se abre una cuenta nueva ya no está producido por personas, sino por sistemas de inteligencia artificial que generan vídeos en cadena.

Un informe reciente de la web Kapwing pone números a este fenómeno y lo bautiza como “AI slop”: contenido masivo generado por IA, de escaso valor creativo y orientado casi exclusivamente a agradar al algoritmo. El estudio concluye que más del 20% de los primeros 500 vídeos sugeridos a un usuario nuevo son ya basura automatizada, y que países como España se han convertido en uno de los epicentros de este tipo de canales.

Qué es el “AI slop” y por qué invade YouTube

El término “slop” se ha popularizado tanto que el diccionario Merriam-Webster lo recoge como sinónimo de contenido digital de baja calidad creado en grandes cantidades con IA. En el contexto de YouTube, se trata de vídeos producidos casi sin supervisión humana, a base de clips generados por modelos como Sora o VEO, voces sintéticas y guiones prefabricados que se reciclan una y otra vez.

Estos vídeos no persiguen aportar información, ni contar historias originales ni experimentar artísticamente. Su objetivo es mucho más prosaico: maximizar la retención de audiencia con estímulos exagerados, ritmos frenéticos y narraciones simplonas hasta el absurdo, una lógica muy similar a la de los contenidos “brainrot” que arrasaron en redes a partir de 2025.

En el experimento que sustenta el informe, Kapwing creó perfiles nuevos para simular un algoritmo “limpio” y analizó las primeras 500 recomendaciones de YouTube. Alrededor de uno de cada cinco vídeos estaba claramente generado por IA, mientras que un tercio adicional entraba de lleno en la categoría de contenido trivial y sobreestimulado diseñado para que el usuario siga deslizando sin pensar demasiado.

La clave está en que producir este material es baratísimo y casi ilimitado: basta combinar un texto más o menos genérico, un generador de vídeo, una herramienta de síntesis de voz y unas cuantas plantillas optimizadas para el algoritmo. El resultado son miles de clips muy parecidos entre sí que se suben de forma automatizada, confiando en que el sistema de recomendación acabe premiando a unos cuantos.

  TikTok Shop alcanza 12.000 tiendas en España y acelera su comercio integrado

España en lo más alto del ranking de basura generada por IA

Una de las conclusiones que más llaman la atención en el informe es que España encabeza el ranking mundial de suscriptores a canales clasificados como “AI slop” en YouTube. Sumando las audiencias de este tipo de canales, el país superaría los 20 millones de suscripciones, por encima de Estados Unidos (unos 14 millones) y Brasil (en torno a 13 millones).

Este dato se obtuvo analizando los 100 canales que más aparecían en tendencias en cada país, un total de unos 15.000 canales. De ellos, alrededor de 278 fueron catalogados como “puro slop”, es decir, contenido producido de forma casi íntegra mediante IA y con un patrón sistemático de repetición, exageración y escaso valor informativo o educativo.

Para el mercado hispanohablante, el informe identifica varios canales orientados al público español y latinoamericano que figuran entre los más destacados. Algunos se presentan como canales infantiles, otros como entretenimiento ligero o supuesta divulgación, pero comparten el mismo patrón: vídeos cortos, altamente adictivos y producidos con IA a toda velocidad.

Un ejemplo especialmente representativo es el de los canales de cuentos y animaciones inspirados en universos populares como Dragon Ball u otras franquicias conocidas. Estos canales acumulan millones de seguidores y miles de millones de visualizaciones usando personajes y estilos reconocibles generados por IA, mezclados con tramas simplonas y una estética que, a poco que se rasque, deja ver el sello automático.

Cómo se fabrican estos vídeos basura con IA

El proceso para producir este tipo de contenido está cada vez más estandarizado. Muchos creadores -o más bien operadores de canales- parten de textos de dominio público, como cuentos clásicos, fábulas o leyendas. A partir de ahí, alimentan una herramienta de generación de vídeo para obtener escenas animadas, añaden narración automática y música de fondo, y en cuestión de minutos tienen un nuevo clip listo para subir.

Según los investigadores, los modelos de vídeo generativo permiten crear escenas completas en apenas unos clics, de forma que el cuello de botella ya no es la producción, sino la capacidad de subir y optimizar los vídeos. Muchos canales automatizan incluso esa parte, programando subidas constantes y utilizando títulos y miniaturas pensados exclusivamente para atraer clics en masa.

  Starlink móvil: Internet satelital directo al smartphone ya es una realidad

El resultado es una tormenta perfecta de automatización, optimización algorítmica y degradación del valor educativo e informativo. En las pruebas con cuentas nuevas, se estima que entre el 21% y el 33% de los primeros 500 vídeos recomendados entran dentro de la etiqueta slop, bien por estar generados de forma directa por IA, bien por replicar su lógica de saturación y estímulo constante.

Todo esto, además, suele hacerse sin etiquetas claras que indiquen que el contenido está generado con IA. Las advertencias, cuando existen, son discretas o directamente inexistentes, de manera que muchos usuarios no distinguen si detrás hay un creador humano o una cadena automatizada de producción de vídeos.

Mucho dinero en juego y poco interés en poner freno

Detrás de esta avalancha de basura generada por IA hay una razón evidente: el negocio funciona. Algunos de los canales señalados en el informe, especialmente en mercados con grandes volúmenes de audiencia, pueden llegar a facturar varios millones de euros al año en ingresos publicitarios, especialmente si combinan monetización directa de YouTube con acuerdos de marca y otras vías de negocio.

Se citan casos como el de ciertos canales de animación para público infantil o familiar con más de 2.000 millones de visualizaciones acumuladas, cuya estimación de ingresos supera con holgura los millones de dólares anuales. Aunque el contenido sea pobre y repetitivo, mientras genere visualizaciones y mantenga al usuario dentro de la plataforma, el modelo económico funciona.

Esto explica por qué no parece haber un movimiento decidido por parte de YouTube para contener la expansión de este fenómeno. Mientras los vídeos respeten las normas básicas de la comunidad -no inciten al odio, no incluyan violencia explícita, etc.-, pueden seguir monetizándose y, en muchos casos, siendo impulsados por el propio sistema de recomendación.

La plataforma se enfrenta así a una contradicción de fondo: limitar el “AI slop” podría implicar renunciar a una parte nada desdeñable de sus ingresos y de su tiempo de visionado global. Y, de momento, el equilibrio parece inclinarse más hacia dejar que el mercado de la basura automatizada se autorregule que hacia introducir filtros estrictos que prioricen calidad y transparencia.

El problema no es la IA, es el modelo de recomendación y negocio

Buena parte de los expertos consultados coinciden en que la inteligencia artificial en sí misma no es el enemigo. Las mismas herramientas que hoy se usan para llenar YouTube de vídeos vacíos podrían servir, en manos de creadores responsables, para experimentar con nuevos formatos, traducir contenidos o facilitar la producción audiovisual independiente.

  Altman reaviva la teoría de la internet muerta

El foco, señalan, debería ponerse en el modelo de recomendación y monetización de la propia plataforma. El algoritmo prioriza la cantidad, la frecuencia de publicación y la capacidad de retener la atención por encima de otros factores como la originalidad, la calidad informativa o el contexto. En ese entorno, la producción masiva de vídeos generados por IA encaja como un guante.

En mercados como el español, donde un mismo vídeo en castellano puede hacerse viral simultáneamente en varios países, el efecto se multiplica. Un solo canal de “AI slop” bien afinado para el algoritmo puede construir audiencias gigantescas en España y Latinoamérica a la vez, lo que refuerza aún más los incentivos para seguir produciendo basura automatizada.

Si YouTube no introduce cambios de fondo en cómo decide qué recomendar y cómo reparte la monetización, el riesgo es que la plataforma acabe saturada de contenido vacío. Cada vez resultará más complicado encontrar vídeos creados por personas con ideas propias, enfoques originales o rigor informativo, especialmente para quienes llegan nuevos y dependen casi por completo de las sugerencias iniciales del sistema.

Desde la perspectiva del usuario, esto plantea un escenario en el que la capacidad de distinguir entre contenido genuino y piezas generadas en serie por IA se vuelve crucial. La sobreabundancia de vídeos que parecen humanos, pero no lo son, puede erosionar la confianza en lo que se ve y escucha, y complicar aún más el ya delicado ecosistema de información en internet.

A la vista de los datos que señalan a España como líder en suscripciones a canales de “AI slop”, y de la proporción de vídeos automatizados que se cuelan en las recomendaciones a nuevos usuarios, todo apunta a que la basura generada por IA en YouTube ha dejado de ser una rareza para convertirse en parte estructural del paisaje de la plataforma. Mientras el modelo de negocio siga premiando la cantidad y la retención por encima de la calidad y la transparencia, y no haya medidas claras para identificar de forma visible qué está creado con IA, el reto para quienes buscan contenido fiable -tanto en España como en el resto de Europa- será aprender a navegar en un entorno cada vez más abarrotado de vídeos brillantes por fuera, pero huecos por dentro.

Facebook
Artículo relacionado:
Grandes desafíos para Facebook: ofensiva contra el contenido falso, estafas globales y nuevas medidas legales