- Sam Altman admite que ahora percibe muchas cuentas en X operadas por LLM, reactivando el debate sobre la "internet muerta".
- La teoría sostiene que bots e IA dominan gran parte de la actividad visible en la red desde mediados de la década de 2010.
- Informes de ciberseguridad estiman que una porción sustancial del tráfico global es automatizado, lo que difumina la autenticidad.
- La propuesta de verificación biométrica (World Network, antes Worldcoin) vuelve al foco por sus implicaciones de privacidad.
La llamada teoría de la internet muerta ha pasado de ser un asunto de foros a colarse en el debate público, en buena medida porque Sam Altman (OpenAI) ha reconocido que empieza a ver indicios que encajan con esa idea. El eje del planteamiento es sencillo: una buena parte de lo que consumimos y con lo que interactuamos en la red sería generado por máquinas, no por personas.
En un contexto de adopción masiva de modelos generativos y de batallas constantes contra bots en plataformas sociales, la discusión gana fuerza: ¿dónde termina la actividad humana y dónde empieza la automatización? La pregunta no es nueva, pero el momento tecnológico actual obliga a mirarla con otros ojos.
¿Qué plantea la teoría y cómo surgió?
El concepto empezó a fraguarse a mediados de la década de 2010 y se popularizó en 2021 con hilos y ensayos que apuntaban a un giro en la web: menos espontaneidad y más contenido uniforme, creado para agradar a algoritmos y llenar el espacio con ruido.
Sus defensores sitúan el punto de inflexión entre 2016 y 2017, cuando, según esta lectura, los sistemas automatizados empezaron a eclipsar la interacción humana visible. La hipótesis incluye tres ideas recurrentes:
- Predominio de bots y cuentas automatizadas que simulan conversaciones, reseñas y tendencias.
- Producción masiva de contenido generativo (texto, imagen y vídeo) orientado a posicionamiento y monetización.
- Desplazamiento de la creatividad y la participación genuina por loops algorítmicos repetitivos.
Lo que dijo Sam Altman y la paradoja del momento
Altman comentó recientemente en X que en el pasado no daba crédito a la teoría, pero que ahora observa «muchas cuentas» gestionadas por modelos de lenguaje. Al venir de quien lidera una de las empresas más influyentes en IA, la frase ha encendido la conversación.
El lanzamiento de ChatGPT a finales de 2022 marcó un antes y un después: habilitó a millones de usuarios a generar textos y publicaciones de forma inmediata, algo útil en múltiples ámbitos, pero también aprovechable para automatizar contenido a gran escala en redes y webs.
Las reacciones no tardaron: hay quien ve ironía en que el impulso de esta ola tecnológica provenga de las mismas firmas que ahora alertan de sus efectos. Con todo, el señalamiento de Altman sobre cuentas operadas por LLM ha servido para situar el problema en la primera línea del debate.
¿Cuánto hay de bots? Señales y datos
Firmas de ciberseguridad llevan años advirtiendo que una fracción relevante del tráfico global es automatizada; no todo con fines maliciosos, pero suficiente como para difuminar la frontera entre lo humano y lo sintético.
Al mismo tiempo, se ha observado que proliferan sitios y piezas creadas «para buscadores» más que para personas, y plataformas sociales han lidiado con oleadas de spam y bots difíciles de erradicar. A ello se suman señales como patrones de publicación anómalos, lenguaje genérico o cuentas recién creadas que escalan rápido.
Verificación de humanidad: World Network (antes Worldcoin)
En paralelo, Altman está vinculado a una iniciativa que propone pruebas de humanidad mediante escaneo de iris para distinguir a personas reales de agentes automatizados en la red. La promesa: recuperar confianza en interacciones y servicios online.
El enfoque biométrico, no obstante, ha generado críticas y escrutinio regulatorio en Europa por riesgos de privacidad y seguridad de datos sensibles. Desde organismos como la AEPD se llegó a pedir prudencia, subrayando que ceder información tan delicada puede acarrear consecuencias futuras.
Tras esa polémica, el proyecto ha insistido en mecanismos de protección y transparencia, aunque el debate persiste: ¿es razonable exigir verificación biométrica para moverse por la web o bastan medidas menos invasivas?
Autenticidad y experiencia digital: de la dead internet a la enshitification
La sensación de una red más vacía de humanidad conecta con la idea de la enshitification descrita por Cory Doctorow: plataformas que, con el tiempo, optimizan para sus propios intereses, empobreciendo la experiencia de usuarios y creadores.
Entre bots, contenidos generativos y presión por maximizar métricas, la autenticidad se resiente y los «deepfakes» y cuentas sintéticas añaden ruido. La teoría de la internet muerta y esa degradación progresiva se retroalimentan en la percepción de una web más predecible y menos orgánica.
¿Hacia dónde vamos y qué se puede hacer?
Las propuestas en circulación pasan por etiquetar contenido generado por IA, mejorar detección de bots y reforzar la moderación, además de estándares de transparencia en plataformas y motores de búsqueda.
Se discuten también vías de verificación de identidad menos intrusivas que la biometría, así como alfabetización mediática para que los usuarios aprendan a identificar automatismos y distinguir señales de autenticidad.
Vista con frialdad, la discusión actual deja dos certezas: la actividad no humana ya pesa en el ecosistema online y separar lo real de lo simulado requiere nuevas reglas del juego. Que Altman haya avivado el tema solo evidencia que el problema ha dejado de ser marginal y exige soluciones medibles, respetuosas con la privacidad y aplicables a escala.