Roblox apuesta por la IA para reescribir el chat en tiempo real y reducir los “####”

Última actualización: marzo 6, 2026
  • Roblox sustituye el viejo filtro de “####” por un sistema de IA que reescribe mensajes en tiempo real manteniendo el sentido original.
  • La tecnología analiza el contexto, detecta leetspeak y otros trucos, con una reducción de 20 veces en falsos negativos al vigilar datos personales.
  • La reformulación se aplica sobre todo a usuarios verificados y segmentados por edad, con avisos visibles cuando un mensaje se retoca.
  • El nuevo enfoque busca menos fricción en el chat sin relajar los estándares de seguridad, en plena presión regulatoria por la protección de menores.

Chat de Roblox moderado con IA

En las últimas semanas, Roblox ha dado un giro importante en la forma en que modera las conversaciones dentro de su plataforma. El clásico método de llenar los mensajes de almohadillas cuando aparecía una palabra prohibida empieza a quedar atrás para dar paso a un sistema mucho más sofisticado, apoyado en modelos de inteligencia artificial.

En lugar de mostrar líneas de texto ilegibles llenas de “####” cada vez que alguien se pasa de la raya, la compañía ha empezado a desplegar una función de reescritura automática del chat en tiempo real. El objetivo es claro: mantener el sentido de lo que la gente quiere decir, pero sin permitir insultos, lenguaje tóxico ni intentos de compartir información delicada, algo especialmente sensible en una comunidad con tantos menores.

De los “####” a frases legibles: qué está cambiando en el chat de Roblox

Sistema de reescritura de chat en Roblox

Durante años, el enfoque clásico de moderación textual se ha basado en listas de palabras prohibidas que se ocultan con símbolos. Es efectivo para bloquear términos concretos, pero tiene un efecto colateral bastante molesto: convierte la conversación en un muro de caracteres que nadie entiende, cortando de raíz la fluidez del juego y del chat.

Roblox ha decidido dar un paso más y sustituir ese bloqueo plano por un sistema que reescribe lo que se dice. Un ejemplo ilustrativo que ha difundido la propia compañía: una frase del estilo “Hurry TF up!” o “Apúrate, imbécil” dejaría de aparecer como una cadena de almohadillas y pasaría a mostrarse simplemente como “Hurry up!” o “Apúrate”. La idea es que el contenido ofensivo desaparece, pero la orden o intención general se mantiene.

Para evitar malentendidos, cada vez que la IA modifica un mensaje el sistema lo indica en el propio chat. Es decir, los participantes ven que ha habido una reformulación, de modo que no se oculta la intervención de la herramienta automatizada. La plataforma busca así un equilibrio complejo: intervenir en la conversación sin dar la sensación de que se manipula a escondidas lo que la gente dice.

Esta función se está aplicando sobre todo a chats entre usuarios que han completado la verificación de edad y que se agrupan en rangos etarios similares. Afecta a modalidades habituales dentro de Roblox, como el chat general, el de equipo y los susurros, y se inserta dentro de la arquitectura de seguridad ya existente, que incluye desde filtros tradicionales hasta sistemas de reporte y revisión de conductas graves.

En todo caso, la reescritura no sustituye a las sanciones más duras: si un comportamiento supera ciertos límites, se siguen aplicando medidas como bloqueos, suspensiones o escalado a equipos humanos. La IA actúa en el primer nivel, suavizando el lenguaje y reduciendo fricciones, pero no se plantea como una excusa para relajar los estándares de seguridad ni la respuesta ante abusos serios.

  La Fiscalía francesa investiga Siri de Apple por posible uso ilícito de datos

Cómo funciona la IA que reescribe los mensajes en tiempo real

El nuevo sistema de Roblox se apoya en varios componentes que van mucho más allá de un simple filtro por lista negra. La clave está en que la IA analiza el contexto semántico del mensaje y no solo las palabras sueltas. Eso le permite entender abreviaturas, expresiones coloquiales o mezclas de idiomas que un filtro básico pasaría por alto o bloquearía en exceso.

La compañía explica que el modelo es capaz de detectar variaciones de lenguaje ofensivo, incluyendo leetspeak y otros trucos comunes para esquivar filtros. Ese tipo de escritura creativa -sustituir letras por números o símbolos, introducir faltas a propósito, mezclar mayúsculas y minúsculas- es habitual en chats de videojuegos y suele ser la pesadilla de cualquier sistema de moderación estático.

Según los datos compartidos por Roblox, esta arquitectura ha permitido reducir en un factor de 20 los falsos negativos cuando se trata de mensajes que comparten o piden información personal. Es decir, el sistema detecta muchas más veces que antes los intentos de revelar datos sensibles sin que se le escapen por culpa de un simple cambio de letra o símbolo.

Otra pieza importante es la preservación de la intención original del texto. La IA no se limita a borrar palabras, sino que genera una versión alternativa que mantiene, en la medida de lo posible, el significado que el usuario quería transmitir, pero dentro de los estándares de convivencia definidos por la plataforma. Desde el punto de vista técnico, esto la acerca más a los modelos generativos de lenguaje que a los filtros clásicos de moderación.

Todo esto se integra, además, con las herramientas de traducción automática que Roblox ya utiliza para conectar a jugadores que hablan diferentes idiomas. La compañía afirma que la reformulación está disponible en los idiomas que la plataforma soporta, lo que le permite extender esta lógica de moderación a comunidades globales, también en Europa y España, donde el juego tiene una base de usuarios significativa.

Una estrategia de seguridad por capas en plena presión regulatoria

La nueva función de reescritura no aparece de la nada. Forma parte de una estrategia progresiva de Roblox para reforzar la seguridad y la moderación automática, especialmente tras las críticas y demandas relacionadas con la protección de menores. La plataforma se ha visto señalada por casos de grooming, contenidos inapropiados y estafas realizadas dentro del propio entorno de juego.

En los últimos años, la empresa ha ido sumando piezas: advertencias en tiempo real, filtros más granulares y, más recientemente, verificación facial obligatoria para acceder a determinadas funciones de chat. Estas medidas han llegado en paralelo a acciones legales desde distintos estados de EE. UU., donde fiscales generales han acusado a la compañía de no hacer lo suficiente para evitar riesgos hacia los usuarios más jóvenes.

En ese contexto, el despliegue de una IA que reformula mensajes sobre la marcha para mantener la conversación dentro de ciertos márgenes de civismo se interpreta también como un mensaje hacia reguladores y opinión pública: la empresa intenta demostrar que está invirtiendo en tecnología para limitar abusos sin desactivar por completo la dimensión social del juego.

  GTA VI: todo sobre el gran lanzamiento, impacto y polémica de la industria

Roblox ha destacado que la seguridad infantil sigue siendo el eje central de estas decisiones. La combinación de verificación de edad, segmentación por grupos etarios y moderación generativa pretende reducir las posibilidades de que un adulto se comunique de forma inapropiada con menores o de que se compartan datos personales que puedan comprometer la privacidad de los jugadores.

La compañía también ha involucrado a su propio Teen Council, un consejo formado por adolescentes usuarios de la plataforma, para ajustar el comportamiento de la IA. El objetivo es que el sistema reconozca jerga y formas de hablar habituales entre jóvenes sin censurarlas por defecto, algo clave para evitar que el chat se vuelva artificial o rígido hasta el punto de resultar inutilizable.

Impacto en la experiencia de los jugadores y debate sobre la libertad de expresión

El cambio abre un debate interesante sobre hasta qué punto una plataforma debe intervenir en la forma en que se expresan sus usuarios. Desde la perspectiva de muchos padres y tutores en España y en el resto de Europa, la medida puede verse como un alivio: el chat se limpia de insultos y expresiones agresivas sin que los menores dejen de poder coordinar partidas o charlar con amigos.

Para parte de la comunidad jugadora, en cambio, la idea de que una IA reescriba en tiempo real lo que uno escribe puede generar recelos. Aunque el sistema preserve la intención general, no deja de ser una alteración del mensaje original. Ese matiz puede chocar con la sensación de libertad de expresión que muchos usuarios asocian a los espacios de juego online, incluso cuando aceptan que hay normas básicas de convivencia.

Roblox intenta mitigar esa percepción con dos decisiones clave: por un lado, avisar en el propio chat cuando un mensaje ha sido reformulado; por otro, mantener un marco de sanciones independiente para casos graves, en los que la reescritura no es suficiente. El mensaje implícito es que la IA no pretende «poner palabras en boca de nadie», sino sustituir términos concretos que chocan con el código de conducta.

Este enfoque encaja con una tendencia más amplia en el sector tecnológico: pasar de sistemas de moderación puramente reactivos (bloquear o borrar) a otros más proactivos y generativos, que intentan encauzar las interacciones de forma menos disruptiva. En vez de cortar la conversación, se reformula. En vez de lanzar al usuario contra un muro de “mensaje bloqueado”, se le muestra una versión aceptable de lo que quería decir.

En el día a día de los jugadores, sobre todo los más jóvenes, esto se traducirá en chats más legibles, con menos interrupciones y menos cadenas de símbolos. Pero también obligará a convivir con un sistema que, de manera visible, «corrige» la manera de hablar. En última instancia, será el uso continuado el que marque si la comunidad lo percibe como una ayuda razonable o como una intromisión excesiva.

  Preocupaciones internas por Siri en iOS 26.4: rendimiento bajo la lupa

Implicaciones para otras plataformas y para el ecosistema europeo

Aunque el movimiento nace en una plataforma global con sede en Estados Unidos, las implicaciones alcanzan de lleno a desarrolladores y empresas de juegos y apps sociales en Europa. La normativa comunitaria, con el Reglamento de Servicios Digitales (DSA) a la cabeza, empuja a las grandes plataformas a reforzar sus mecanismos de moderación, especialmente cuando hay menores de por medio.

Roblox se convierte así en un caso práctico de cómo se puede utilizar la IA generativa para cumplir con mayores exigencias de seguridad sin sacrificar totalmente la experiencia de usuario. Para estudios europeos que desarrollan mundos virtuales, experiencias sociales o juegos con chat integrado, este tipo de aproximación puede acabar marcando el estándar: menos filtros «a martillazos» y más sistemas que entiendan contexto y reescriban sobre la marcha.

El despliegue del sistema demuestra, además, que la moderación automatizada ya no es exclusiva de gigantes con recursos ilimitados. Modelos de lenguaje accesibles vía API -de proveedores comerciales o de código abierto- permiten replicar lógicas similares sin necesidad de construir toda la pila tecnológica desde cero. El reto no es solo técnico, sino de diseño: decidir qué se reescribe, cómo se informa al usuario y qué se deja en manos de la intervención humana.

En el caso europeo, hay un elemento adicional: la sensibilidad regulatoria respecto al tratamiento de datos personales y a la transparencia de los algoritmos. Cualquier despliegue de moderación basada en IA debe tener en cuenta obligaciones como informar claramente de su existencia, permitir cierto grado de recurso ante decisiones automatizadas y minimizar la recolección de datos innecesarios.

Roblox, al hacer visible la reformulación dentro del chat y al enmarcarla como una herramienta de civismo más que como un sistema opaco de censura, envía una señal de por dónde puede ir la industria en los próximos años. No está claro todavía si otros grandes títulos multijugador o redes sociales adoptarán exactamente el mismo enfoque, pero la presión para combinar seguridad, cumplimiento normativo y experiencia fluida va en aumento.

Con todo este movimiento, la plataforma muestra que la inteligencia artificial puede utilizarse no solo para crear contenido o personajes dentro de los juegos, sino también para moderar y moldear la interacción entre personas en tiempo real. La apuesta no está exenta de polémica, pero ilustra bien el punto en el que se encuentran hoy las comunidades digitales: mantenerlas vivas y participativas, a la vez que se levantan más barreras frente al abuso, la desinformación y los riesgos para menores.

Lo que está ocurriendo con Roblox sirve, en definitiva, como termómetro de una transición más amplia: la moderación deja de ser un freno visible y pasa a operar en segundo plano, reescribiendo, corrigiendo y guiando el lenguaje para que el juego y la conversación sigan su curso, pero dentro de unos límites que cada vez se vigilan con más lupa desde reguladores, familias y usuarios.

IA resume mensajes en WhatsApp
Artículo relacionado:
La inteligencia artificial llega a WhatsApp: la función que resume mensajes en varios chats