- Discord activará por defecto una experiencia pensada para adolescentes en todas las cuentas del mundo a partir de marzo
- Para acceder a contenido y servidores con restricción de edad será obligatorio verificar la mayoría de edad con selfie en vídeo o documento de identidad
- Los datos de verificación se procesarán en el dispositivo o se borrarán tras el chequeo, aunque pesan los antecedentes de filtraciones
- Las nuevas normas se alinean con el endurecimiento regulatorio en Europa y otros países sobre protección de menores en redes sociales
Discord se prepara para uno de los cambios más profundos en la historia de la plataforma. La compañía dejará de tratar a todos sus usuarios como anónimos de facto y pasará a exigir pruebas de edad para quienes quieran moverse sin límites por la aplicación.
A partir de principios de marzo, todas las cuentas, tanto nuevas como ya existentes, tendrán activada por defecto una experiencia adaptada a adolescentes. Solo quienes acrediten que son adultos mediante un escaneo facial o el envío de un documento de identidad podrán desactivar filtros, entrar en servidores con restricción de edad o modificar determinados ajustes de privacidad y comunicación.
Qué va a cambiar en Discord a partir de marzo
La medida afectará a los más de 200 millones de usuarios activos mensuales que, según la propia compañía, utilizan Discord en todo el mundo para chatear, organizar partidas, estudiar o trabajar. Hasta ahora, bastaba con ajustar algunas opciones internas para acceder a contenido restringido, pero el nuevo sistema convierte la verificación de edad en un peaje obligatorio para disfrutar de todas las funciones.
Según ha explicado Discord, el objetivo es ofrecer una “experiencia más segura e inclusiva” para mayores de 13 años, al tiempo que se levanta un muro más alto alrededor de menores y adolescentes. En la práctica, esto significa que cualquier cuenta sin verificar será tratada como si perteneciera a una persona joven, con una batería de limitaciones activadas de serie.
La responsable de política de producto de la plataforma, Savannah Badalich, ha subrayado que el trabajo en materia de seguridad es “más importante que nunca cuando se trata de usuarios adolescentes” y que estas nuevas configuraciones llegan coincidiendo con el Día de Internet Segura. Desde la compañía sostienen que se trata de reforzar la protección de los menores sin expulsar a los adultos, a los que se ofrece un proceso de verificación para recuperar control total sobre su cuenta.
El despliegue será global y gradual, pero la empresa ya ha dejado claro que se aplicará tanto a quienes se registren por primera vez como a quienes llevan años usando la app. No habrá excepciones geográficas: la experiencia adaptada a adolescentes será el punto de partida en Europa, España y el resto de regiones donde Discord opera.

Cómo funcionará la verificación: escaneo facial o documento oficial
Para demostrar que son mayores de edad, los usuarios tendrán dos vías principales de verificación. La primera opción será completar un selfie en vídeo o un escaneo facial rápido desde el propio dispositivo. Un modelo de inteligencia artificial estimará la edad a partir de esa grabación corta, sin necesidad de introducir la fecha de nacimiento exacta.
Discord insiste en que esos vídeos para estimar la edad no saldrán del dispositivo: se procesarán localmente y no se almacenarán en servidores externos, ni propios ni de proveedores. La empresa recalca que no guardará información biométrica y que del proceso solo resultará una categoría de edad para adaptar la experiencia de uso.
La segunda opción será subir una fotografía de un documento oficial de identidad —como DNI, pasaporte o carné equivalente en cada país—. En este caso, la verificación se realiza a través de socios externos especializados, que validan la autenticidad del documento y confirman si el usuario es o no mayor de edad.
Según Discord, las imágenes de documentos se eliminarán rápidamente una vez comprobada la edad, “en la mayoría de los casos, inmediatamente después” de la confirmación. El estado de verificación no será visible para otros usuarios y, en principio, solo habrá que pasar por el proceso una vez, salvo que se recurra una decisión o se detecte algún problema.
La compañía también ha avanzado que, si en un caso concreto no se puede concluir la edad con garantías, podrá solicitar el uso combinado de los dos métodos (selfie en vídeo y documento) para terminar de resolver la duda. El resultado final será la asignación de un grupo de edad, que el usuario podrá consultar desde la sección “Mi cuenta” y, si no está de acuerdo, apelar repitiendo el procedimiento.
Restricciones para quienes no verifiquen su edad
Quien decida no pasar por la verificación podrá seguir usando Discord, pero lo hará bajo un perfil con ajustes reforzados, pensado para adolescentes. La aplicación seguirá funcionando para chatear, participar en servidores generales y usar la mayoría de herramientas básicas, pero buena parte de las funciones avanzadas quedará fuera de su alcance.
En primer lugar, los filtros de contenido sensible permanecerán siempre activados y no habrá forma de desactivarlos sin demostrar que se es adulto. Todo lo que se marque como contenido potencialmente delicado aparecerá difuminado o desenfocado, y no se podrá cambiar ese comportamiento desde la configuración.
Además, el acceso a los espacios con restricción de edad —servidores, canales y ciertos comandos de aplicaciones marcados como +18 o similares— quedará bloqueado para quienes no estén verificados como adultos. Aunque el usuario ya formara parte de esos servidores, perderá la posibilidad de ver mensajes, escribir o usar el chat de voz en esos canales restringidos.
También habrá cambios en la gestión de mensajes directos. Los DM de personas que el usuario podría no conocer se enviarán por defecto a una bandeja separada, y únicamente los adultos verificados podrán modificar ese ajuste para recibirlos directamente en la bandeja principal. Del mismo modo, aparecerán avisos adicionales en las solicitudes de amistad procedentes de cuentas desconocidas.
Otro punto clave es la moderación de los escenarios (Stage channels). Discord ha confirmado que solo los adultos verificados podrán hablar en el escenario de los servidores. Los perfiles con experiencia adolescente podrán escuchar, pero no intervenir mediante voz en este tipo de espacios públicos o semipúblicos.
Modelos automáticos para inferir la edad en segundo plano
Más allá de la verificación explícita con documento o selfie, la empresa está desplegando un modelo de inferencia de edad que funciona en segundo plano. Este sistema analiza el comportamiento de las cuentas para estimar si pertenecen a un adulto, incluso sin que el usuario haya iniciado activamente el proceso de verificación.
Discord no ha detallado qué señales exactas se tienen en cuenta —tipo de actividad, horarios, interacción con determinados contenidos, historiales de participación, etc.— ni ha facilitado cifras sobre la tasa de acierto o el margen de error del modelo. Esta opacidad deja abiertas dudas sobre posibles falsos positivos o negativos.
En la práctica, este sistema automático podría servir para reducir el número de verificaciones manuales, evitando pedir documentos a cuentagotas cuando el comportamiento de la cuenta encaja de forma clara con el de un adulto. Al mismo tiempo, abre la puerta a que ciertos perfiles queden marcados como sospechosos y se les impongan limitaciones adicionales o se les pida confirmar su edad de forma más estricta.
Si un usuario considera que se le ha asignado un grupo de edad incorrecto —por ejemplo, si se le trata como adolescente cuando es mayor de edad— tendrá a su disposición un mecanismo de apelación. Eso sí, recurrir la decisión implica repetir el proceso de verificación, con el envío de nuevas pruebas.
Antecedentes de seguridad y dudas sobre la privacidad
El anuncio de estas medidas llega con un precedente incómodo sobre la mesa. En octubre de 2025, Discord confirmó que un ataque a uno de sus proveedores externos de atención al cliente había permitido a ciberdelincuentes acceder a datos sensibles.
Entre la información comprometida se encontraban fotografías de documentos de identidad de aproximadamente 70.000 usuarios, enviadas en su momento para recurrir decisiones de verificación de edad. Los atacantes aseguraron haber robado datos de más de dos millones de cuentas, aunque la plataforma nunca ha reconocido una cifra tan alta.
Tras ese incidente, la empresa afirma haber cambiado de proveedor y revisado a fondo su política de verificación. Ahora recalca que los vídeos para identificar la edad facial se procesan directamente en el dispositivo y que los documentos se eliminan, en la mayoría de los casos, justo después de confirmar la edad. Además, subraya que el estado de verificación no es visible para otros usuarios, de modo que nadie puede ver si otra cuenta ha pasado o no el proceso.
Pese a estas garantías, buena parte de la comunidad sigue mostrando preocupación por la privacidad y el posible uso indebido de datos, especialmente en contextos de apelación o revisión manual, donde a menudo se pide subir imágenes del documento junto a notas escritas a mano con el nombre de usuario. La filtración de 2025 sigue muy presente en la memoria de quienes se plantean ahora si compensa facilitar a la plataforma más información personal.
Experiencias piloto en Reino Unido y Australia
Antes de dar el salto al resto del mundo, Discord ya había puesto en marcha este sistema en Reino Unido y Australia. En el caso británico, el despliegue vino impulsado por la Online Safety Act, la ley de seguridad en línea que exige a las grandes plataformas controles más estrictos para proteger a menores frente a contenidos dañinos.
En estos países se probó tanto el modelo de verificación en dos vías (selfie o documento) como las configuraciones predeterminadas para adolescentes. La compañía asegura que la experiencia durante estas pruebas ha servido para pulir el sistema y reducir fricciones, aunque no ha publicado cifras detalladas sobre el número de verificaciones realizadas o las incidencias registradas.
Tras esos ensayos, la empresa ha decidido extender el modelo al resto de territorios donde está presente, incluida la Unión Europea. Para los usuarios españoles o de otros países europeos, esto supone que los controles de edad dejarán de ser algo excepcional y pasarán a formar parte del funcionamiento normal de la plataforma.
Un Consejo Adolescente para decidir sobre seguridad
Como parte del paquete de cambios, Discord también ha anunciado la creación de su primer Consejo Adolescente. Se trata de un grupo asesor formado por entre 10 y 12 jóvenes de entre 13 y 17 años que colaborará en el diseño y revisión de las funciones de seguridad.
La idea de fondo es que las protecciones no se definan únicamente desde una óptica adulta o corporativa, sino que tengan en cuenta cómo usan realmente la plataforma los adolescentes, qué les preocupa y qué tipo de herramientas consideran útiles para sentirse seguros.
La compañía ha habilitado formularios de solicitud para quienes quieran participar en este consejo, con un plazo limitado para enviar candidaturas. Aunque es una iniciativa simbólica en términos de número de participantes, sirve a Discord para reforzar su narrativa de escucha activa hacia menores y familias en un momento en el que el escrutinio público es especialmente intenso.
Restricciones y enfoque en España y la Unión Europea
El endurecimiento de los requisitos de Discord encaja con una tendencia regulatoria cada vez más estricta en Europa respecto al uso de redes sociales por menores y con movimientos de plataformas como TikTok en Europa. En el plano comunitario, el Parlamento Europeo aprobó en noviembre un informe —no vinculante— que propone fijar en 16 años la edad mínima para usar redes sociales en toda la UE, con la posibilidad de acceder desde los 13 si hay consentimiento de los padres.
Algunos países ya han ido por delante. Francia ha aprobado una ley que prohíbe el uso de redes sociales a menores de 15 años, salvo autorización expresa de sus progenitores o tutores. En España, el Gobierno ha anunciado planes para elevar la edad mínima de acceso a redes sociales a los 16 años, con diferentes fórmulas sobre la mesa para aplicar sistemas de verificación efectivos que no vulneren en exceso la privacidad.
En este contexto, que Discord se adelante e imponga su propio mecanismo de verificación coloca a la plataforma en una posición más cómoda ante futuros cambios normativos. De facto, la empresa se alinea con el espíritu de las nuevas reglas europeas, que reclaman controles más sólidos sobre quién accede a qué tipo de contenido.
Para los usuarios españoles y europeos, esto se traducirá en una experiencia más parecida a la de otros servicios digitales que ya han empezado a exigir pruebas de edad para acceder a material adulto o sensible. La diferencia es que, en este caso, el cambio no se limita a un tipo concreto de web, sino a una herramienta de comunicación de uso masivo en entornos educativos, de ocio y profesionales.
Una tendencia global: otras plataformas también piden la cara o el DNI
El movimiento de Discord no se produce en el vacío. En los últimos años, varias grandes plataformas han iniciado su propia transición hacia modelos menos anónimos y más controlados por edad. El caso de Roblox es uno de los más citados: la plataforma de juegos sociales exige ya escaneos faciales para acceder a su chat de voz en todo el mundo, después de un despliegue inicial en países como Australia, Nueva Zelanda y Países Bajos.
Redes como Instagram y TikTok han endurecido sus configuraciones por defecto para adolescentes, estableciendo cuentas privadas de forma automática, limitando el tiempo de pantalla y reduciendo o bloqueando notificaciones nocturnas. Meta, por su parte, aplica configuraciones restrictivas para usuarios menores de 16 años tanto en Instagram como en Facebook.
Incluso propuestas más recientes como BlueSky, nacida como alternativa a X (antes Twitter), han experimentado en algunos estados de Estados Unidos con verificaciones faciales o mediante tarjeta de crédito para autenticar la edad de sus miembros. En paralelo, en medio mundo se han aprobado leyes que obligan a acreditar la mayoría de edad para acceder a webs pornográficas u otros contenidos especialmente delicados.
En este panorama, la decisión de Discord solo refuerza la sensación de que el anonimato total en internet es cada vez más excepcional. La combinación de presión política, temor social a los riesgos para menores y la propia necesidad de las plataformas de evitar sanciones está empujando hacia un modelo en el que enseñar la cara o el documento de identidad empieza a ser una condición casi inevitable para moverse sin cortapisas.
El nuevo sistema de Discord, con su mezcla de escaneos faciales, subida de documentos y modelos automáticos que inferen la edad, marca el inicio de una etapa en la que quienes quieran seguir utilizando la plataforma sin barreras tendrán que aceptar un intercambio más explícito entre privacidad y acceso. Los adolescentes ganarán protecciones adicionales, los adultos verificados conservarán más libertad de configuración y las autoridades, tanto en España como en el resto de Europa, verán cómo una de las grandes aplicaciones sociales se adapta por adelantado al clima regulatorio que se está imponiendo. Para los usuarios, la decisión de pasar o no por el proceso de verificación se convertirá en un paso obligado a la hora de valorar qué precio están dispuestos a pagar por permanecer en sus servidores y canales habituales.

