Nuevas gafas de Apple: así será la próxima revolución en tu cara

Última actualización: marzo 24, 2026
  • Apple prepara unas gafas inteligentes tipo Apple Glass, ligeras y conectadas al iPhone, para competir con las Ray‑Ban Meta y llevar la computación espacial al día a día.
  • La primera generación se centrará en cámaras, audio e IA sin pantalla integrada, con fuerte dependencia de Siri y Apple Intelligence, y un precio estimado entre 400 y 600 euros.
  • En paralelo, Apple sigue evolucionando Vision Pro con chips M5, mejor pantalla y más autonomía, usando este visor como banco de pruebas para tecnologías que llegarán a las gafas ligeras.
  • La estrategia global busca combinar visores de alta gama y gafas discretas, apoyándose en privacidad avanzada y en la integración con todo el ecosistema Apple.

Nuevas gafas de Apple

Las nuevas gafas de Apple apuntan a ser el próximo gran salto después del iPhone, el Apple Watch y el propio Apple Vision Pro. Entre rumores cada vez más concretos, informes de analistas y los movimientos de la competencia, todo indica que en Cupertino están acelerando a fondo para entrar en la carrera de las gafas inteligentes con un producto que combine moda, inteligencia artificial y realidad aumentada paso a paso.

Mientras las Apple Vision Pro marcan el camino de la llamada «computación espacial», Apple trabaja en paralelo en dos frentes: por un lado, versiones mejoradas de su ordenador espacial con chips más potentes y mejor batería; por otro, unas gafas ligeras tipo Ray‑Ban Meta, conocidas internamente como proyecto N50 o popularmente como Apple Glass, pensadas para llevar todo el día y convertirlas en un accesorio tan habitual como unas gafas de ver o de sol.

Apple Glass: las gafas inteligentes con las que Apple quiere conquistar el día a día

Gafas inteligentes de Apple

Los informes más recientes apuntan a que Apple está desarrollando sus primeras gafas inteligentes “de calle”, diferentes de un visor voluminoso tipo casco como el Vision Pro. La idea es sencilla de decir, pero compleja de ejecutar: unas gafas que parezcan normales, con monturas discretas y ligeras, pero que integren cámaras, micrófonos, altavoces e IA para acompañarnos todo el día sin llamar demasiado la atención.

El objetivo declarado es competir de tú a tú con las Ray‑Ban Meta, que han demostrado que hay un mercado real para unas gafas con cámara, asistentes de voz y funciones inteligentes, incluso sin llegar todavía a la realidad aumentada completa. Apple quiere su propia versión de este concepto, pero muy integrada en su ecosistema y con un enfoque extremo en privacidad y diseño.

Lo más llamativo es que, según varias filtraciones, Apple habría congelado temporalmente el desarrollo de un visor “Vision Air” más ligero y barato que el Vision Pro, para reasignar ingenieros y recursos a estas gafas inteligentes. Eso deja muy claro qué producto se considera más estratégico a corto plazo dentro de la compañía.

Diversas fuentes sitúan una posible presentación inicial este mismo año, seguida de un lanzamiento comercial más amplio en torno a 2027. Sería un movimiento muy similar a lo que ocurrió con el Apple Watch: primero se muestra el concepto, se seduce a los desarrolladores y al público, y meses después llega a las tiendas.

Diseño y hardware: moda, tecnología y muchas cámaras en una montura muy fina

Diseño de las nuevas gafas de Apple

Si el Apple Watch dejó algo claro es que un dispositivo que llevas encima todo el día no puede ser solo un cacharro tecnológico: tiene que funcionar como accesorio de moda. Con las futuras Apple Glass ocurrirá lo mismo. Apple estaría preparando distintos diseños de monturas, con versiones en metal y en plásticos de alta calidad, varios colores, tamaños y formas para encajar tanto en un entorno informal como en uno más profesional.

El reto técnico es tremendo: en una montura fina hay que encajar batería, procesador, cámaras, sensores, micrófonos y altavoces, pero sin que el peso y el grosor resulten incómodos. Para lograrlo, Apple estaría experimentando con técnicas de fabricación como la impresión 3D, que permitirían adaptar mejor las monturas y ofrecer cierto nivel de personalización sin disparar los costes de producción.

En cuanto al motor interno, los rumores apuntan a un chip personalizado basado en la arquitectura del Apple Watch. Es decir, un procesador muy eficiente en consumo, lo bastante capaz como para gestionar sensores, cámaras y tareas básicas de IA, pero delegando el trabajo pesado en el iPhone conectado, tal y como ocurrió en los primeros años del reloj de Apple.

Todo indica que habrá versiones con lentes estándar y de sol, y que se ofrecerá compatibilidad con lentes graduadas mediante un sistema similar al usado con ZEISS en el Vision Pro. En dispositivos con cámara, Apple es muy sensible a la privacidad, por lo que las gafas integrarían un LED visible que indique claramente cuando se está grabando o haciendo fotos, algo que ya se ve también en las Ray‑Ban Meta.

En el apartado sonoro, se espera la inclusión de altavoces integrados en las patillas que proyecten el sonido hacia el oído del usuario sin necesidad de auriculares clásicos. No sería un audio totalmente privado, pero sí lo bastante direccional como para poder escuchar música, podcasts o llamadas sin molestar demasiado a quien tengas al lado.

Funciones clave: fotografía, IA, traducción, navegación y mucho Siri

Funciones inteligentes de las gafas de Apple

Apple suele estrenar nuevas categorías de producto con un conjunto de funciones más limitado pero muy pulido, y después ir ampliando capacidades con nuevas generaciones. Todo indica que con las Apple Glass seguirá la misma receta: menos “magia” en la primera versión, pero bien resuelta.

  La Fiscalía francesa investiga Siri de Apple por posible uso ilícito de datos

Uno de los pilares será la captura de fotos y vídeo, probablemente con la opción de grabar también vídeo espacial al estilo Vision Pro. El control sería principalmente táctil, con gestos sencillos en la patilla (un toque para foto, una pulsación prolongada para vídeo, etc.), combinados con órdenes de voz mediante Siri para manos libres.

El segundo gran punto fuerte será el audio integrado. Poder escuchar música, podcasts o audiolibros directamente desde las gafas, además de hacer y recibir llamadas sin sacar el iPhone, convierte el dispositivo en algo muy práctico para el día a día. Aquí la experiencia acumulada con los AirPods jugará claramente a favor.

La navegación asistida también tiene mucho potencial: Siri podría ir dando indicaciones de giro por audio mientras caminas o conduces, sin necesidad de mirar el móvil. Ya no sería imprescindible consultar el mapa cada dos pasos; bastaría con dejar que la voz del asistente te guíe con instrucciones contextuales.

Otra función muy potente sería la llamada Visual Intelligence, una especie de evolución de lo que hoy ya hace el iPhone cuando apuntas la cámara a una planta, un monumento o un objeto y te da información relevante. Con las gafas, esa IA podría reconocer en tiempo real animales, edificios, productos, carteles o menús, y responder preguntas sobre lo que estás viendo, enriqueciéndolo todo con la nueva plataforma de Apple Intelligence.

La traducción de conversaciones en tiempo real es otra característica largamente deseada. Imagina escuchar a alguien hablar en otro idioma y recibir en tus gafas la interpretación al vuelo, tanto por audio como, en futuras versiones con pantalla, quizá también con texto superpuesto. Apple ya está avanzando en traducciones en vivo con los AirPods y llevar eso a unas gafas sería el siguiente paso lógico.

También habría soporte para mensajería básica y notificaciones. Podrías dictar un mensaje, escuchar los últimos avisos de iMessage, WhatsApp o similares, y responder con la voz. Nada de revisar hilos completos de chats en una pantalla inexistente, pero sí gestionar lo más importante sin tocar el teléfono.

Por último, la integración con el ecosistema Apple será fundamental: localización a través de la app Buscar, controles de reproducción en Apple Music, quizá disparo remoto de la cámara del iPhone, automatizaciones con Atajos… todo con la idea de que las gafas se conviertan en una especie de “capa inteligente” siempre presente sobre el resto de tus dispositivos.

Dependencia del iPhone y ausencia de pantalla en la primera generación

Una de las claves de estas primeras gafas es que, según las filtraciones, no incluirán pantalla integrada. Es decir, nada de ver notificaciones flotando delante de los ojos ni interfaces de realidad aumentada completas en esta primera hornada. Se centrarán en cámaras, audio e IA, apoyándose en la conexión con el iPhone para casi todo.

Ese enfoque tiene varias ventajas: al delegar el procesamiento pesado de Apple Intelligence, música y apps en el iPhone, las gafas pueden ser más ligeras, con una batería más pequeña pero con buena autonomía, y con un precio de entrada más razonable. Es exactamente lo que ocurrió con el Apple Watch, que durante años dependió muchísimo del iPhone antes de ir ganando independencia.

En el horizonte se perfila ya una segunda versión con pantalla incorporada, capaz de mostrar información superpuesta sobre el entorno: flechas de navegación, subtítulos, datos contextuales, etc. En un principio, Apple habría fijado 2028 como ventana para este modelo con display, pero el anuncio de las Ray‑Ban Display de Meta habría empujado a la compañía a intentar adelantar plazos para no quedarse atrás en la carrera de la realidad aumentada más pura.

En cuanto al precio, los analistas apuestan por un rango de entre 400 y 600 euros. Las Ray‑Ban Meta arrancan alrededor de los 319 euros, y Apple tendrá que moverse en una franja similar si quiere llegar al gran público, alejándose de los precios estratosféricos del Vision Pro. Si se mantiene por debajo de los 500 euros, podría convertirse en un producto masivo, más cercano a unos AirPods Pro o un Apple Watch que a un dispositivo de nicho.

En lo relativo al calendario, figuras como Mark Gurman (Bloomberg) o Ming‑Chi Kuo sitúan el lanzamiento comercial en 2027, con un posible anuncio previo cuando Apple tenga algo lo bastante sólido como para mostrarlo, quizá en una WWDC futura al estilo clásico “One more thing”. No sería raro ver un adelanto conceptual uno o dos años antes de que lleguen a las tiendas.

Siri y Apple Intelligence: el cerebro real de las nuevas gafas

En un dispositivo sin pantalla, la voz es el protagonista absoluto. Por eso, Siri tendrá un papel central en las gafas de Apple. No vale el asistente actual, que a veces entiende y a veces no; aquí hace falta algo mucho más fino, capaz de mantener conversaciones naturales, entender el contexto y encadenar acciones complejas, más cercano a un modelo tipo ChatGPT que al Siri que conocemos hoy.

Apple está reconstruyendo Siri desde cero sobre grandes modelos de lenguaje, con la nueva plataforma Apple Intelligence como base. Las previsiones apuntan a que esa nueva generación de Siri llegará con una versión futura de iOS (los rumores hablan de iOS 27 para la experiencia más completa), y las gafas se beneficiarían directamente de esa evolución.

  LaLiga quiere que las VPN también bloqueen IPs: el bloqueo se le va de las manos

Con las cámaras como ojos y los micrófonos como oídos, Siri debería ser capaz de interpretar lo que ves y oyes: reconocer objetos, traducir carteles, entender conversaciones en otro idioma, recordar detalles que le hayas comentado (“acuérdate de que este restaurante me gustó”), ayudarte con tareas paso a paso o guiarte en rutas andando sin que tengas que tocar nada.

Además, la idea es que Apple Intelligence procese la mayor parte de los datos en el propio dispositivo o, cuando sea necesario ir a la nube, lo haga de forma privada y anonimizada, en línea con la filosofía de la empresa. Eso es especialmente importante cuando hablamos de gafas con cámaras siempre encima: Apple sabe que cualquier desliz en privacidad sería un desastre.

Sin esta nueva versión de Siri y sin una IA realmente competente, las gafas se quedarían en un mero juguete con cámara. La prioridad que Tim Cook estaría dando internamente al proyecto encaja precisamente con la necesidad de alinear hardware, software y servicios de IA para que el resultado tenga sentido y no parezca una demo a medio cocinar.

Apple Vision Pro: la otra pata de la apuesta espacial de Apple

Mientras las Apple Glass apuntan al uso diario ligero, Apple sigue refinando su ordenador espacial Apple Vision Pro, que marcó un antes y un después cuando se presentó oficialmente en junio de 2023 como la primera computadora espacial de la compañía. Vision Pro fusiona contenido digital y mundo físico, con una interfaz tridimensional gestionada con los ojos, las manos y la voz, sobre el sistema operativo visionOS, el primer sistema operativo espacial de Apple.

El casco cuenta con un sistema de ultra alta definición con 23 millones de píxeles en dos pantallas micro‑OLED, catadióptricos especiales y un audio espacial de primer nivel. Puede mostrar múltiples apps flotando alrededor del usuario, actuar como una pantalla 4K gigante para el Mac, ofrecer experiencias de cine personal con una pantalla virtual de unos 30 metros, reproducir vídeos inmersivos de 180 grados y permitir juegos y entornos interactivos donde todo el espacio se convierte en interfaz.

Vision Pro también inauguró funciones como las Personas, avatares realistas generados con aprendizaje automático para videollamadas en FaceTime, la cámara 3D para capturar fotos y vídeos espaciales, y los entornos inmersivos que amplían el lugar donde estás con paisajes dinámicos para concentrarte o aislarte de distracciones.

En 2025, Apple ha anunciado una nueva iteración de Vision Pro con chip M5, heredado de los MacBook Pro y de los iPad Pro más recientes. Este nuevo SoC sustituye al M2 de la primera generación y permite elevar la tasa de refresco de las pantallas hasta 120 Hz (frente a los 100 Hz anteriores) y mejorar la eficiencia energética: la autonomía pasa aproximadamente de dos a dos horas y media de uso general, y de unas dos horas y media a tres horas en reproducción de vídeo, gracias al menor consumo del chip.

El M5 también aporta un plus de potencia para renderizar hasta un 10% más de píxeles y acelerar tareas de IA, como la creación de Personas o la conversión de fotos 2D en fotos espaciales, que ahora puede ser hasta un 50% más rápida según datos de Apple. Es decir, no solo hay más músculo gráfico, sino también mejoras concretas en las funciones que dependen de la inteligencia artificial.

Otra novedad curiosa es la Dual Knit Band, una nueva cinta de sujeción para la cabeza que mezcla conceptos de la Dual Loop Band y la Solo Knit de la generación anterior. Está pensada para ofrecer un ajuste más cómodo y estable, y se vende por separado por 99 dólares, compatible tanto con las Vision Pro originales como con el nuevo modelo con M5.

Aun así, la propia Apple es consciente de que el verdadero cuello de botella no es el hardware, sino el contenido. Vision Pro sigue siendo un dispositivo espectacular pero de nicho: muy caro y con un catálogo de aplicaciones y experiencias inmersivas todavía limitado. Hay demos impresionantes de deportes, conciertos o vídeos inmersivos, pero el ritmo de nuevas producciones no es tan alto como muchos entusiastas desearían.

En cuanto a disponibilidad y precios, las Vision Pro con M5 se pueden reservar ya con un precio de partida de 3.499 dólares en Estados Unidos (3.699 euros en países como Francia o Alemania). Su lanzamiento en tiendas está fijado para el 22 de octubre en mercados como Australia, Canadá, Francia, Alemania, Hong Kong, Japón, Emiratos Árabes, Reino Unido y Estados Unidos, mientras que países como España siguen todavía sin fecha oficial.

visionOS, diseño y privacidad: la base sobre la que se construye todo

Vision Pro funciona sobre visionOS, el primer sistema operativo espacial de Apple, creado a partir de décadas de trabajo en macOS, iOS y iPadOS, pero rediseñado para cumplir los requisitos de baja latencia que exige la computación espacial. Su interfaz tridimensional responde a la luz ambiente y proyecta sombras, ayudando a percibir mejor escalas y distancias, y se maneja simplemente mirando, juntando los dedos o hablando.

  El Samsung Galaxy S26+ promete revolucionar la fotografía móvil con una cámara mejorada

En el plano del diseño, Apple ha recurrido a materiales avanzados y una ingeniería muy cuidada. La parte frontal está formada por una pieza de vidrio laminado y tridimensional que actúa como lente para la multitud de cámaras y sensores, unida a un marco de aleación de aluminio que se adapta al contorno de la cara. Un sistema modular de almohadillas y correas textiles tridimensionales permite ajustar el visor con comodidad y ventilación, pensando en quienes lo llevan durante largos periodos.

En hardware, Vision Pro integra un sistema de audio espacial avanzado, con dos controladores amplificados individualmente cerca de las orejas que generan un campo sonoro adaptado a la geometría de la cabeza del usuario. Para quienes necesitan corrección visual, se ofrecen insertos ópticos ZEISS que garantizan una visión nítida y un seguimiento ocular preciso.

El seguimiento ocular recurre a cámaras de alta velocidad y un anillo de LED infrarrojos que proyectan patrones invisibles sobre los ojos. Este sistema alimenta un chip específico, el R1, encargado de procesar los datos de 12 cámaras, cinco sensores y seis micrófonos para que el contenido responda en unos 12 milisegundos, unas ocho veces más rápido que un parpadeo. Junto al chip M2 o M5 (según generación), forman un conjunto capaz de ofrecer un rendimiento impresionante en un formato portátil.

La función EyeSight es otro elemento diferenciador: cuando alguien se acerca a un usuario con Vision Pro, la parte frontal muestra una representación de sus ojos y se hace algo “transparente”, ayudando a mantener el contacto visual y indicando a los demás si el usuario está disponible o muy concentrado en un entorno inmersivo.

En privacidad, Apple ha puesto especial cuidado: el sistema Optic ID autentica al usuario analizando su iris mediante luces LED invisibles, almacenando los datos cifrados en el Secure Enclave del dispositivo. La información biométrica no sale del visor, no se sube a los servidores de Apple ni se comparte con apps de terceros. Además, los datos de seguimiento ocular se procesan de forma interna y no se exponen a apps ni sitios web. Cuando se hace una foto o un vídeo espacial, EyeSight muestra un indicador claro para que quienes estén cerca sepan que se está grabando.

Con esta base de hardware, software y diseño, Vision Pro se convierte en el laboratorio donde Apple prueba las tecnologías que, más adelante, pueden destilarse y llegar a productos más ligeros como las futuras Apple Glass. De ahí que, aunque sean caras y de nicho, jueguen un papel estratégico en la hoja de ruta de la compañía.

Competencia, estrategia y por qué Apple pisa el acelerador

El sector de las gafas inteligentes y la realidad aumentada está a punto de explotar, y Apple no quiere repetir la jugada de llegar tarde en una categoría clave. Las Ray‑Ban Meta han demostrado que, con el equilibrio adecuado entre diseño y funciones claras (hacer fotos, escuchar música, usar un asistente para preguntar qué estás viendo), hay un público dispuesto a pagar por este tipo de producto.

A Meta se suman otros gigantes como Xiaomi o Samsung, que ya han enseñado o están desarrollando sus propias gafas inteligentes. Si a eso le añadimos que Meta trabaja abiertamente en gafas AR más avanzadas y que sus modelos actuales ya integran funciones de IA y cámara, el mensaje es evidente: quien quiera dominar esta categoría tiene que moverse ya.

Según fuentes internas citadas por Gurman, Tim Cook ha convertido las gafas de realidad aumentada ligeras en una prioridad personal. Su “gran visión” desde hace años es lograr unas gafas que puedas llevar todo el día, con una capa de información superpuesta al mundo real. Vision Pro sería un peldaño en esa escalera, mientras que las Apple Glass sin pantalla serían un puente intermedio, una especie de versión “light” centrada en cámaras e IA mientras maduran las tecnologías de pantallas y baterías.

Como parte de esa estrategia, también se contemplan soluciones transitorias: por ejemplo, añadir cámaras con IA al Apple Watch y a los AirPods en los próximos años. La idea es ir extendiendo la computación espacial y el reconocimiento de entorno a distintos dispositivos, sin depender solo del visor de alta gama.

Todo este movimiento apunta a un futuro en el que el usuario pueda elegir: un casco inmersivo de alta gama (Vision Pro y sucesores) para trabajo, ocio y experiencias de cine en casa, y unas gafas ligeras tipo Apple Glass para el día a día, siempre conectadas, que conviertan la realidad en algo un poco más inteligente sin dejar de parecer unas gafas normales.

Visto el panorama, las nuevas gafas de Apple se colocan en el centro de una apuesta de largo recorrido: por un lado, consolidan la idea de computación espacial iniciada con Vision Pro; por otro, abren una puerta a un producto masivo, con precio más accesible, diseño discreto y funciones muy prácticas que mezclan fotografía, IA, traducción, navegación y un Siri mucho más capaz. Si Apple consigue cuadrar ese círculo —y respetar al máximo la privacidad— es muy probable que estas gafas acaben siendo el próximo dispositivo que veamos por la calle con la misma naturalidad con la que hoy vemos unos AirPods o un Apple Watch.

actualidad sobre la realidad virtual
Artículo relacionado:
Actualidad sobre la realidad virtual y la realidad aumentada