OpenAI presenta ChatGPT Salud, el nuevo espacio de IA para consultas de salud y bienestar

Última actualización: enero 10, 2026
  • ChatGPT Salud crea un espacio privado y cifrado para tratar temas médicos sin sustituir al personal sanitario
  • Permite conectar historiales clínicos y apps de bienestar como Apple Health, Function o MyFitnessPal
  • Más de 230 millones de personas realizan consultas semanales de salud a ChatGPT, lo que impulsa este lanzamiento
  • La llegada plena a España y la UE está condicionada por el RGPD, la Ley de IA europea y el encaje regulatorio en sanidad

ChatGPT Salud inteligencia artificial y salud

La inteligencia artificial se ha colado de lleno en las conversaciones sobre salud. Cada semana, centenares de millones de usuarios acuden a ChatGPT para preguntar por síntomas, informes, dietas o rutinas de ejercicio, hasta el punto de que la propia OpenAI reconoce que la salud es ya uno de los asuntos más frecuentes en su asistente.

En este contexto, la compañía ha dado un paso más y ha presentado ChatGPT Salud (ChatGPT Health), una nueva experiencia específica para salud y bienestar que funciona como un espacio separado dentro del chatbot. La idea es que el usuario pueda integrar, de forma más protegida, sus datos médicos y de bienestar con la IA para obtener respuestas adaptadas a su situación, sin que ello convierta a la herramienta en un médico ni en un sistema de diagnóstico.

Qué es y para qué sirve ChatGPT Salud

Interfaz de ChatGPT Salud

OpenAI describe ChatGPT Salud como una experiencia diferenciada dentro del asistente, centrada en salud y bienestar, con su propia pestaña, historial independiente y reglas de tratamiento de datos más estrictas. No es un producto aislado, sino una sección dentro de ChatGPT a la que se accede desde la interfaz habitual, pero con un entorno de conversación y almacenamiento separado.

Según los datos de la compañía, más de 230 millones de personas hacen preguntas sobre salud y bienestar cada semana en ChatGPT. Hasta ahora, esas charlas quedaban mezcladas con el resto del historial. Con el nuevo espacio, OpenAI pretende que esas consultas se gestionen en un entorno más controlado, en el que la información sensible quede encapsulada y no se mezcle con otros usos del asistente.

La herramienta se plantea como un apoyo para el usuario en tareas cotidianas: interpretar resultados de pruebas, entender mejor informes médicos, preparar visitas al médico, seguir recomendaciones de estilo de vida o aclarar dudas sobre coberturas de seguros. OpenAI insiste en que no está diseñada para hacer diagnósticos ni para sustituir a profesionales sanitarios, sino para aportar contexto, explicaciones y organización de la información que ya tiene la persona.

La compañía recalca que ChatGPT Salud busca que la gente pueda implicarse de manera más activa en el cuidado de su salud, identificando patrones a lo largo del tiempo y llegando a la consulta médica con más claridad sobre lo que quiere preguntar, pero sin desplazar el papel del médico ni del sistema sanitario.

Cómo funciona la nueva pestaña de salud

En la práctica, ChatGPT Salud se presenta como una pestaña específica dentro del asistente, con su propio historial de conversación, cifrado reforzado y políticas particulares para los datos de salud. Desde esa sección, el usuario puede mantener chats muy similares a los del ChatGPT convencional, pero apoyados en información personal de salud que él mismo decide compartir.

La plataforma permite conectar datos médicos personales de dos formas principales: importando documentación clínica (por ejemplo, informes, analíticas o resúmenes de historia clínica electrónica) o enlazando aplicaciones de bienestar compatibles. Entre las apps que cita OpenAI se encuentran Apple Health, Function, MyFitnessPal o Peloton, lo que permite combinar registros de actividad física, alimentación o sueño con el resto de la información de salud del usuario.

  La música de cámara toma protagonismo: citas clave en España

Una vez concedidos los permisos, la persona puede subir directamente archivos desde la pestaña de Salud, conectar servicios desde el apartado de herramientas o gestionar integraciones desde el menú de aplicaciones en la configuración. A partir de ahí, las respuestas del asistente se construyen teniendo en cuenta esos datos, de modo que se pueden plantear preguntas del tipo: “¿Puedes resumir mis últimos análisis de sangre antes de la cita?” o “¿Cómo ha variado mi colesterol en los últimos meses?”.

En ChatGPT Salud siguen disponibles funciones habituales como búsqueda, dictado, modo de voz, investigación avanzada o subida de fotos y documentos, pero siempre dentro de ese contenedor específico. Además, la herramienta admite instrucciones personalizadas solo para esta pestaña, por ejemplo para indicar qué temas priorizar, qué asuntos prefiere el usuario evitar o cómo quiere que se estructuren las respuestas.

Este comportamiento configurable permite ajustar el tono y el nivel de detalle, algo relevante cuando se tratan contenidos potencialmente delicados, como salud mental, enfermedades crónicas o pruebas invasivas. Las instrucciones pueden cambiarse o eliminarse en cualquier momento y solo afectan a las conversaciones de la sección de Salud.

Desarrollo con profesionales sanitarios y marco de evaluación

Para intentar reducir riesgos, OpenAI afirma haber trabajado durante más de dos años con más de 260 profesionales de la salud, procedentes de 60 países y numerosas especialidades. Este grupo habría revisado respuestas del modelo en cientos de miles de ocasiones, aportando comentarios sobre precisión, claridad, tono y posibles peligros.

La compañía sostiene que los expertos han ayudado a definir no solo qué puede hacer ChatGPT Salud, sino también cómo debe responder: cuándo es prioritario recomendar que el usuario contacte con un profesional, en qué casos debe mostrarse especial cautela, cómo explicar conceptos complejos sin caer en simplificaciones que lleven a malentendidos o cómo tratar temas especialmente sensibles.

Como parte de este proceso, OpenAI dice haber creado un sistema propio de medición llamado HealthBench, un marco de evaluación orientado a valorar la precisión, la utilidad clínica y la claridad de las respuestas en escenarios relacionados con la salud. La idea es disponer de criterios internos para evaluar si la herramienta se comporta de forma suficientemente segura antes de ampliar su despliegue.

Aun así, diversos especialistas en bioinformática, ética y derecho tecnológico han advertido de que los modelos de lenguaje siguen siendo probabilísticos: generan respuestas plausibles, pero no garantizan que sean correctas. En el ámbito sanitario, esto puede traducirse en omisiones de recomendaciones importantes o interpretaciones inadecuadas, algo que investigaciones académicas ya han puesto de manifiesto en otros sistemas generativos aplicados a medicina.

Expertos consultados por medios europeos señalan que, aunque la herramienta se presente como apoyo y no como sistema de diagnóstico, en la práctica muchos usuarios tenderán a interpretarla como una fuente de consejo médico, lo que obliga a considerar de forma muy cuidadosa avisos, límites y mensajes de seguridad.

Privacidad, protección de datos y debates éticos

La gestión de la información médica es uno de los puntos más delicados del lanzamiento. OpenAI asegura que ChatGPT Salud se ejecuta en un entorno aislado, con capas adicionales de cifrado y medidas específicas de seguridad. Las conversaciones de salud se guardan por separado del resto de chats y no se utilizan para entrenar los modelos principales de la compañía.

  La Agencia Estatal de Salud Pública, clave para la salud colectiva

La empresa recalca que solo se tratan datos que el usuario decide aportar de forma voluntaria, tanto si proceden de documentos clínicos como si llegan desde apps de bienestar. También señala que las aplicaciones que se integran en la sección de Salud deben cumplir requisitos estrictos de privacidad y seguridad, recoger solo la información mínima necesaria y superar revisiones adicionales antes de estar disponibles.

Sin embargo, en Europa varios especialistas en protección de datos han manifestado dudas sobre el encaje de este tipo de servicios con el Reglamento General de Protección de Datos (RGPD) y con la Ley de IA de la Unión Europea. Los datos de salud están catalogados como especialmente sensibles y la normativa considera los sistemas de IA aplicados a sanidad como de alto riesgo, lo que implica obligaciones reforzadas.

Juristas y delegados de protección de datos han advertido de posibles problemas como el uso de la información para perfilados por parte de terceros, por ejemplo aseguradoras, o la dificultad de comprobar que un usuario tiene realmente el consentimiento necesario cuando aporta historiales clínicos de familiares. Algunos expertos llegan a calificar la cesión masiva de datos sanitarios a plataformas privadas como un «atentado contra la privacidad» si no se acompaña de garantías robustas.

A todo ello se suma el riesgo de brechas de seguridad. Casos recientes de ciberataques a empresas del ámbito genético y sanitario, que han terminado con datos sensibles filtrados, sirven de recordatorio de que ningún sistema está completamente a salvo. Varios analistas consideran que es cuestión de tiempo que un servicio masivo de este tipo sufra incidentes, por lo que la arquitectura de seguridad y la respuesta ante fallos serán clave.

Impacto en el sistema sanitario y riesgos clínicos

El movimiento de OpenAI se enmarca en una apuesta más amplia por el sector salud, donde la compañía también ha anunciado productos destinados directamente a organizaciones sanitarias y entornos clínicos. La empresa ve una oportunidad en problemas como el acceso desigual a la atención, la saturación de consultas o los costes crecientes, especialmente en países como Estados Unidos.

Algunos investigadores señalan que herramientas como ChatGPT Salud pueden ayudar a las personas a prepararse mejor para sus citas, a seguir recomendaciones generales de bienestar o a entender documentos complejos, lo que podría reducir cierta carga en el día a día de médicos de atención primaria o especialistas.

Sin embargo, también alertan de que los errores y sesgos de los modelos de lenguaje pueden tener consecuencias especialmente graves en este campo. Se han documentado casos en los que sistemas generativos omiten advertencias importantes o proponen interpretaciones que podrían llevar a retrasar una consulta urgente. Investigaciones de universidades de referencia han detectado que estos modelos fallan en un porcentaje nada despreciable de situaciones clínicas críticas.

Profesionales de la bioinformática y la medicina recuerdan que los modelos generativos no comprenden realmente la verdad clínica, sino que se basan en patrones estadísticos del lenguaje. Eso hace que sigan siendo propensos a las “alucinaciones”, es decir, a producir respuestas seguras en la forma, pero incorrectas en el fondo. En salud, advierten, esto puede llegar a costar vidas o generar conflictos entre pacientes y médicos.

  Todo sobre la esperada película spin-off de Sonic

Desde algunos centros de investigación europeos se aboga por desarrollar sistemas de IA más estructurados y verificables integrados en los hospitales —por ejemplo, para clasificar llamadas de urgencia o ayudar a interpretar pruebas bajo supervisión médica— en lugar de confiar la relación directa con el paciente a chatbots generalistas gestionados por empresas privadas.

Disponibilidad, lista de espera y situación en España y la Unión Europea

OpenAI ha comenzado a desplegar ChatGPT Salud de forma progresiva, con un grupo reducido de usuarios tempranos. El objetivo es recabar comentarios y pulir el servicio antes de abrirlo al público general. Las personas interesadas pueden apuntarse a una lista de espera, aunque el acceso está siendo, por ahora, bastante limitado.

La compañía ha avanzado que su intención es llevar esta experiencia a todos los usuarios de la web y de la aplicación para iOS en las próximas semanas, empezando por los mercados donde considera que el marco regulatorio y las integraciones son más viables. Se menciona que hay ya ensayos en Estados Unidos y en algunos países de la Unión Europea, aunque sin un calendario detallado para cada Estado miembro.

En el caso concreto de España, la información disponible apunta a un escenario todavía en movimiento. Algunas comunicaciones de OpenAI apuntan a que el servicio podría estar disponible en el mercado español en un plazo relativamente corto, mientras que otras fuentes señalan que la versión completa de ChatGPT Salud no se ofrecerá de inicio en la UE hasta que quede claro que cumple a rajatabla el RGPD y la normativa europea de IA.

En todo caso, la propia empresa reconoce que la integración profunda con sistemas de salud locales en Europa está condicionada por las reglas comunitarias y por las estrategias nacionales de salud digital. En el caso español, la coordinación con el Sistema Nacional de Salud y con las autoridades de protección de datos será determinante para ver hasta qué punto la herramienta puede conectarse con historiales clínicos electrónicos o con plataformas públicas.

Mientras se aclaran esos detalles, OpenAI está habilitando interfaces y respuestas en español dentro de ChatGPT Salud, de forma que los usuarios hispanohablantes que tengan acceso al servicio puedan interactuar en su idioma, aunque la disponibilidad formal en España y el resto de Europa siga su propio ritmo regulatorio.

El desembarco de ChatGPT Salud muestra hasta qué punto la frontera entre las consultas cotidianas a la IA y el terreno sanitario se está difuminando. La herramienta aspira a ofrecer un espacio más protegido para hablar de salud, con historia clínica conectada y apoyo en la interpretación de informes, pero también abre debates de calado sobre privacidad, regulación, sesgos y responsabilidad en caso de errores. Para los usuarios europeos y españoles, el interés práctico vendrá marcado no solo por las capacidades técnicas del sistema, sino por cómo encaje en el marco legal de la UE y qué garantías reales se ofrezcan sobre el uso y la protección de unos datos tan sensibles como los médicos.

Salud mental en el trabajo
Artículo relacionado:
Salud mental en el trabajo: retos, tendencias y respuestas de empresas y administraciones