Nuevo ChatGPT Salud (2026): dilemas éticos y legales

Dr.José Antonio Trujillo Ruiz.
Vicepresidente del Colegio de Médicos de Málaga.
Experto en IA en Medicina

El anuncio de OpenAI de ChatGPT Health (ChatGPT Salud 2026) ha despertado entusiasmo y, a la vez, una inquietud legítima. Se presenta como un “copiloto” sanitario: un espacio dentro de ChatGPT en el que el usuario puede conectar datos de bienestar —por ejemplo, Apple Health o MyFitnessPal— y, en determinados casos, también sus registros médicos, para entender analíticas, preparar una cita o seguir patrones de hábitos. Bajo el atractivo discurso del empoderamiento ciudadano y la asistencia médica, se esconde una estrategia empresarial audaz que nos obliga a analizar los fundamentos éticos y legales de esta nueva frontera digital.

La IA avanzada no se sostiene solo con prestigio técnico, necesita la adopción masiva. Los modelos a gran escala cuestan mucho de entrenar y, sobre todo, de servir a millones de personas. Por eso la salud es un territorio tentador: es universal, recurrente y emocional. OpenAI afirma que, cada semana, más de 230 millones de personas plantean preguntas de salud y bienestar en ChatGPT.

Convertir ese uso espontáneo en un producto “especializado” es una evolución natural, pero también una decisión empresarial con enorme impacto social.

El riesgo no está en que el paciente quiera comprender su informe o llegar más preparado. Eso puede mejorar la comunicación clínica. El riesgo está en el desplazamiento del centro de gravedad: cuando la narrativa del paciente se cocina primero en una interfaz que ordena síntomas, sugiere hipótesis y propone preguntas “inteligentes”, la relación médico-paciente cambia. El profesional deja de explorar un relato para negociar un guion ya consolidado que trae el paciente.

Y, en medicina, un guion convincente puede ser tan peligroso como un error serio si genera falsa tranquilidad, sobrediagnóstico o retrasos en acudir a consulta.

Aquí entra el sesgo de autoridad. Tendemos a conceder credibilidad extra a lo que suena experto, coherente y “científico”. En salud, además, la ansiedad reduce el contraste: quien tiene miedo compra certezas. Un modelo generativo puede equivocarse con prosa impecable y esa mezcla —error más elegancia— es especialmente tóxica cuando se transforma en “consejo”. Por eso no basta con la advertencia de “no sustituye a su médico”. Si la herramienta interpreta resultados, delimita “siguientes pasos” o prioriza riesgos, ya está influyendo en conductas, incluso cuando se presenta como mera orientación.

A este sesgo se suma la economía. El sector tecnológico debate modelos de monetización más allá de la suscripción, y OpenAI ha impulsado experiencias de comercio dentro de ChatGPT. Podemos recordar lo que ocurrió con las redes sociales y su modelo de vigilancia publicitaria en el que la recolección masiva, análisis y monetización de datos personales de los usuarios son parte importante de su actual modelo de negocio. En ese contexto, la pregunta incómoda es inevitable: ¿qué ocurre si la lógica de recomendación se mezcla con incentivos económicos en un espacio de salud? No hace falta imaginar un banner. Bastaría con que determinadas opciones —una prueba, una clínica, un seguro, un fármaco, un suplemento— aparezcan como “recomendadas” para que la frontera entre consejo y negocio se vuelva peligrosa, especialmente cuando el usuario cree estar recibiendo una guía neutral.

Hay, además, un dato revelador: el acceso inicial a ChatGPT Health se limita, de entrada, a usuarios fuera de la Unión Europea, Suiza y Reino Unido. No es casualidad. Europa tiene el RGPD y un AI Act que ya ha activado obligaciones para los grandes modelos. La salud, además, está atravesada por normativa sanitaria y por una sensibilidad social distinta sobre el dato personal. Esa exclusión inicial reconoce una dificultad regulatoria y, al mismo tiempo, un aviso de la presión que vendrá cuando se pretenda escalar a mercados con mayores garantías.

OpenAI afirma que Health opera como un espacio separado, con protecciones reforzadas, y que esas conversaciones no se usan para entrenar sus modelos fundacionales. También mantiene políticas en las que el chat se elimina de la vista de forma inmediata y la supresión en sistemas puede completarse en un plazo máximo de 30 días, con excepciones por obligaciones legales o de seguridad. Son medidas relevantes, pero no sustituyen lo esencial: gobernanza verificable. ¿Qué se guarda exactamente? ¿Qué terceros intervienen cuando se conectan registros médicos? ¿Con qué granularidad puede el ciudadano ver, revocar y auditar lo que comparte? Europa ha aprendido, por experiencia, que “cumplimos” no siempre equivale a “protegemos”, y en salud la ambigüedad se paga cara.

La medicina no es solo técnica, es una práctica informada por la ética. El consentimiento informado exige comprensión. Un médico puede errar, pero debe poder razonar, justificar y corregir. Un modelo generativo puede acertar sin comprender y fallar con una seguridad aparente que inhibe la duda del usuario.

Añadamos que protocolos, accesos a fármacos y circuitos asistenciales varían entre países; una recomendación optimizada para un contexto puede desajustarse en otro. Y, cuando ocurra un daño, aparecerá el vacío clásico: ¿quién responde, el profesional, el hospital o el proveedor tecnológico?

No se trata de demonizar el desarrollo de la IA en salud. Se trata de impedir que la salud sea el laboratorio de un nuevo capitalismo de la persuasión. Si estas herramientas van a desplegarse en Europa, necesitamos condiciones irrenunciables: separación real de datos, auditorías independientes, evaluación de sesgos, supervisión humana operativa y prohibición —o, como mínimo, etiquetado inequívoco— de cualquier contenido patrocinado o con conflicto de interés. La tecnología puede ayudarnos a cuidarnos mejor, pero solo si el bienestar del paciente se coloca por delante del modelo de negocio.

Publicaciones Similares