🩺 ¿Deberías fiarte de ChatGPT Salud? Un informe cuestiona su fiabilidad
Sin embargo, un informe reciente publicado por The Washington Post advierte que las evaluaciones generadas por esta herramienta pueden ser poco fiables y potencialmente alarmistas.
📊 El caso que encendió las alertas
Durante una prueba realizada por el periodista Geoffrey A. Fowler, ChatGPT Salud accedió a sus datos de bienestar procedentes de un Apple Watch y calificó su salud cardiaca con una nota “F”.
No obstante, al contrastar esta evaluación con un cardiólogo, el diagnóstico profesional fue claro:
👉 el riesgo real de enfermedad cardíaca era extremadamente bajo.
El problema no estuvo en los datos médicos clínicos, sino en la interpretación automática de métricas estimadas por el reloj inteligente.
⚠️ El problema de las métricas estimadas
Según el informe, ChatGPT Salud basó su evaluación principalmente en dos indicadores:
-
VO₂ máx (volumen máximo de oxígeno)
-
Variabilidad de la frecuencia cardiaca
El inconveniente es que estas métricas, cuando son estimadas por dispositivos de consumo como el Apple Watch, tienden a subestimar el estado real de la salud, especialmente en personas sanas.
Como resultado, el sistema de IA interpretó valores normales como señales de alto riesgo.
🧠 Opinión médica: “no está preparado para asesorar”
El cardiólogo Eric Topol, del Scripps Research Institute, fue contundente al respecto:
ChatGPT Salud no está preparado para ofrecer asesoramiento médico, ya que se apoya en métricas poco fiables y carece de contexto clínico real.
Esta opinión refuerza una advertencia clave: la IA no reemplaza el juicio médico profesional, especialmente cuando trabaja con datos incompletos o estimados.
📌 Qué dice OpenAI sobre ChatGPT Salud
Desde su lanzamiento, OpenAI ha insistido en que ChatGPT Salud:
-
❌ No diagnostica enfermedades
-
❌ No sustituye a médicos ni personal sanitario
-
✅ Ayuda a interpretar informes, preparar consultas y resolver dudas generales
La empresa afirma haber trabajado durante más de dos años con 260 profesionales de la salud de 60 países, pero reconoce que la herramienta solo ofrece contexto general, no diagnósticos clínicos.
🧩 El riesgo real: falsas alarmas y confianza excesiva
Este caso ilustra un riesgo creciente en la salud digital:
-
Usuarios que confían demasiado en evaluaciones automatizadas
-
Interpretaciones erróneas de datos no clínicos
-
Ansiedad innecesaria por resultados mal contextualizados
La IA puede ser una herramienta de apoyo, pero no un árbitro de la salud personal.
❓ Preguntas frecuentes (FAQ)
¿ChatGPT Salud puede diagnosticar enfermedades?
No. OpenAI aclara que no está diseñado para diagnosticar ni tratar patologías.
¿Es peligroso usar ChatGPT Salud?
No necesariamente, pero sus resultados deben tomarse como orientación general, no como diagnóstico.
¿Los datos del Apple Watch son clínicamente fiables?
Son útiles como referencia, pero no sustituyen pruebas médicas profesionales.
¿Debe usarse ChatGPT Salud antes de ir al médico?
Puede ayudar a preparar preguntas, pero nunca a tomar decisiones médicas.
📢 Para más análisis claros y críticos sobre inteligencia artificial, salud y tecnología, visita
👉 https://fernandojuca.com
🎥 y el canal de YouTube https://youtube.com/fernandojucamaldonado




