Riesgos de Usar Inteligencia Artificial en Historiales Médicos

El avance de la inteligencia artificial (IA) ha transformado muchos aspectos de nuestra vida cotidiana, y el campo de la medicina no es la excepción. Sin embargo, la implementación de IA en el tratamiento y análisis de historiales médicos ha generado preocupación entre expertos. En un reciente estudio titulado “Los grandes modelos lingüísticos y la degradación del historial clínico”, tres académicos han expuesto los riesgos potenciales de aplicar herramientas como ChatGPT en los registros médicos. ¿Realmente estamos listos para confiar en la IA para gestionar información tan sensible y compleja?

En este artículo, exploraremos los argumentos de los científicos sobre por qué el uso de IA en los historiales médicos puede ser peligroso, y analizaremos los posibles impactos de esta tecnología en el ámbito de la salud.

Podcast:

¿Qué Riesgos Plantea el Uso de IA en los Historiales Médicos?

1. Falta de Precisión y Alucinaciones en los Modelos de IA

Uno de los problemas más importantes de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) como ChatGPT es su tendencia a «alucinar». En el contexto de la IA, esto significa que el modelo puede generar información falsa o inexacta que suena plausible. Liam McCoy, uno de los autores del estudio, expresa su preocupación sobre cómo estas alucinaciones podrían afectar la precisión de los historiales médicos, arriesgando que se registre información incorrecta que confunda a los médicos en lugar de ayudarlos.

“Incluso si se resuelven las alucinaciones, existe el riesgo de que la IA genere un historial médico con menos detalles importantes, llevando a una degradación de la calidad de la información almacenada”, comenta McCoy.

2. Simplificación Excesiva de los Cuadros Clínicos

Otro riesgo señalado es que las IA, en su afán de simplificar la información, podrían resumir en exceso los cuadros clínicos de los pacientes. Esto resulta problemático, ya que la práctica médica depende de un análisis exhaustivo de muchos detalles específicos de cada caso. Al confiar en una IA para resumir o interpretar estos datos, se corre el riesgo de que detalles críticos se pierdan, afectando negativamente el diagnóstico y tratamiento.

La simplificación podría llevar a que la IA generalice casos complejos, eliminando información que podría ser clave en el diagnóstico y manejo de condiciones médicas inusuales o atípicas.

3. Posible Introducción de Sesgos en los Diagnósticos

Los modelos de IA suelen funcionar mediante probabilidades, lo que significa que tienden a «promediar» sus respuestas. En el caso de los historiales médicos, esto podría implicar que la IA generalice ciertos diagnósticos o síntomas, dejando de lado casos menos comunes o particulares. McCoy advierte que este sesgo hacia la «media» podría entorpecer la identificación de casos que no encajan en el perfil promedio de un diagnóstico, llevando a errores clínicos.

“La IA podría no capturar correctamente la diversidad de variables en cada paciente, lo cual es esencial en medicina, especialmente en casos especiales o complejos”, añade McCoy.

4. Impacto Negativo en el Comportamiento de los Médicos

Para los profesionales de la salud, revisar y redactar notas en los historiales clínicos es una tarea fundamental que influye en su práctica y en el seguimiento de los pacientes. El uso de IA para esta tarea podría disminuir la implicación de los médicos en la documentación clínica, lo que podría llevar a una dependencia excesiva de la tecnología. Como señala McCoy, «delegar esta parte de nuestra cognición a las IA sin pruebas suficientes de su eficacia puede tener un impacto negativo en la calidad de atención».

La IA y la Burocracia en la Documentación Médica

Algunos profesionales de la salud han expresado que la IA podría ser útil para gestionar tareas burocráticas dentro de la documentación médica, pero que no es adecuada para asesorar directamente a los médicos en el diagnóstico o tratamiento de los pacientes. En respuesta al estudio, el hematólogo David Steensma sugiere que podría implementarse un sistema paralelo: uno con los datos necesarios para la facturación y otro simplificado y relevante para la atención clínica.

Esta propuesta apunta a separar el “ruido” que suele añadirse a los historiales médicos con fines administrativos, de la información verdaderamente relevante para la práctica médica. Sin embargo, esto también supone desafíos de implementación, ya que requeriría un sistema que distinga eficazmente entre ambas fuentes de datos.

¿Cuál es el Futuro de la IA en los Registros Médicos?

A pesar de sus limitaciones actuales, la IA tiene el potencial de aportar grandes beneficios al sector de la salud. Herramientas como ChatGPT pueden procesar grandes volúmenes de datos en poco tiempo, lo que en teoría podría ayudar a los médicos a encontrar patrones en los historiales clínicos o a acceder rápidamente a información relevante.

No obstante, como señala McCoy, “necesitamos más y mejor ciencia que explore el impacto de los LLM en los registros médicos antes de correr el riesgo de causar un daño irreparable a nuestro recurso de datos más importante”. Es fundamental que el uso de IA en medicina esté respaldado por pruebas sólidas y que se realicen pruebas exhaustivas antes de su implementación en situaciones críticas.

FAQ sobre el Uso de IA en Historiales Médicos

1. ¿Cuáles son los riesgos principales de usar IA en historiales médicos?
Los principales riesgos son la posibilidad de errores debido a «alucinaciones» de la IA, la simplificación excesiva de los cuadros clínicos y la introducción de sesgos en los diagnósticos.

2. ¿Puede la IA reemplazar a los médicos en la documentación clínica?
No, actualmente la IA no está preparada para reemplazar a los médicos en la revisión y redacción de historiales clínicos. Los expertos creen que podría ser útil en tareas administrativas, pero no en la toma de decisiones clínicas.

3. ¿La IA es útil para analizar datos médicos?
Sí, la IA tiene potencial para analizar grandes volúmenes de datos y ayudar a identificar patrones. Sin embargo, aún se necesitan más pruebas para garantizar que pueda realizar estas tareas con precisión y sin comprometer la calidad de los datos.

4. ¿Qué es una «alucinación» en el contexto de la IA?
Una alucinación es cuando la IA genera información falsa o incorrecta que parece creíble. Esto es particularmente peligroso en medicina, donde la precisión es crítica.

5. ¿Cómo pueden los hospitales implementar la IA de forma segura?
La implementación segura de la IA en hospitales requeriría de pruebas exhaustivas, supervisión constante y un enfoque en tareas administrativas antes que en la toma de decisiones clínicas.


La inteligencia artificial es una tecnología prometedora que, sin duda, revolucionará muchas áreas de nuestra vida, incluida la medicina. Sin embargo, su aplicación en la documentación de historiales médicos presenta riesgos importantes que no deben pasarse por alto. Aunque los avances en IA están ocurriendo rápidamente, los expertos aconsejan cautela y una implementación gradual y controlada en el ámbito de la salud.

La conclusión es clara: la IA puede ser un gran aliado en el futuro de la medicina, pero actualmente no es una herramienta lo suficientemente madura para manejar el delicado equilibrio entre precisión y complejidad que requieren los historiales médicos.

Para más contenido sobre IA y salud, visita fernandojuca.com y suscríbete a mi canal de YouTube. ¡Nos vemos en el próximo artículo!

Previous Post
Next Post