🧠 Un hombre sufrió psicosis tras seguir un consejo dietético de IA: el caso que alerta a médicos

🚨 Un consejo de ChatGPT terminó en hospitalización psiquiátrica

El caso registrado por médicos de la Universidad de Washington parece sacado de un episodio de Black Mirror: un hombre desarrolló psicosis por intoxicación con bromuro luego de seguir una recomendación dietética proporcionada por inteligencia artificial.

El hecho fue documentado en la revista Annals of Internal Medicine: Clinical Cases, y se trataría del primer caso conocido en el que una intoxicación por bromuro fue causada directamente por el uso de IA generativa.


📉 ¿Qué fue lo que ocurrió?

Según el reporte clínico, el paciente llegó a urgencias convencido de que su vecino lo estaba envenenando. Mostraba signos de paranoia, alucinaciones y desconfianza incluso al beber agua. Fue internado por hospitalización psiquiátrica involuntaria y diagnosticado con intoxicación neuropsiquiátrica por bromuro.

Una vez estabilizado, relató que durante tres meses había estado ingiriendo bromuro de sodio comprado por internet. ¿Por qué? Porque ChatGPT le habría dicho que podía reemplazar el cloruro (de la sal común) por bromuro.


🤖 ¿La IA tuvo la culpa?

Los médicos intentaron replicar su consulta con versiones de ChatGPT y comprobaron que, al preguntar cómo sustituir el cloruro, el modelo sí mencionaba el bromuro, aunque sin advertencias claras ni preguntas de contexto.

Aunque es probable que la IA se refiriera a usos no dietarios del bromuro, no advirtió sobre sus riesgos tóxicos ni preguntó para qué lo necesitaba el usuario. La ausencia de filtros contextuales puede derivar en situaciones peligrosas cuando se interpreta como asesoramiento médico.


🧪 ¿Qué es el bromuro y por qué es peligroso?

Característica Información relevante
Uso histórico Se utilizaba en el siglo XX para tratar ansiedad e insomnio
Estado actual Retirado del uso médico humano por ser tóxico en altas dosis
Riesgos Alucinaciones, psicosis, convulsiones, daño neurológico
Presencia hoy Común en medicamentos veterinarios y suplementos no regulados

⚠️ Una advertencia para el futuro de la IA

Este caso real es una señal de alarma para el uso de herramientas de IA como ChatGPT en contextos médicos o de salud personal:

  • La IA no sustituye a un profesional.

  • Las respuestas pueden parecer convincentes, pero carecen de contexto clínico.

  • Puede sugerir opciones peligrosas si se interpreta literalmente.

Los médicos que atendieron el caso afirman que este tipo de herramientas pueden ser valiosas para comunicar ciencia, pero también tienen el riesgo de promulgar información incorrecta sin advertencias adecuadas.


💬 La tecnología no reemplaza al juicio humano

Aunque ChatGPT y otros sistemas de IA pueden ser útiles para explorar ideas o responder dudas generales, las decisiones relacionadas con la salud deben pasar por profesionales capacitados.

Este caso nos recuerda que, aunque la IA avance con rapidez, nada reemplaza el valor de una conversación humana honesta, informada y empática.

#chatgpt #inteligenciaartificial #saludmental #psicosis #toxicidadbromuro #erroresIA #iaresponsable #consejosIA #salud #medicinaytecnología

Previous Post
Next Post