Bixonimanía: el falso trastorno que expuso una falla grave en la IA
La bixonimanía no existe, pero logró algo inquietante: poner en evidencia que varios sistemas de inteligencia artificial pueden aceptar, repetir y amplificar información falsa con apariencia científica. El caso abre una discusión urgente sobre salud, educación superior, verificación y uso responsable de modelos generativos.
🩺 ¿Es fiable ChatGPT Salud? Un informe pone en duda sus resultados
ChatGPT Salud promete ayudar a interpretar datos médicos, pero un informe advierte que sus evaluaciones pueden ser inexactas y generar falsas alarmas.
🧠 Un hombre sufrió psicosis tras seguir un consejo dietético de IA: el caso que alerta a médicos
Un hombre sufrió intoxicación con bromuro y psicosis después de seguir un consejo nutricional dado por ChatGPT. El caso revela los riesgos de usar inteligencia artificial sin orientación médica.