🔍 Alcance del estudio
La investigación fue desarrollada por la UER junto con la BBC y 22 medios públicos de 18 países, en 14 idiomas. Los expertos analizaron más de 300 000 respuestas generadas por los principales asistentes de IA al responder sobre contenidos noticiosos. ComplexDiscovery+2screenvoice.cz+2
Se evaluaron cuatro criterios fundamentales:
-
Precisión de los hechos.
-
Referencias a fuentes originales.
-
Contextualización adecuada.
-
Distinción entre hechos verificables y opiniones.
El hallazgo clave: el 45 % de las respuestas contenían al menos un problema significativo. Reuters+2screenvoice.cz+2
🧮 Principales errores detectados
-
En el 31 % de las respuestas se identificaron fallos de atribución: referencias nulas, engañosas o incorrectas. screenvoice.cz+1
-
En el 20 % de los casos se presentaron datos obsoletos o “alucinaciones” generadas por la IA. screenvoice.cz+1
-
El peor desempeño correspondió a Google Gemini, con una tasa de error del 76 %, más del doble que el resto de herramientas evaluadas. screenvoice.cz+1
⚠️ Implicaciones para el periodismo y la confianza pública
“Estas deficiencias no son incidentes aislados. Son sistémicas, transfronterizas y multilingües… cuando la gente no sabe en qué confiar, termina por no confiar en nada, y eso puede frenar la participación democrática.” — Jean Philip De Tender, director de medios de la UER. screenvoice.cz+1
El estudio alerta de que los asistentes de IA están siendo usados como fuentes de noticias—especialmente entre audiencias jóvenes (hasta un 15 % entre menores de 25 años) según el informe del Reuters Institute. Reuters+1
Esto abre un dilema: la eficiencia de la IA en generación de contenidos frente al riesgo de desinformación y deterioro de la credibilidad.
✅ Recomendaciones para usuarios y creadores
-
No asumir que un asistente de IA ofrece información verificada: siempre contrastar con fuentes primarias.
-
Exigir que los desarrolladores de IA mejoren la transparencia de sus fuentes y mecanismos de verificación.
-
Promover la alfabetización mediática y digital, enseñando a usuarios a identificar errores, sesgos o carencias de contexto.
-
Las organizaciones periodísticas y tecnológicas deben colaborar para establecer estándares y supervisión independiente de respuestas generadas por IA.
🧭
La investigación deja claro que los asistentes de IA destinados a informar no están todavía preparados para sustituir la supervisión humana. Aunque representan avances tecnológicos relevantes, sus fallos sistemáticos comprometen la confianza pública y la integridad del periodismo.
El futuro del contenido generativo por IA dependerá tanto de la capacidad técnica como de la responsabilidad institucional y ética profesional que lo respalde.




