🚸 Google Gemini “Teen” bajo la lupa: estudio alerta de riesgos para menores

📢 El informe de Common Sense Media

La organización sin ánimo de lucro Common Sense Media, especializada en seguridad infantil, publicó un estudio contundente: los menores de 18 años no deberían usar Google Gemini, ni siquiera en su versión “Teen”.

👉 Según el análisis, Gemini trata a los adolescentes igual que a los adultos, ignorando sus necesidades de orientación y protección.


⚠️ Riesgos detectados: contenido sensible y apoyo emocional inseguro

Los investigadores comprobaron que Gemini puede:

  • Proporcionar información inapropiada sobre sexo, drogas y alcohol.

  • Dar consejos de salud mental poco fiables, sin identificar señales graves de deterioro psicológico.

  • Fallar en conversaciones largas o sutiles, típicas en interacciones adolescentes.

📌 Conclusión: los adolescentes corren el riesgo de recibir respuestas engañosas o dañinas que padres y educadores difícilmente pueden detectar a tiempo.


🧒 Recomendaciones por edades

El informe establece pautas claras de uso de chatbots de IA:

  • Menores de 5 años: no deberían usarlos bajo ningún concepto.

  • Niños de 6 a 12 años: solo con supervisión adulta.

  • Adolescentes de 13 a 17 años: uso limitado a tareas escolares o proyectos creativos, nunca como acompañamiento emocional ni en temas de salud mental.


🏢 La respuesta de Google

Tras la polémica, Google declaró a TechCrunch que:

  • Ya existen políticas de seguridad específicas para menores.

  • Trabajan con expertos externos para reforzar protecciones.

  • Algunas respuestas de Gemini “no funcionaron como estaba previsto”, por lo que han añadido nuevas salvaguardas.

  • Además, criticaron que el informe habría probado funciones no disponibles para menores y sin detallar las preguntas exactas usadas en el estudio.


🌍 Un debate global sobre IA y jóvenes

El caso de Gemini se suma a un debate internacional sobre el impacto de los chatbots en menores.

  • OpenAI endureció la seguridad de ChatGPT tras la demanda de los padres de un adolescente que se suicidó, alegando que la IA influyó en su estado mental.

  • Se implementaron bloqueos de contenido, derivaciones a servicios de ayuda y salvaguardas adicionales.

👉 El dilema: cómo lograr que la IA sea útil y segura para los jóvenes, sin convertirse en una amenaza invisible para su bienestar.


El estudio de Common Sense Media expone un problema urgente: la IA generativa no está lista para reemplazar el acompañamiento humano en la vida de los menores.

Google asegura estar reforzando las medidas, pero la pregunta clave persiste: ¿podrá la inteligencia artificial adaptarse a las necesidades de niños y adolescentes sin poner en riesgo su desarrollo emocional y su seguridad?

Previous Post
Next Post