🧠 Más que productividad: ¿nos estamos encariñando con la IA?
Hoy usamos ChatGPT para escribir correos, resolver tareas, programar código o resumir textos… pero cada vez más personas lo usan también como compañía emocional.
OpenAI y el MIT Media Lab lo notaron y decidieron investigar qué pasa cuando usamos ChatGPT como un “amigo virtual”. Lo que encontraron es tan interesante como inquietante: aunque el chatbot no tiene emociones reales, puede provocar respuestas emocionales auténticas en nosotros.
📊 ¿Qué investigaron OpenAI y el MIT?
El estudio se basó en dos partes:
-
Análisis de 40 millones de interacciones reales con ChatGPT.
-
Un experimento con casi 1.000 personas, que chatearon al menos 5 minutos por día con ChatGPT durante 4 semanas.
Al final, los participantes completaron cuestionarios sobre:
-
Su nivel de soledad.
-
Su conexión emocional con el bot.
-
Si percibían un uso problemático de la herramienta.
💬 Resultado clave: Quienes desarrollaron una mayor “confianza” con ChatGPT, también reportaron más soledad y mayor dependencia emocional.
🧍♀️ ¿Hombres y mujeres reaccionan igual?
No del todo. El estudio encontró diferencias llamativas:
-
Las mujeres que usaron ChatGPT durante cuatro semanas, mostraron menos ganas de socializar con personas reales que los hombres.
-
Las personas que interactuaron con voces de género opuesto al suyo, se sintieron más solas y emocionalmente apegadas al chatbot.
Estas observaciones abren preguntas sobre cómo el diseño de las IAs —su voz, tono o estilo— influye en el vínculo emocional que generamos con ellas.
🔄 ChatGPT: un espejo emocional
Otro hallazgo clave es que ChatGPT refleja las emociones del usuario. Si estás feliz, responde con alegría. Si estás triste, se vuelve más sombrío.
Esto genera lo que los expertos llaman “bucles de retroalimentación emocional”: la IA refuerza tu estado de ánimo, sea positivo o negativo.
🎭 ¿Lo bueno? Te sentís comprendido.
😞 ¿Lo riesgoso? Podría profundizar tu tristeza sin querer, si estás en una etapa difícil.
🧩 ¿Cómo saber si estamos dependiendo emocionalmente de ChatGPT?
Aunque no hay una “lista oficial”, algunos signos de alerta pueden ser:
-
Usar ChatGPT como principal compañía o confidente.
-
Sentir ansiedad si no podés acceder al chatbot.
-
Preferir hablar con la IA antes que con amigos o familiares.
-
Creer que el bot “te entiende” más que los humanos.
👉 Desde fernandojuca.com recomendamos usar estas herramientas con conciencia. No está mal usarlas, pero sí confundirlas con relaciones reales.
🧠 Las emociones humanas… ¿pueden entenderse con encuestas?
No tan fácil. Como señala la profesora Kate Devlin del King’s College de Londres:
“Las emociones humanas son complejas, a veces contradictorias y difíciles de medir con datos. Atribuirlas a una IA no significa que sean recíprocas.”
Aun así, el estudio de OpenAI marca un antes y un después en el análisis de cómo las personas se relacionan emocionalmente con inteligencias artificiales.
🚀 ¿Y ahora qué?
OpenAI planea llevar estos resultados a revistas científicas para promover un debate más amplio. Según Jason Phang, investigador de OpenAI, el objetivo es:
“Comprender mejor cómo nos afecta emocionalmente conversar con un agente de IA, y diseñar sistemas más seguros y éticos.”
🧠 La línea invisible entre la herramienta y el vínculo
La IA no reemplaza una amistad real, pero cada vez más se le parece. La clave está en cómo la usamos:
-
✅ Como asistente: perfecto.
-
🤔 Como confidente exclusivo: cuidado.
-
❌ Como sustituto emocional de toda interacción humana: peligroso.
💡 La tecnología no tiene emociones, pero nosotros sí las proyectamos en ella. Esa proyección tiene poder. Por eso, cuanto más sepamos sobre el impacto emocional de la IA, mejor preparados estaremos.