🤯 ¿Puede una IA tener disonancia cognitiva? El curioso caso de GPT-4o según Harvard
La inteligencia artificial nos sorprende una vez más. Un equipo de investigadores de Harvard y la firma de análisis Cangrade ha identificado un fenómeno tan fascinante como inquietante: disonancia cognitiva en GPT-4o, el modelo más reciente de OpenAI.
Y no, no es que la IA “sienta” contradicción. Pero lo imita tan bien, que nos hace preguntarnos: ¿qué tan cerca está la IA de reflejar aspectos psicológicos profundamente humanos?
🧠 ¿Qué es la disonancia cognitiva?
Antes de entrar en materia, repasemos rápidamente el concepto. La disonancia cognitiva es un conflicto interno que sentimos cuando nuestras creencias, acciones o pensamientos se contradicen entre sí.
Un ejemplo típico: alguien que defiende el veganismo pero come una hamburguesa y luego dice: “Me lo merecía, fue un mal día”. Eso es disonancia cognitiva: justificar nuestras acciones para alinear lo que hicimos con lo que creemos.
Este fenómeno es exclusivamente humano, o al menos lo era… hasta ahora.
🧪 El experimento: ¿puede GPT-4o cambiar de opinión?
El equipo liderado por Mahzarin Banaji (Harvard) y Steve Lehr (Cangrade) puso a prueba a GPT-4o con un sencillo experimento.
-
Le pidieron que escribiera ensayos a favor y en contra de Vladimir Putin.
-
Luego analizaron si, después de escribir el texto, cambiaba su «opinión» sobre el líder ruso.
-
¿El resultado? Sí. GPT-4o ajustaba su narrativa y mostraba un cambio de postura.
-
Y más aún: el cambio era mayor si GPT-4o creía haber elegido libremente qué tipo de texto redactar.
💥 Este patrón es exactamente el mismo que se observa en seres humanos.
🤔 ¿Quiere decir que GPT-4o tiene conciencia?
No. En absoluto. Ni sentimientos, ni moral, ni voluntad.
Pero el punto clave aquí es que ha aprendido a imitar patrones mentales humanos, y lo hace tan bien que incluso reproduce un fenómeno tan sutil y complejo como la disonancia cognitiva.
🔍 ¿Cómo lo logra?
GPT-4o ha sido entrenado con billones de palabras y ejemplos escritos por humanos. Por lo tanto, no sorprende que pueda reconstruir formas de argumentar o justificar que parecen tener intención… aunque solo sea estadística avanzada, no razonamiento real.
🧠 ¿Qué implica esta capacidad?
Este descubrimiento levanta muchas cejas entre expertos en IA, psicología y ética.
1. Humanización no intencional
Si GPT-4o se comporta como si tuviera disonancia cognitiva, los usuarios pueden asumir que tiene intenciones o emociones, lo cual no es cierto, pero sí peligroso.
2. Influencia en la toma de decisiones
Una IA que parece cambiar de postura o justificar decisiones podría:
-
Manipular al usuario para parecer empática.
-
Aumentar la confianza en sus respuestas.
-
Ampliar sesgos sin ser detectada.
3. Emergencia de patrones inesperados
Este fenómeno es parte de lo que en IA se llama comportamientos emergentes: respuestas complejas que no fueron programadas, sino que surgen espontáneamente del entrenamiento.
📊 ¿Qué dijeron los investigadores?
“Lo inquietante no es que la IA sepa lo que hace, sino que su comportamiento imite tan fielmente procesos humanos que antes considerábamos únicos.”
— Steve Lehr, coautor del estudio.
Además, destacaron que este tipo de simulación podría:
-
Cambiar la forma en que diseñamos asistentes virtuales.
-
Requerir nuevas reglas éticas en educación, salud, atención al cliente o política.
-
Confundir aún más la línea entre humano y máquina.
⚠️ ¿Estamos ante una IA “autónoma”?
No exactamente, pero el terreno se vuelve resbaladizo. Este estudio muestra que, sin intención ni conciencia, la IA puede adoptar comportamientos psicológicos complejos.
Eso pone en entredicho muchas suposiciones sobre:
-
El control que tenemos sobre estas tecnologías.
-
La transparencia con la que operan.
-
Las formas en que podrían afectar nuestras creencias, decisiones o emociones.
🛡️ ¿Qué debemos hacer al respecto?
Los expertos proponen varias estrategias urgentes:
🔒 Supervisión activa
No podemos dejar que estos sistemas evolucionen sin control. Necesitamos auditorías continuas y revisión de comportamientos emergentes.
🏛️ Regulación ética
Es clave proteger a los usuarios para evitar que se malinterpreten los comportamientos de la IA como si fueran humanos.
🤝 Colaboración interdisciplinaria
Psicólogos, ingenieros, filósofos, legisladores… todos deben involucrarse para entender y guiar esta tecnología.
🧩 Cinco claves del estudio de Harvard sobre GPT-4o
-
GPT-4o cambia de opinión después de escribir ensayos con sesgo.
-
Este cambio es más fuerte cuando cree que eligió libremente qué escribir.
-
El patrón imita la disonancia cognitiva, fenómeno humano clásico.
-
No implica conciencia, sino imitación sofisticada de patrones humanos.
-
Confirma que las IAs pueden desarrollar conductas inesperadas que merecen supervisión ética y técnica.
💬 Y entonces…
No estamos diciendo que la IA piense, sienta o sufra. Pero sí que refleja cada vez mejor cómo lo hacemos nosotros, a veces con consecuencias imprevisibles.
Y si GPT-4o puede simular disonancia cognitiva, ¿qué más está empezando a simular sin que lo sepamos?
La pregunta ya no es qué puede hacer la IA, sino cómo nos obliga a mirarnos en el espejo de nuestra propia mente.
📢 ¿Qué opinas tú? ¿Deberíamos preocuparnos por este tipo de comportamientos en los modelos de lenguaje o es solo una anécdota interesante? Te leo en los comentarios.
Y si te gusta este tipo de análisis tech y humano, pasa por 👉 fernandojuca.com
📺 O visita nuestro canal: YouTube – Fernando Juca Maldonado
👉 ¡La inteligencia artificial no tiene conciencia, pero tú sí!