GPT-4.5 supera el Test de Turing: ¿avance real o experimento mal planteado?🧠

🧠 ¿🤖 ¿Un salto histórico en la IA o un experimento que se hizo viral por las razones equivocadas?

Un nuevo estudio de la Universidad de California acaba de reavivar uno de los debates más viejos del mundo tech: ¿puede una IA hacerse pasar por humano? Según sus autores, los modelos GPT-4.5 y LLaMa-3.1-405B han logrado superar el famoso Test de Turing, ideado por el matemático Alan Turing hace más de siete décadas.

Pero antes de celebrar este hito como el inicio de la verdadera “inteligencia artificial”, vale la pena preguntarnos: ¿qué significa realmente “pasar” el Test de Turing en 2025? ¿Estamos ante un avance significativo o simplemente ante humanos demasiado perezosos para poner a prueba a estas IAs?


🧪 ¿Qué es el Test de Turing y por qué sigue importando?

Propuesto en 1950 por Alan Turing, el test es bastante simple en concepto: un humano (interrogador) interactúa por texto con dos entidades: otro humano y una máquina. Si el interrogador no puede distinguir cuál es la IA, se dice que esta ha “pasado” el test.

Durante décadas, el Test de Turing ha sido el punto de referencia para debatir si una IA puede simular comportamiento humano de forma convincente. Pero a medida que la tecnología avanza, muchos se preguntan si esta prueba sigue siendo relevante.


📊 El experimento: cómo GPT-4.5 engañó al 73% de los humanos

En el estudio dirigido por Cameron R. Jones y Benjamin K. Bergen, los investigadores probaron cuatro modelos:

  • GPT-4.5

  • LLaMa-3.1-405B

  • GPT-4o

  • ELIZA (sí, el chatbot de los años 60)

Cada modelo participó en conversaciones de 5 minutos por chat, sin que el interrogador supiera con quién hablaba. La sorpresa llegó cuando:

  • GPT-4.5 fue identificado como humano en el 73% de los casos.

  • LLaMa-3.1 alcanzó el 56%.

  • GPT-4o y ELIZA se quedaron muy por debajo: 21% y 23%, respectivamente.

💡 Dato interesante: los mejores resultados se obtuvieron cuando a los modelos se les dio una «personalidad», como la de un joven introvertido aficionado a la cultura de internet. Sin ese toque humano, los porcentajes bajaron notablemente.


🧐 ¿Pero eso realmente prueba algo?

Aquí es donde entra la polémica. Tras revisar las transcripciones del experimento (disponibles públicamente), muchos expertos señalaron que las preguntas eran demasiado simples, tipo:

“¿Cuál es tu serie favorita?”
“¿Qué sueles hacer en tu tiempo libre?”

👉 ¿Dónde quedaron las preguntas filosóficas, los juegos de palabras, las paradojas o los acertijos? Nada de eso se usó para poner a prueba a los modelos. En otras palabras, los interrogadores no se esforzaron en desenmascarar a las IA.


🔎 El problema de los humanos perezosos

Como bien comentó un usuario en Hacker News:

“Los participantes no intentaron realmente desenmascarar a una IA. Querían su crédito académico y listo”.

Otros apuntan a que los interrogadores evitaron hacer preguntas incómodas o disruptivas por educación o empatía, lo que habría beneficiado a los modelos de IA. Esto reabre un debate filosófico:
¿Debe el Test de Turing evaluarse en condiciones naturales o debe implicar un interrogatorio intensivo tipo CSI?


🧠 Entonces, ¿qué pasó realmente?

El test sí se realizó con cierta rigurosidad técnica, pero sus resultados están condicionados por la pasividad de los participantes. La conclusión más honesta podría ser:

GPT-4.5 puede parecer humano en una conversación casual… si el humano del otro lado no se esfuerza mucho.

Eso es importante, pero no suficiente para hablar de conciencia artificial o de una IA verdaderamente indistinguible.


🧬 El eterno efecto ELIZA

Aunque GPT-4.5 fue el protagonista, también se incluyó a ELIZA, el primer chatbot de la historia, creado en los años 60. Y aunque fue identificado correctamente en la mayoría de los casos, un 23% de los interrogadores pensó que era humano. 😳

Este fenómeno se conoce como efecto ELIZA: la tendencia humana a antropomorfizar a las máquinas, proyectando emociones, intención o personalidad incluso en simples algoritmos.

Su creador, Joseph Weizenbaum, se escandalizó al ver cómo sus colegas hablaban con ELIZA como si tuviera conciencia. El experimento de ahora confirma que ese sesgo psicológico sigue vivo… incluso con tecnologías rudimentarias.


⚠️ ¿Qué riesgos plantea esto?

Aunque el estudio no demuestra inteligencia general (AGI), sí revela un riesgo real de manipulación. Si una IA puede pasar por humana en chats informales:

  • 📩 Puede usarse en estafas tipo phishing con mayor efectividad.

  • 📱 Podría inundar redes sociales con bots ultra creíbles.

  • 👨‍💻 En el futuro, podría suplantar empleos ligados a la atención al cliente o soporte técnico básico.

Esto ya no es ciencia ficción, es una preocupación real sobre el uso ético y seguro de estas tecnologías.


🧠 ¿Avance histórico o experimento relajado?

GPT-4.5 pasó el Test de Turing, sí.
Pero el test, tal como fue planteado, no fue suficientemente exigente como para sacar conclusiones firmes sobre avances en cognición artificial.

Lo que sí queda claro es que:

  • Las IA ya pueden “camuflarse” como humanos si no las cuestionamos lo suficiente.

  • El Test de Turing necesita ser actualizado o complementado con pruebas más exigentes.

  • La sociedad debe prepararse para interacciones cotidianas con máquinas que suenan increíblemente humanas.


🧠 Preguntas Frecuentes (FAQ)

¿GPT-4.5 realmente superó el Test de Turing?
Sí, pero en condiciones muy casuales. No se aplicaron preguntas complejas ni estrategias avanzadas para desenmascarar al modelo.

¿Este resultado prueba que la IA es consciente o inteligente?
No. Solo demuestra que puede imitar el lenguaje humano con alta fidelidad en contextos simples.

¿Qué peligros tiene que una IA parezca humana?
Desde estafas más creíbles hasta manipulación en redes sociales o suplantación en trabajos digitales.

¿El Test de Turing sigue siendo válido?
Es útil como referencia histórica, pero necesita ser actualizado con pruebas más desafiantes para IA modernas.


📣 ¿Quieres más contenidos sobre avances en inteligencia artificial, ética, educación y seguridad digital?

Visita mi blog y canal para tutoriales, análisis y reflexiones:

🌐 fernandojuca.com
📺 youtube.com/fernandojucamaldonado

Previous Post
Next Post