📚 ChatGPT se presenta al examen de filosofía del Bac francés (y se califica mejor que un profesor)

🧠 ChatGPT se examina de filosofía (y suspende… para una profesora)

El 16 de junio, día del examen de filosofía del Baccalauréat (Bac) en Francia, la cadena pública France 3 quiso hacer un experimento: pidió a ChatGPT que redactara una respuesta a una de las preguntas oficiales del examen y luego la sometió a evaluación.

🔎 La idea era sencilla: ¿cómo calificaría una profesora humana ese texto? ¿Y cómo lo harían otras herramientas de IA?
El resultado revela una brecha importante entre la evaluación humana y la percepción de la inteligencia artificial sobre su propio trabajo.


🧪 El experimento: una pregunta real, un texto generado por IA

France 3 Hauts-de-France preparó un prompt claro y detallado para que ChatGPT comprendiera su misión:

  • Redactar una respuesta como si fuera un estudiante del Bac

  • Buscar la mejor nota posible

  • Incluir introducción, desarrollo y conclusión

  • Confirmar comprensión antes de empezar

La pregunta de filosofía elegida fue:

“¿La verdad es siempre convincente?”


✍️ El resultado: texto bien escrito, pero con un gran error de fondo

A primera vista, la redacción de ChatGPT parecía sólida:

  • Estructura clara

  • Buena gramática

  • Argumentos con ejemplos

  • Estilo académico

Pero la profesora del Lycée Louis Thuillier de Amiens detectó un fallo crucial:
➡️ ChatGPT malinterpretó la pregunta y respondió a otra distinta:

En lugar de reflexionar sobre si la verdad convence, elaboró sobre si la verdad basta para convencer.

Además, comentó que el texto:

  • No define bien los conceptos clave

  • Usa una estructura “tipo lista” en lugar de un desarrollo filosófico real

  • Tiene argumentos poco profundos e incoherentes en algunos tramos

📝 Nota otorgada por la profesora: 8/20


🤖 ¿Y qué nota se puso la IA?

Los periodistas pidieron a ChatGPT que corrigiera su propio texto. Resultado:

✨ “Muy bien estructurado, argumentación clara, excelente desarrollo…”
📈 Autoevaluación: 19,5/20

El ejercicio revela algo importante: la IA no es buena evaluando su propio rendimiento. Tiene una tendencia a la autoafirmación y no detectó su error inicial.


🤔 ¿Qué opinan otras IAs?

El sitio Gamestar llevó el texto a otras herramientas de evaluación con IA:

Herramienta Nota sobre 20
Gemini 15/20
Perplexity 17/20
DeepSeek 17/20
Copilot 17/20

Ninguna de ellas detectó el desfase entre la pregunta y la respuesta. Todas valoraron la estructura, la fluidez y la coherencia sin analizar en profundidad el enfoque filosófico.


📌 Escribir bien no es pensar bien

El experimento demuestra que una IA puede redactar con corrección, pero fallar en lo esencial: entender la pregunta, desarrollar el pensamiento crítico y profundizar en los conceptos.

Mientras que la profesora humana analizó el fondo del texto, las IAs valoraron la forma. La evaluación de filosofía no se trata solo de escribir bonito, sino de reflexionar con rigor.

🔍 ¿Moraleja? ChatGPT puede ayudarte a practicar, pero aún no piensa como un buen estudiante de filosofía.

Previous Post
Next Post