La irrupción de la inteligencia artificial en las aulas ha dejado al descubierto una realidad incómoda: no hace falta que el alumnado copie para que la vergüenza ajena aumente. En muchos casos, son los propios docentes quienes se ponen en evidencia cuando abren ChatGPT con el entusiasmo de quien cree haber encontrado un atajo para todo.
El resultado se repite: materiales descontextualizados, textos que no suenan a la misma persona, citas inventadas, dependencia absoluta de la herramienta y una incoherencia pedagógica que el alumnado observa con una claridad sorprendente. La IA no ha roto nada; simplemente ha amplificado lo que ya estaba allí.
🧩 Errores frecuentes del profesorado al usar IA generativa
1. Materiales “listos para usar” sin pensar en el grupo real
Un fallo recurrente es pedir a la IA “una unidad didáctica lista para aplicar” como si todo grupo fuese intercambiable. Se ignora que:
-
Segundo de ESO no es igual que cuarto.
-
No todos los centros tienen los mismos recursos.
-
No todas las aulas tienen proyector, conectividad o el mismo clima de convivencia.
Confiar en que una plantilla genérica funcionará en cualquier contexto es renunciar a la parte más profesional del trabajo docente: adaptar, seleccionar y contextualizar.
2. Copiar y pegar textos que no suenan a la misma persona
Otro error es utilizar explicaciones generadas por IA, llenas de términos que el propio docente nunca usaría, y pegarlas tal cual en:
-
Presentaciones
-
Comunicaciones con familias
-
Documentos internos
-
Informes y memorias
El contraste es evidente: quien escribe “aver” en un correo interno difícilmente redacta al día siguiente una reflexión perfecta sobre “epistemologías emergentes en el aula”. Esa incoherencia estilística destruye credibilidad y genera desconfianza, especialmente en el alumnado más atento.
3. Pedir imposibles: exámenes mágicos e infalibles
Otra escena típica consiste en pedir a la IA algo del tipo:
“Hazme un examen que mida creatividad, pensamiento crítico y que ninguna IA pueda resolver”.
Se trata de una fantasía pedagógica: ningún modelo puede garantizar que una prueba sea “inresoluble para cualquier IA”. Si la petición es imposible, el problema no es la herramienta, sino las expectativas poco realistas de quien formula la solicitud.
4. Prompts caóticos, sin contexto… y quejas por las respuestas
También es habitual enviar a la IA un bloque de texto desordenado, sin contexto, sin estructura y sin objetivo claro, para luego quejarse de que la respuesta es confusa.
Si una persona no entendería la petición, es lógico que un modelo lingüístico tampoco produzca algo coherente. Aun así, se culpa a la herramienta mientras se critica al alumnado por “querer que la máquina les haga el trabajo”. La ironía es evidente.
5. Leer en público textos generados por IA como si fueran propios
Un comportamiento especialmente problemático aparece cuando el profesorado:
-
Usa IA para redactar ponencias, memorias, programaciones o reflexiones profesionales.
-
Copia y pega el texto sin revisarlo.
-
Lo lee en voz alta como si lo hubiera escrito personalmente.
El tono excesivamente pulido, la prosa “demasiado perfecta” y la profundidad genérica delatan el origen. El problema no es usar IA, sino no reconocerlo y presentarlo como trabajo propio, dañando la integridad profesional.
6. Referencias falsas y citas inventadas
Las “alucinaciones” de la IA son un riesgo conocido. Aun así, algunos docentes aceptan sin verificar:
-
Autores inexistentes.
-
Artículos que nunca se han publicado.
-
Libros con editoriales imaginarias.
Se cita “según tal autor” con total seguridad, aunque no haya rastro de esa referencia. El mensaje implícito hacia el alumnado es claro: no hace falta comprobar nada. Después sorprende que las investigaciones estudiantiles repitan el mismo patrón.
7. Dependencia total: cuando el departamento no funciona sin ChatGPT
En ciertos contextos, la IA se convierte en muleta permanente:
-
Rúbricas
-
Correos
-
Comentarios de evaluación
-
Actividades para el aula
-
Respuestas a familias
Si un día la herramienta deja de funcionar, hay departamentos didácticos que prácticamente colapsan. Resulta paradójico que quienes hablan de “pensamiento crítico” confíen de forma acrítica en una herramienta que puede inventar datos o argumentos.
8. “Escribe como yo”: el espejismo del estilo personalizado
Otra práctica común es pedir a la IA que “escriba como el docente”. Sin embargo:
-
Muchas veces la persona no tiene definido su propio estilo.
-
La herramienta produce un texto neutro, limpio, impecable… pero artificial.
El resultado es un documento que “huele a plantilla” y que no engaña a nadie, salvo quizá al propio docente, que cree ver en él una versión mejorada de su voz.
9. El eco pedagógico: cuando el alumnado copia al profesor… y a la IA
La escena final cierra el círculo: el profesorado genera textos con IA, los usa sin adaptarlos y, tiempo después, el alumnado entrega trabajos que utilizan los mismos párrafos.
Se desencadena la indignación:
“Es que usan IA para todo”.
La pregunta obvia es: ¿de dónde lo han aprendido?. La herramienta no ha enseñado esa conducta; ha sido la forma en que se ha modelado su uso desde la propia práctica docente.
📊 Mal uso vs uso profesional de la IA en la docencia
| Situación problemática | Enfoque responsable con IA |
|---|---|
| Copiar materiales “listos para usar” sin adaptarlos | Generar borradores y ajustarlos al contexto del grupo y del centro |
| Leer textos de IA como si fueran propios | Usar IA como apoyo y reconocer su uso de forma transparente |
| Aceptar citas y autores sin verificar | Contrastar siempre referencias en bases de datos y fuentes académicas |
| Delegar todas las decisiones en la herramienta | Combinar criterio pedagógico propio con sugerencias de IA |
| Enfadarse porque la IA no hace lo imposible | Formular solicitudes realistas y alineadas con los objetivos docentes |
| Criticar al alumnado por usar IA sin reflexión | Enseñar a usar IA con criterio, ética y verificación crítica |
🧠 Propuesta: pautas para un uso pedagógicamente responsable de la IA
Para que la IA sea aliada y no enemiga en el ámbito educativo, conviene que el profesorado adopte algunas prácticas básicas:
1. Clarificar el objetivo antes de abrir ChatGPT
Definir qué se busca exactamente:
-
¿Un borrador de actividad o una idea inicial?
-
¿Una reformulación de un texto ya existente?
-
¿Ejemplos que después serán revisados y adaptados?
Cuanto más claro sea el propósito, mejor será el resultado.
2. Aportar contexto real del aula
Incluir información clave:
-
Nivel del grupo.
-
Recursos disponibles.
-
Necesidades específicas.
-
Tiempo real de clase.
La IA no conoce la realidad del aula, pero puede trabajar mejor si recibe un contexto mínimamente detallado.
3. Usar la IA como punto de partida, no como producto final
La inteligencia artificial puede:
-
Ahorrar tiempo en tareas repetitivas.
-
Sugerir estructuras, ejemplos y enfoques.
-
Ayudar a reformular textos o aclarar explicaciones.
La parte profesional consiste en editar, adaptar, recortar y contextualizar. Sin revisión humana, no hay calidad pedagógica.
4. Verificar siempre datos y referencias
Especialmente en:
-
Trabajos académicos.
-
Programaciones.
-
Formaciones y ponencias.
Cualquier cita, dato o referencia generada por IA debe contrastarse en fuentes confiables. La herramienta ofrece texto, no garantía de veracidad.
5. Ser coherente y transparente con el alumnado
Si se promueve el uso crítico de la IA, es coherente:
-
Reconocer cuándo se ha usado ChatGPT u otra herramienta.
-
Explicar por qué se ha utilizado y cómo se ha revisado.
-
Mostrar el proceso, no solo el resultado.
La transparencia fortalece la confianza y modela buenas prácticas.
🧬 Impacto: la IA como diagnóstico, no como amenaza
La IA no está destruyendo la educación, ni robando el trabajo al profesorado. Lo que sí está haciendo es dejar en evidencia incoherencias, prisas e inercias que ya existían:
-
Ganas de ahorrar tiempo sin reflexionar.
-
Búsqueda de recetas rápidas.
-
Falta de revisión crítica de lo que se presenta como propio.
La herramienta amplifica lo que el usuario ya es: puede potenciar una práctica profesional reflexiva o desnudar malas costumbres que antes pasaban desapercibidas.
ChatGPT no elimina la necesidad de trabajo docente; simplemente muestra con claridad quién esperaba que la máquina hiciera su parte. Más que una amenaza, es un diagnóstico que invita a revisar la propia práctica.
❓ FAQ: docentes, IA y coherencia pedagógica
1. ¿Es malo que el profesorado use IA para preparar clases?
No necesariamente. El problema no es usar IA, sino hacerlo sin criterio: copiar y pegar sin revisar, no adaptar al contexto y presentar como propio algo que no se ha trabajado.
2. ¿Se debe prohibir la IA al alumnado?
Más efectivo que prohibir es enseñar a utilizarla de forma crítica y ética: cuándo puede ayudar, cuándo no y cómo verificar lo que genera.
3. ¿Es obligatorio decir que se ha usado IA en una ponencia o documento?
En contextos académicos y profesionales, resulta mucho más honesto y coherente reconocerlo, explicando cómo se ha integrado en el propio proceso de trabajo.
4. ¿Puede la IA mejorar la evaluación?
Puede ayudar a generar ideas de rúbricas, ejemplos de criterios o tipos de preguntas, pero la responsabilidad de evaluar con justicia y sentido pedagógico sigue siendo del docente.
🔗 Más contenidos sobre IA, educación y tecnología
Para seguir profundizando en inteligencia artificial aplicada a la docencia, tecnología educativa y cultura digital, se recomienda visitar:
🌐 Web: https://fernandojuca.com
📺 YouTube: https://youtube.com/fernandojucamaldonado




