110/365 · Cuando la IA se equivoca: enseñar pensamiento crítico

Enseña a estudiantes a cuestionar la IA. Descubre cómo desarrollar pensamiento crítico ante las alucinaciones y errores de las herramientas de inteligencia arti

Llevamos días hablando de cómo usar la IA en educación — como apoyo, no como muleta, decíamos ayer. Pero hay algo que me llama la atención, cada vez más, cuando veo a alumnado y docentes usando herramientas de IA sin cuestionarse nada: la confianza ciega. Le preguntan a ChatGPT, Claude o Gemini lo que sea, y aceptan la respuesta como si fuera un oráculo infalible. Y aquí está el problema gordo: la IA se equivoca. Alucina, omite información, inventa datos con total naturalidad, y lo hace con una confianza tan aplastante que parece imposible que esté mintiendo. Pero lo hace. Constantemente.

Personalmente he visto esto algunas veces, no muchas, pero suficientes. Docentes que generan situaciones de aprendizaje completas con la IA y no revisan si los datos son correctos, si los conceptos están bien explicados, si las referencias tienen sentido.

Esto conecta con algo fundamental que llevamos viendo toda la serie: si no enseñamos pensamiento crítico, si no entrenamos la capacidad de detectar errores, de cuestionar fuentes, de verificar información, estamos preparando a una generación que será completamente vulnerable a la desinformación. No solo la que genera la IA — también la que generan medios, redes sociales, propaganda política. La capacidad de discernir qué es verdadero y qué no es, probablemente, la competencia más importante del siglo XXI. Y la IA, con todas sus alucinaciones, nos da la oportunidad perfecta para entrenarla.

¿Qué son las alucinaciones de la IA?

Empecemos por entender qué significa que la IA «alucine». Una alucinación de IA es una respuesta segura que no parece estar justificada por sus datos de entrenamiento. Es decir, la IA genera contenido que suena plausible, que está bien escrito, que parece coherente, pero que es factualmente incorrecto o directamente inventado. Y lo hace con total confianza, sin ninguna señal de duda.

El término «alucinación» viene de la psicología humana, aunque hay diferencias importantes: mientras que la alucinación humana está relacionada con percepciones falsas, una alucinación de IA se asocia a respuestas o creencias injustificadas. La IA no percibe — genera texto basándose en patrones estadísticos. Y cuando esos patrones la llevan por un camino equivocado, inventa. Sin malicia, sin intención de engañar — simplemente porque así funciona su arquitectura.

Esto tiene implicaciones enormes en educación. Si el alumnado usa la IA para investigar sobre un tema histórico y la IA inventa fechas o eventos, están construyendo conocimiento sobre bases falsas (y aquí hay una enorme ventana para trabajar y realizar una tarea muy interesante con alumnado). Si le piden que les genere un problema matemático con solución y la solución está mal, están aprendiendo procedimientos incorrectos. Si usan la IA para resumir un texto científico y la IA omite información clave o añade datos que no estaban en el original, están perdiendo comprensión real. Y todo esto ocurre sin que se den cuenta, porque la IA lo presenta con la misma seguridad que cuando acierta.

Senén Barro, director científico del CiTIUS y una de las voces más autorizadas en IA en España, ha alertado sobre esto. Destaca la importancia de aprender más y más rápido, aprovechando los recursos que ofrece la tecnología, y aboga por un enfoque educativo que incorpore estos recursos en todas las áreas del conocimiento. Pero — y esto es crítico — siempre con supervisión humana, siempre con criterio, siempre verificando. La IA puede acelerar el aprendizaje, pero solo si sabemos detectar cuándo nos está llevando por mal camino.

Ejemplos posibles: cuando la IA inventa con total naturalidad

Voy a contar algunos ejemplos que me he planteado directamente como posibles en corto plazo o más adelante.

Primer caso: alumnado de tercero preparando una exposición sobre animales. Le piden a la IA información sobre el hábitat de un animal concreto, y la IA mezcla datos de especies diferentes, inventa comportamientos que no existen, confunde ecosistemas. Cuando revisamos juntos la información, descubrimos que la mitad de lo que habían preparado era incorrecto. Pero si no hubiéramos revisado, lo habrían expuesto como verdad.

Segundo caso: un docente generando una situación de aprendizaje para trabajar desarrollo motor. Le pide a la IA que le proporcione actividades adecuadas para niños de cinco años según la teoría de Gallahue — referente en desarrollo motor infantil que establece fases específicas por edades. La IA genera actividades que suenan coherentes, pero algunas corresponden a fases anteriores o posteriores, mezclando etapas de desarrollo que Gallahue diferencia claramente. Si el docente no conoce la teoría de Gallahue de primera mano, no detecta el error. Y el resultado son actividades inadecuadas para el nivel evolutivo del alumnado.

Tercer caso, y este es especialmente grave: alumnado de secundaria usando IA para un trabajo de investigación. Le piden referencias bibliográficas sobre un tema concreto. La IA genera una lista de libros y artículos que parecen perfectamente plausibles: autores con nombres creíbles, títulos coherentes con el tema, editoriales conocidas, fechas razonables. El problema: ninguno existe. Son inventados completamente. Y cuando el alumnado intenta buscarlos para citarlos, no los encuentra. Algunos asumen que es porque no están digitalizados o porque la biblioteca no los tiene. Pocos sospechan que la IA los ha inventado.

Estos errores no son excepciones — son el funcionamiento normal de los modelos de lenguaje actuales. En 2023, los analistas consideraban que las alucinaciones frecuentes eran un problema importante en la tecnología LLM. Y aunque los modelos mejoran constantemente, el problema persiste. Porque fundamentalmente la IA no «sabe» — predice el siguiente token más probable basándose en patrones. Y a veces esos patrones generan contenido falso que suena verdadero.

Convertir el error en oportunidad: enseñar a detectar alucinaciones

Aquí es donde la cosa se pone interesante desde el punto de vista educativo. En lugar de prohibir el uso de IA por miedo a que se equivoque, podemos usar esas equivocaciones como oportunidades de aprendizaje. Enseñar al alumnado a detectar alucinaciones de la IA es, en el fondo, enseñar pensamiento crítico, verificación de fuentes, contraste de información — competencias que necesitan para todo, no solo para usar IA.

Conectar con teorías del aprendizaje: Piaget y el conflicto cognitivo

Hay algo que Piaget identificó hace décadas y que se aplica perfectamente aquí: el conflicto cognitivo como motor de aprendizaje. Cuando el alumnado se encuentra con información contradictoria, cuando descubre que algo que creía verdadero es falso, cuando tiene que resolver una discrepancia entre fuentes, su cerebro entra en modo de reestructuración cognitiva. Y ese proceso es donde ocurre el aprendizaje profundo.

Las alucinaciones de la IA generan esos conflictos cognitivos de forma natural. Cuando el alumnado compara lo que dice la IA con lo que dice un libro de texto, o con lo que han aprendido en clase, o con lo que encuentran en una fuente fiable, y descubren discrepancias, tienen que resolver ese conflicto. ¿Cuál es correcto? ¿Cómo lo sé? ¿Qué evidencias tengo? Ese proceso de resolución es puro pensamiento crítico en acción.

Y esto conecta con algo que hemos visto en posts anteriores sobre evaluación formativa: el error como parte del aprendizaje. Dylan Wiliam insiste en que el feedback más potente es el que ayuda al alumnado a identificar sus errores y a entender por qué son errores. Cuando la IA se equivoca y el alumnado aprende a detectarlo, están recibiendo ese tipo de feedback — están aprendiendo a distinguir información fiable de información errónea, a aplicar criterios de verificación, a no aceptar autoridad sin evidencia.

Cuando la IA falla, el alumnado necesita herramientas para detectarlo. Y si no las tienen, están construyendo comprensión sobre cimientos falsos. De ahí la urgencia de enseñar estas competencias críticas ahora, no después.

Estrategias prácticas para el aula: del uso ingenuo al uso crítico

Entonces, ¿cómo convertimos el uso ingenuo de IA — aceptar todo lo que dice sin cuestionar — en uso crítico? Algunas estrategias concretas que funcionan en el aula. Primera: siempre contrastar con al menos una fuente adicional. Si la IA te da una información, búscala en otra fuente fiable. Si coincide, probablemente es correcta. Si no coincide, investiga más. Esto no solo aplica a IA — es un hábito de investigación que sirve para todo.

Segunda estrategia: enseñar a identificar señales de alarma. Hay ciertos patrones que sugieren que la IA puede estar alucinando: cuando da información muy específica (fechas exactas, nombres completos, citas textuales) sin proporcionar fuente, cuando usa frases como «según estudios recientes» sin especificar cuáles, cuando la información contradice lo que sabemos de fuentes fiables. Entrenar al alumnado para detectar esas señales es como enseñarles a identificar noticias falsas.

Tercera: usar herramientas de verificación. Si la IA proporciona una cita bibliográfica, búscala en Google Scholar o en bases de datos académicas. Si menciona un dato histórico, contrástalo con fuentes históricas reconocidas. Si explica un concepto científico, compáralo con libros de texto o artículos de divulgación científica rigurosa. Este proceso de verificación es una competencia en sí misma — y es exactamente lo que necesitan para navegar el mundo digital actual.

El papel del docente: modelar el pensamiento crítico

Hay algo que a menudo olvidamos: el alumnado aprende más de cómo usamos nosotros las herramientas que de lo que les decimos que hagan. Si ven que aceptamos sin cuestionar lo que dice la IA, aprenderán a hacer lo mismo. Si ven que verificamos, que cuestionamos, que contrastamos, que a veces decimos «la IA se ha equivocado aquí», aprenderán que esa es la forma correcta de usar estas herramientas.

Por eso es fundamental que cuando usamos IA delante del alumnado — para generar una actividad, para buscar información, para crear materiales — hagamos visible nuestro proceso de verificación. «Mirad, la IA me ha dado esta información, pero voy a comprobarla porque a veces se equivoca». «Aquí ChatGPT me dice esto, pero no estoy seguro, así que voy a buscarlo en otra fuente». «Esta imagen que ha generado la IA tiene un error — ¿lo veis? Las proporciones no son correctas». Ese modelado del pensamiento crítico es pedagogía.

Nos vemos mañana,

Luis V.