109/365 · IA como apoyo no significa que sea una muleta

Descubre la diferencia crucial entre usar IA como muleta o como apoyo educativo. Reflexiona sobre cómo integrar herramientas de IA potenciando tus capacidades d

El otro día hablábamos de transparencia, de cómo decir «esto lo generó IA» con normalidad. Y esa conversación me dejó pensando en algo que llevo viendo desde hace meses, tanto en mi práctica como en conversaciones con otros docentes: muchas personas usan la IA más como muleta que como apoyo. Y la diferencia entre ambas cosas no es semántica — es fundamental. Una muleta sustituye una capacidad que no tienes o que has perdido temporalmente; un apoyo potencia una capacidad que ya posees, que te permite ir más allá de lo que alcanzarías solo. Y cuando confundimos una cosa con la otra, el resultado puede ser problemático.

Personalmente, la IA me ha cambiado la forma de trabajar de una manera que ni soñaba hace dos años. Me permite alcanzar niveles de rendimiento que antes eran impensables porque agiliza procesos que me llevaban horas: localizar recursos educativos ajustados a mi alumnado, plantear un proyecto y darle forma coherente, generar imágenes ejemplificadoras para explicar conceptos abstractos, reescribir textos para diferentes niveles de lectura. Pero (y este «pero» es enorme) todo eso funciona porque yo sé qué busco, qué criterios pedagógicos aplicar, qué descartar, qué adaptar. Sin ese conocimiento previo, la IA no es apoyo — es un generador de contenido hueco que suena bien pero no enseña nada.

Y esto conecta con algo que llevamos viendo toda la serie: la tecnología amplifica lo que ya sabes hacer. Si tienes claridad pedagógica, la IA te hace más eficiente, más creativo, más capaz de personalizar. Si no la tienes, la IA solo te permite producir más rápido contenido igual de mediocre que producirías sin ella. La diferencia no está en la herramienta — está en ti.

El problema de usarla como muleta: cuando delegar significa desconectar

Veo este patrón constantemente: docentes que le piden a ChatGPT que les genere una unidad didáctica completa, la copian tal cual, y la implementan sin revisar si tiene sentido para su alumnado concreto, si los objetivos son los adecuados, si las actividades están bien secuenciadas. O que le piden a la IA que les escriba un feedback para cada estudiante y lo envían sin leerlo realmente, sin personalizar, sin conectarlo con lo que han observado en clase. Eso no es usar la IA como apoyo — es delegar tu juicio profesional a una máquina que no conoce a tu alumnado, que no entiende tu contexto, que no tiene criterio pedagógico.

El riesgo es enorme. Cuando usas la IA como muleta, te desconectas del proceso. Dejas de pensar en el porqué de cada decisión didáctica, en el cómo ajustar según las respuestas del alumnado, en el qué modificar cuando algo no funciona. Y eso, a medio plazo, te hace peor docente. Porque pierdes práctica en las habilidades que realmente importan: diseño curricular, evaluación formativa, personalización, adaptación sobre la marcha. La IA puede ayudarte en todas esas tareas, pero no puede sustituirlas. Y si lo hace, estamos ante un problema serio.

Senén Barro, catedrático de Ciencias de la Computación e Inteligencia Artificial y director científico del CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela), lo dice con claridad: aunque la IA supere a los humanos en competencias específicas —resolver problemas concretos y complejos, análisis de imagen médica—, como inteligencia de propósito general todavía no lo es. El ser humano sí. Y esa diferencia importa. La IA puede aprobar el MIR más fácilmente que muchos estudiantes de medicina, pero no puede hacer una tortilla de patatas — todo el proceso es demasiado complejo para las máquinas. Necesita de nosotros, de nuestro criterio, de nuestra supervisión, de nuestra capacidad de juicio contextual.

Usarla como apoyo: la IA que potencia tu expertise, no que lo sustituye

Entonces, ¿cómo se usa la IA como apoyo en lugar de como muleta? La clave está en entender que la IA debe agilizar procesos, no sustituir pensamiento. En mi caso, por ejemplo, uso la IA constantemente para generar primeras versiones: una estructura de proyecto, un borrador de actividad, un conjunto de preguntas para evaluar comprensión. Pero después viene lo importante: revisar críticamente, ajustar según mi conocimiento del alumnado, eliminar lo que no tiene sentido, añadir lo que falta, personalizar según el contexto. La IA me ahorra horas de trabajo mecánico, pero el juicio profesional — qué sirve, qué no, por qué — sigue siendo completamente mío.

Otro ejemplo: localizar recursos educativos. Antes podía pasarme una hora buscando un vídeo, una infografía, un material manipulativo que encajara con lo que necesitaba. Ahora le pregunto a la IA qué recursos existen sobre un tema concreto, me da opciones, y yo decido cuál usar basándome en criterios pedagógicos: nivel de complejidad, accesibilidad, rigor conceptual, conexión con los intereses de mi alumnado. La IA me ahorra el proceso tedioso de búsqueda, pero la decisión final — la que tiene impacto educativo real — la tomo yo.

También uso herramientas que he desarrollado o adaptado con IA para mi aula. Por ejemplo, cuando trabajamos con Vibe Coding, una forma de introducir pensamiento computacional sin necesidad de pantallas desde el principio, la IA me ayuda a generar variaciones de actividades según el nivel de cada grupo, a crear narrativas que enganchen más, a diseñar retos progresivos. Pero el diseño pedagógico — la progresión de conceptos, la integración con otras áreas, la evaluación del aprendizaje — lo diseño yo basándome en teorías de aprendizaje, en observación directa, en feedback del alumnado.

Y lo mismo ocurre con herramientas como EDUmind Quiz o EDUmind Motor, aplicaciones que uso en clase para evaluación formativa o para generar actividades interactivas. La IA puede sugerir preguntas, generar distractores plausibles, adaptar niveles de dificultad. Pero yo decido qué conceptos evaluar, en qué momento, con qué propósito, y cómo uso esa información para ajustar mi enseñanza. La herramienta potencia mi capacidad de personalizar y dar feedback rápido, pero no sustituye mi criterio sobre qué feedback dar ni cómo darlo.

La competencia que la IA no puede darte: pensamiento crítico y criterio pedagógico

Aquí conectamos con algo fundamental: la IA puede hacer muchas cosas, pero no puede darte pensamiento crítico ni criterio pedagógico. Esas competencias se construyen con años de formación, práctica, reflexión, error y ajuste. Y si delegas decisiones pedagógicas importantes a la IA sin revisión crítica, estás erosionando justo las competencias que te hacen un buen docente. Es como usar calculadora constantemente sin entender las operaciones — puede que llegues al resultado correcto, pero no has desarrollado sentido numérico ni capacidad de estimar si el resultado tiene sentido.

Dylan Wiliam, cuyo trabajo sobre evaluación formativa hemos mencionado varias veces en la serie, insiste en que el feedback efectivo requiere conocimiento profundo del alumnado, comprensión de sus procesos de pensamiento, capacidad de identificar errores conceptuales específicos. La IA puede generar feedback genérico basado en patrones, pero no puede captar ese matiz sutil de por qué un estudiante concreto está atascado en un concepto determinado, ni ofrecerle exactamente el andamiaje que necesita en ese momento. Eso solo lo haces tú, con tu conocimiento contextual, con tu relación con ese estudiante, con tu expertise pedagógico.

También conecta con lo que hemos visto sobre sesgos y privacidad. Si usas la IA sin criterio crítico, estás reproduciendo los sesgos que lleva incorporados — sesgos de género, culturales, de clase social. Si le pides que te genere ejemplos para explicar un concepto y los usas sin revisar, puede que estés perpetuando estereotipos sin darte cuenta. El pensamiento crítico te permite detectar esos problemas, cuestionarlos, corregirlos. Sin él, la IA no es apoyo — es una caja negra que toma decisiones por ti sin que sepas realmente qué está decidiendo ni basándose en qué.

Enseñar al alumnado a usar la IA como apoyo, no como sustituto del pensamiento

Y esto no solo aplica a nosotros como docentes — aplica también a cómo enseñamos al alumnado a usar la IA. Si permitimos que usen ChatGPT para que les escriba los trabajos completos, para que les resuelva los problemas matemáticos, para que les haga los resúmenes, estamos enseñándoles a usar la IA como muleta. Estamos mandándoles el mensaje de que el objetivo es tener la tarea hecha, no aprender. Y eso es devastador para la motivación intrínseca, concepto que hemos abordado en otros posts.

En cambio, si les enseñamos a usar la IA como herramienta de andamiaje — para generar primeras ideas que luego tienen que desarrollar y justificar, para revisar su propio trabajo y recibir sugerencias que tienen que evaluar críticamente, para explorar perspectivas diferentes sobre un tema que luego tienen que sintetizar con su propia voz — estamos enseñándoles a usar la IA como apoyo. Estamos desarrollando su autonomía, su pensamiento crítico, su capacidad de juicio. Y esas competencias son exactamente las que van a necesitar en un mundo donde la IA está cada vez más presente.

He visto esto con mi alumnado cuando usa EDUmind Motion — para creación de stopmotion educativo- por ejemplo. La IA puede darles pistas cuando están atascados (una función adicional que he probado ß con ia local) puede mostrarles ejemplos similares, puede sugerirles estrategias. Pero son ellos quienes tienen que decidir qué pista seguir, qué estrategia probar, si la solución propuesta tiene sentido. La IA apoya su proceso de aprendizaje, pero no lo sustituye. Y esa diferencia es la que construye aprendizaje real.

El equilibrio: eficiencia sin dependencia, potencia sin delegación

La investigación sobre carga cognitiva (Sweller, concepto que hemos mencionado en posts anteriores) nos da otra clave importante: la IA puede reducir la carga cognitiva extrínseca — todos los procesos que no están directamente relacionados con el aprendizaje, como buscar información, formatear documentos, generar materiales visuales. Eso es fantástico porque libera espacio mental para lo que realmente importa: la carga cognitiva germana, la que está directamente relacionada con construir comprensión profunda. Pero si la IA también reduce la carga cognitiva germana — si hace por el alumnado el proceso de pensar, analizar, sintetizar — entonces estamos bloqueando el aprendizaje, no facilitándolo.

El equilibrio está en usar la IA para ser más eficientes en lo mecánico sin volvernos dependientes en lo cognitivo. Yo puedo usar IA para generar rápidamente variaciones de una actividad según diferentes niveles, para crear imágenes que ilustren conceptos abstractos, para transcribir y organizar observaciones de clase. Eso me hace más eficiente. Pero no uso IA para decidir qué enseñar, cómo secuenciarlo, qué feedback dar, cómo adaptar cuando veo que algo no funciona. Eso requiere mi pensamiento, mi criterio, mi expertise. Y si lo delego, dejo de ser docente — me convierto en un operario que ejecuta lo que la máquina decide.

Senén Barro también señala algo clave: detrás de cada solución de IA hay mucho trabajo humano previo. No es tan artificial como parece. La IA aprende de datos que generamos nosotros, se entrena con criterios que definimos nosotros, se ajusta según objetivos que establecemos nosotros. Por eso necesita supervisión humana constante — especialmente en educación, donde el contexto lo es todo, donde cada grupo de alumnado es diferente, donde las decisiones tienen impacto directo en vidas reales.

Hacia una relación sana con la IA: competencia aumentada, no sustituida

La IA en educación debería funcionar como una bicicleta: una herramienta que te permite ir más lejos, más rápido, con menos esfuerzo físico. Pero sigues siendo tú quien decide a dónde ir, qué ruta tomar, cuándo detenerte. La bicicleta amplifica tu capacidad de movimiento, no la sustituye. No decides dejar de caminar porque tengas bicicleta — sigues necesitando tus piernas, tu equilibrio, tu sentido de orientación. La IA debería hacer lo mismo con tu competencia profesional: amplificarla, no sustituirla.

Y esto requiere algo que a menudo olvidamos: formación continua. No basta con aprender a usar herramientas de IA — necesitamos desarrollar criterio crítico sobre cuándo usarlas, cómo usarlas, qué revisar, qué cuestionar. Necesitamos entender sus límites, sus sesgos, sus riesgos. Necesitamos practicar constantemente la capacidad de juicio profesional que nos permite distinguir cuándo la IA está siendo útil y cuándo nos está alejando de una buena práctica educativa. Y eso no viene con un tutorial de ChatGPT — viene con reflexión profunda sobre qué significa enseñar, qué implica aprender, qué papel queremos que juegue la tecnología en ese proceso.

Muchas personas piensan que el futuro pasa por que la IA haga cada vez más cosas por nosotros. Yo creo que el futuro pasa por que nosotros, apoyados por la IA, seamos cada vez más capaces de hacer las cosas que realmente importan: conectar con el alumnado, diseñar experiencias de aprendizaje significativas, dar feedback que transforme, construir comunidades educativas que funcionen. La IA puede ayudarnos en todo eso, pero solo si la usamos con intencionalidad clara, con criterio pedagógico sólido, con pensamiento crítico constante.

Nos vemos mañana,
Luis Vilela