99/365 · Si no sabes por qué usas la IA en el aula, ya estás fallando

¿Usas IA en el aula sin saber por qué? Descubre 5 principios éticos concretos para una integración responsable de la IA en educación, más allá de la técnica.

(y va de ética, no de técnica)

Llevo unos días dándole vueltas a algo que conecta directamente con lo que escribía sobre la tecnología que estorba: cuando metemos herramientas sin pensar en el propósito pedagógico, estamos creando problemas donde antes no los había. Y con la IA pasa exactamente lo mismo, pero multiplicado por mil. Porque la IA no es solo una herramienta más. Es una herramienta que toma decisiones, que procesa datos, que puede reproducir sesgos, que puede invadir la privacidad, y que puede —si no andamos con cuidado— convertir el aula en un espacio de vigilancia y control en lugar de un espacio de aprendizaje y crecimiento.

Y lo peor es que mucha de esta tecnología se está implementando sin que nadie se haya parado a preguntarse: ¿esto es ético? ¿Respeta los derechos del alumnado? ¿Estamos reproduciendo desigualdades sin darnos cuenta? Y no lo digo desde la teoría. Lo digo porque yo uso IA en mi día a día. La uso para evaluar, para crear recursos, para adaptar contenidos. Y cada vez que la uso, me tengo que hacer estas preguntas. Porque si no me las hago yo, nadie lo va a hacer por mí. Y si no me las hago, puedo estar haciendo daño sin darme cuenta.

La ética no es opcional (aunque muchos lo traten como si lo fuera)

En 2021, la UNESCO adoptó la primera normativa mundial sobre ética de la inteligencia artificial, aplicable a todos los 194 Estados miembros. Y no lo hizo por capricho. Lo hizo porque la Inteligencia Artificial en Educación está ofreciendo beneficios significativos, pero también presentando riesgos éticos que necesitan ser clasificados y analizados sistemáticamente. Y cuando hablamos de riesgos, no estamos hablando de cosas abstractas. Estamos hablando de cosas muy concretas: invasión de privacidad, filtración de datos, sesgo algorítmico, algoritmos de caja negra, y errores algorítmicos. Y todas esas cosas pasan en educación. Cada día. En centros de todo el mundo. Y muchas veces, sin que nadie se dé cuenta.

Y aquí está el problema de fondo: la IA no puede reemplazar completamente el papel del profesor y es necesario un uso responsable y ético de la tecnología. Pero eso requiere que los docentes tengamos formación, criterio, y herramientas para tomar decisiones éticas sobre el uso de la IA. Y ahora mismo, eso no está pasando. Porque se está implementando tecnología a toda velocidad, sin formación, sin marcos éticos claros, y sin mecanismos de control. Y eso es un problema. Un problema serio.

Primer principio: si no entiendes cómo funciona, no lo uses

Una de las primeras cosas que aprendí cuando empecé a usar IA en el aula es que si no entiendo cómo funciona un algoritmo, no puedo confiar en él. Y esto no significa que tenga que ser ingeniero informático. Significa que tengo que saber, al menos, qué datos está usando, cómo los está procesando, y qué criterios está aplicando para tomar decisiones. Porque los riesgos relacionados con algoritmos incluyen sesgo algorítmico, algoritmos de caja negra, y errores algorítmicos. Y si yo no sé cómo funciona la herramienta que estoy usando para evaluar a mi alumnado, entonces no tengo forma de saber si esa herramienta es justa o no.

Y esto pasa constantemente. Hay plataformas de evaluación automática, sistemas de tutoría inteligente, herramientas de análisis de aprendizaje… y muchas de ellas son cajas negras. No sabes qué datos están recogiendo, no sabes cómo están tomando decisiones, y no tienes forma de auditarlas. Y eso, en educación, es inaceptable. Porque las decisiones que toma una IA pueden tener un impacto enorme en la trayectoria educativa de un alumno. Y si esas decisiones están sesgadas, o están basadas en datos incorrectos, o están reproduciendo desigualdades… entonces estamos fallando. Y estamos fallando de una forma que puede ser muy difícil de detectar y corregir.

Segundo principio: los datos del alumnado no son tuyos (y no son negociables)

Esto debería ser obvio, pero no lo es. Los sistemas de IA en educación a menudo dependen de recopilar y analizar grandes cantidades de datos sobre estudiantes, lo que plantea preguntas sobre cómo se almacenan esos datos, quién tiene acceso a ellos, y cómo se usan, con riesgos de violaciones de privacidad y mal uso de datos. Y esto no es teoría. Hay investigaciones que muestran que el 51.2% del profesorado y el 47.5% del alumnado expresan preocupación sobre la privacidad y seguridad de los datos.

Y cuando usas una herramienta de IA gratuita (ChatGPT, por ejemplo), estás dando acceso a esos datos a una empresa privada. Y esa empresa puede usar esos datos para entrenar sus modelos, para venderlos a terceros, o para lo que le dé la gana. Y eso, en educación, no es aceptable. Porque los datos del alumnado no son tuyos. No son de la plataforma. Son del alumnado. Y tienen derecho a saber qué se está haciendo con ellos, quién tiene acceso, y cómo se están usando.

Y esto tiene implicaciones prácticas muy concretas. Por ejemplo, si vas a pedir a tu alumnado que use una herramienta de IA, tienes que leer la política de privacidad. Tienes que explicarles qué datos van a recoger. Y tienes que darles la opción de no usarla si no se sienten cómodos. Porque antes de asignar proyectos que involucren chatbots de IA, es necesario revisar la política de privacidad de la herramienta y considerar qué beneficio se está proporcionando al desarrollador al requerir que los estudiantes realicen trabajo gratuito para mejorar el algoritmo. Y esto, que parece tan obvio, se olvida constantemente.

Tercer principio: los algoritmos reproducen sesgos (y tienes que estar atento)

Uno de los problemas más graves de la IA en educación es el sesgo algorítmico. Porque los sistemas educativos de IA pueden estar sujetos a sesgos, dependiendo de cómo se entrenan y con qué datos, y un sistema de tutoría de IA podría potencialmente favorecer a ciertos tipos de estudiantes sobre otros, perpetuando sesgos y desigualdades existentes. Y esto no es algo teórico. Hay estudios que documentan cómo las prácticas algorítmicas replican desigualdades de género, clase y etnia, debido a la homogeneidad de los datos de entrenamiento y al diseño tecnocrático de las herramientas de IA.

Y yo lo he visto. He visto herramientas de evaluación automática que penalizan a alumnado con un estilo de escritura diferente. He visto sistemas de recomendación que ofrecen contenidos más avanzados a niños y contenidos más básicos a niñas. He visto algoritmos que clasifican como "de riesgo" a alumnado de contextos socioeconómicos bajos. Y todo eso son sesgos. Sesgos que están reproduciendo desigualdades. Y que, si no los detectamos y corregimos, se van a amplificar.

Y aquí está el problema: muchos docentes no tienen las herramientas para detectar estos sesgos. No saben cómo auditar un algoritmo, no saben cómo identificar si una herramienta está siendo injusta. Y eso nos deja en una posición muy vulnerable. Porque estamos delegando decisiones importantes en sistemas que no entendemos, y que pueden estar reproduciendo exactamente las desigualdades que se supone que la educación tiene que combatir.

Cuarto principio: la IA no toma decisiones finales (las tomas tú)

Una de las cosas que me parece más peligrosa de la IA en educación es la tentación de delegar el criterio pedagógico en la máquina. Y esto pasa. Pasa cuando un docente ve que una plataforma de evaluación automática le dice que un alumno tiene un nivel bajo, y da por hecho que es así, sin contrastarlo. Pasa cuando un sistema de tutoría inteligente recomienda un itinerario de aprendizaje, y el docente lo aplica sin cuestionarlo. Pasa cuando una herramienta de análisis de aprendizaje marca a un alumno como "de riesgo", y se toman decisiones sobre ese alumno sin pararse a pensar si el algoritmo está en lo cierto.

Y esto es peligroso porque la IA refleja y ejemplifica la toma de decisiones humana, lo que refuerza la necesidad de que los humanos den un paso al frente y asuman la responsabilidad y el control, ya que los sistemas inteligentes que toman decisiones y actúan en base a ellas tienen implicaciones éticas. La IA puede ayudar. Puede ofrecer información valiosa. Puede detectar patrones que yo no veo. Pero la decisión final siempre, siempre, tiene que ser del docente. Porque la IA no tiene contexto. No conoce al alumno. No sabe qué está pasando en su vida. Y no tiene la responsabilidad ética de tomar decisiones que afectan a la trayectoria educativa de una persona.

Y esto requiere un cambio de mentalidad. Porque la IA es muy convincente. Te da números, te da gráficos, te da informes que parecen muy científicos. Y es fácil caer en la trampa de pensar que, porque viene de un algoritmo, es objetivo. Pero no lo es. Es una herramienta. Una herramienta que puede estar mal diseñada, mal entrenada, o mal aplicada. Y la responsabilidad de detectar eso, y de corregirlo, es nuestra.

Quinto principio: la IA tiene que servir al aprendizaje (no al control)

Y aquí vuelvo al principio: si no sabes para qué usas la IA, ya estás fallando. Porque la IA debe usarse con un objetivo claro y basado en la investigación para mejorar el aprendizaje y evitar su implantación sin estrategia. Y esto es lo que marca la diferencia entre una IA que ayuda y una IA que estorba (o que, directamente, hace daño).

Porque hay usos de la IA que están orientados al aprendizaje: personalizar contenidos, ofrecer feedback inmediato, adaptar el ritmo a las necesidades de cada alumno. Y hay usos de la IA que están orientados al control: vigilar al alumnado, monitorizar cada clic, cada movimiento, cada interacción. Y eso, en educación, no es aceptable. Porque aunque la IA puede automatizar algunas tareas, no puede reemplazar la interacción humana y el apoyo emocional que proporcionan los docentes, y existe preocupación de que la dependencia excesiva de la IA pueda erosionar la relación docente-estudiante.

Y yo lo tengo claro: no voy a usar IA para vigilar a mi alumnado. No voy a usar sistemas que monitorizan cada movimiento, que analizan patrones de comportamiento, que generan perfiles de riesgo. Porque eso no es educación. Eso es control. Y el control genera miedo, no confianza. Y sin confianza, no hay aprendizaje.

No se trata de prohibir, se trata de tener criterio

Después de todo esto, alguien podría pensar que estoy en contra de la IA en educación. Y no lo estoy. Yo la uso. Y creo que puede aportar muchísimo. Pero solo si la usamos con criterio, con ética, y con un propósito claro. Porque la transparencia y responsabilidad en los procesos de recolección, análisis e informe de datos, así como los procesos de establecimiento, seguimiento y control de las normas de IA en educación deben ser transparentes, accesibles y explicables.

Y eso requiere formación. Requiere marcos éticos claros. Requiere mecanismos de control y de auditoría. Y requiere que los docentes tengamos voz en las decisiones sobre qué herramientas se implementan, cómo se usan, y para qué. Porque ahora mismo, muchas de esas decisiones se están tomando desde arriba, sin consultar a quienes estamos en el aula, y sin tener en cuenta las implicaciones éticas que tienen.

Y mientras eso no cambie, vamos a seguir viendo implementaciones de IA que suenan muy bien sobre el papel pero que, en la práctica, generan más problemas de los que resuelven. Porque la tecnología sin ética no es innovación. Es, en el mejor de los casos, un experimento mal diseñado. Y en el peor, una forma de reproducir y amplificar las desigualdades que se supone que la educación tiene que combatir.

Así que sí, usemos IA en educación. Pero usémosla bien. Con criterio, con formación, con ética. Y siempre, siempre, poniéndola al servicio del aprendizaje del alumnado, no al servicio del control, de la eficiencia administrativa, o de los intereses comerciales de las empresas que desarrollan estas herramientas

Gracias por leerme