102/365 · Cosas en las que no uso IA

Docente de primaria comparte qué NUNCA hace con IA en clase. Límites éticos, privacidad y protección de menores en educación.

Ayer escribía sobre mis cinco principios para usar IA en el aula. Y hoy toca la otra cara: lo que NO hago. Porque una cosa es tener principios, y otra es aplicarlos de verdad cuando tienes delante a niños y niñas de ocho y nueve años. Y cuando trabajas con menores (especialmente con menores de primaria), hay líneas rojas que no se cruzan. Nunca. Por muy útil que parezca la herramienta, por muy moderna que sea, por mucho que otros centros la estén usando. Hay cosas que no se hacen. Y punto.

Y esto lo digo porque veo constantemente cómo se implementan herramientas de IA en aulas de primaria sin que nadie se haya parado a preguntarse si eso es ético, si es legal, o si es simplemente seguro para el alumnado. Y no estoy hablando de casos extremos. Estoy hablando de cosas que pasan cada día: plataformas que recogen datos de menores sin consentimiento explícito, herramientas que analizan comportamientos sin que las familias lo sepan, apps que piden acceso a cámaras y micrófonos sin justificación pedagógica clara. Y todo eso, en nombre de la "innovación educativa".

Nunca subir imágenes, voces o vídeos de mi alumnado a una IA pública

La primera línea roja es clara: nunca, nunca, nunca subo imágenes, voces o vídeos de mi alumnado a una herramienta de IA. Y cuando digo completamente, es completamente. No me vale que la política de privacidad diga que "los datos están seguros". No me vale que la empresa prometa que "no los van a usar para entrenar modelos". No me vale nada que no sea: estos datos se procesan en local, no salen de mi dispositivo, y yo tengo control total sobre ellos. Precisamente, este es el punto de partida de todo este proyecto: EDUmind y el modelo de entrenamiento para ia local que estoy desarrollando, se basan en esto, en tener el control de datos.

Y esto no es paranoia. Es que el Anteproyecto de Ley Orgánica para la protección de menores tipifica como delitos los deepfakes pornográficos, es decir, la difusión, sin autorización, de imágenes o audio generado por inteligencia artificial. Y aunque esto se refiera a casos extremos, la realidad es que un alumno o alumna de cada aula en al menos 11 países reconoció haber sido afectado por imágenes hiperrealistas generadas por IA con contenido sexual explícito, afectando a 1.2 millones de niños y adolescentes.

¿Y qué significa esto en la práctica? Que si voy a usar una herramienta de IA para analizar una actividad de mi alumnado, esa actividad no puede contener fotos, voces, ni vídeos. Y si necesito usar esos materiales para algo, entonces no uso IA. O uso una herramienta local, que procese los datos en mi dispositivo, sin subirlos a ningún servidor. Porque la nueva normativa eleva de 14 a 16 años la edad mínima a la que se puede dar consentimiento al tratamiento de datos personales, y mi alumnado tiene ocho y nueve años. Ni siquiera pueden consentir legalmente que se procesen sus datos. Y aunque pudieran, yo no lo haría.

Nunca usar herramientas de IA que recojan datos sensibles sin consentimiento claro

La segunda línea roja: no uso herramientas de IA que recojan datos sensibles de mi alumnado sin consentimiento explícito de las familias. Y cuando digo datos sensibles, no me refiero solo a nombre y apellidos. Me refiero a todo lo que permite identificar a una persona: nombre, edad, dirección, una fotografía en la que se identifique al menor, o datos de salud.

Y aquí está el problema: muchas herramientas de IA no cumplen con las leyes de protección de datos, no informan lo que harán con la información que recogen y no restringen ni verifican las edades de los usuarios ni el acceso de los niños. Y eso significa que si pido a mi alumnado que use una herramienta de IA (un chatbot, un generador de texto, lo que sea), tengo que asegurarme de que esa herramienta no está recogiendo datos que no debería recoger. Y si no puedo asegurarlo, entonces no la uso. Por esto, he desarrollado herramientas como robotics.edumind.es; donde mi alumnado puede interactuar con vibe coding con una ia local para los modelos NEzHA o MicroBIT que tenemos en Polos Creativos.

Y sí, esto complica las cosas. Porque la mayoría de herramientas "gratuitas" de IA funcionan así: recopilan datos, los usan para entrenar sus modelos, y a cambio te ofrecen un servicio sin coste. Pero ese modelo no es compatible con trabajar con menores. Porque cuando se utilizan herramientas de IA, recopilan grandes cantidades de datos sensibles de menores: desde hábitos, preocupaciones, problemas o intereses, hasta ubicación, y estos datos pueden utilizarse después no solo para publicidad dirigida, sino que podrían incluso condicionar su futuro.

Nunca permitir que mi alumnado use IA para "desahogarse emocionalmente"

La tercera línea roja es más sutil, pero igual de importante: no permitiría que mi alumnado use IA como sustituto de apoyo emocional. Y esto lo digo porque hay una tendencia preocupante: la IA está siendo entrenada para simular empatía, y los jóvenes acuden a chatbots para desahogarse emocionalmente o para pedir consejo cuando tienen un dilema, pero esto aumenta su aislamiento, ya que la IA no tiene comprensión real.

Y en primaria esto empieza a verse. Hay niños y niñas que, cuando tienen un problema, prefieren preguntarle a un chatbot antes que hablar con un adulto. Y eso es un problema. Porque un chatbot no detecta señales de riesgo, no puede derivar a un profesional si hace falta, y no puede ofrecer el acompañamiento real que un niño necesita cuando está pasándolo mal. Y normalizar ese uso desde primaria es preparar el terreno para que, en secundaria, la dependencia emocional de la IA sea ya un problema estructural.

Nunca usar IA para vigilar o monitorizar comportamientos sin justificación pedagógica clara

La cuarta línea roja: no usar IA para vigilar al alumnado. Y esto incluye sistemas de reconocimiento facial, análisis de comportamiento, monitorización de atención, o cualquier cosa que implique recoger datos sobre cómo se comporta un alumno sin que haya una razón pedagógica clara y justificada.

Porque sistemas de IA instalados en escuelas pueden utilizar tecnologías de reconocimiento facial para monitorear a los menores, lo que genera preocupaciones sobre vigilancia masiva, pérdida de privacidad y normalización de la supervisión constante desde la infancia. Y eso, en educación, no es aceptable. Porque el aula tiene que ser un espacio seguro, no un espacio vigilado. Y si normalizamos la vigilancia desde primaria, estamos construyendo una generación que va a aceptar que estar constantemente monitorizado es algo normal. Y no lo es.

Y sí, hay herramientas que prometen "mejorar la atención del alumnado" o "detectar problemas de aprendizaje" mediante análisis automatizado de comportamiento. Y pueden parecer útiles. Pero la realidad es que los algoritmos que evalúan el desempeño escolar, asignan contenidos o moderan plataformas pueden estar entrenados con datos sesgados, afectando negativamente a grupos vulnerables como niños con discapacidad, migrantes o minorías étnicas.

Nunca delegar en la IA decisiones sobre el alumnado sin contrastarlas

Y la quinta línea roja: nunca, nunca, nunca dejaría que la IA tome decisiones sobre mi alumnado sin contrastarlas. Porque uno de los riesgos es el profiling, donde algoritmos etiquetan a estudiantes como "de bajo rendimiento", limitando potencialmente su acceso a oportunidades avanzadas de aprendizaje o becas.

Y esto pasa cuando una plataforma de IA te dice que un alumno tiene "riesgo de fracaso escolar" y tú das por hecho que es verdad. Pasa cuando un sistema de evaluación automática te dice que un alumno no ha alcanzado un criterio, y tú no contrastas esa información con lo que has observado en clase. Pasa cuando delegas tu criterio pedagógico en una máquina que no conoce a tu alumnado, que no sabe qué está pasando en su vida, y que no tiene la responsabilidad ética de tomar decisiones que pueden condicionar su futuro.

Así que la pregunta es ¿uso IA para evaluar? No, no la uso. Lo que uso es la ia para agilizar procesos o crear bases de desarrollo de cuestionarios, presentaciones de contenidos que previamente selecciono, edito y organizo; formularios de preguntas que luego reviso... Pero la evaluación no es sólo esto, es tanto que no puede ser sustituida ahora mismo por IA. Al menos así lo pienso.

Esto no va de prohibir, va de proteger

Y después de todo esto, alguien podría pensar que estoy en contra de la IA en primaria. Y no lo estoy. Yo uso IA. La uso cada día. Pero la uso con criterio, con límites, y con la claridad de que mi responsabilidad no es estar a la última tecnológicamente. Es proteger a mi alumnado. Y eso significa decir que no a herramientas que, por muy útiles que parezcan, ponen en riesgo su privacidad, su seguridad, o su desarrollo emocional y cognitivo.

Porque la IA no es un enemigo: cuando se utiliza de forma adecuada es una herramienta poderosa, pero el verdadero peligro aparece cuando los menores la utilizan sin acompañamiento, sin límites y sin educación digital, y la clave no es prohibir, sino enseñar, educar, acompañar. Y eso significa que, antes de meter cualquier herramienta de IA en mi aula, me hago estas preguntas: ¿Esto respeta la privacidad de mi alumnado? ¿Cumple con la normativa de protección de datos? ¿Tiene un propósito pedagógico claro? ¿Puedo justificar su uso ante las familias sin tener que esconder nada? Y si la respuesta a cualquiera de esas preguntas es no, entonces no entra en mi aula.

Y esto no es ser anticuado. Es ser responsable. Porque trabajamos con menores. Y los menores no son usuarios beta de una tecnología experimental. Son personas en desarrollo, vulnerables, que confían en que los adultos que estamos a su alrededor vamos a protegerles. Y eso, a veces, significa decir que no. Aunque la herramienta parezca muy moderna, aunque otros centros la estén usando, aunque alguien desde arriba diga que "hay que innovar".

Porque al final, la innovación sin ética no es innovación.

Nos vemos mañana.