101/365 · Mis 5 principios para usar IA en el aula
Descubre los 5 principios de Luis para usar IA en el aula de forma ética y responsable. Utilidad, privacidad y accesibilidad en educación.
Llevo 100 días escribiendo cada día. Y una de las cosas que más he escrito es sobre IA. Porque la uso, porque me parece una herramienta potente, y porque creo que puede aportar mucho a la educación. Pero también porque me preocupa. Me preocupa ver cómo se está implementando sin criterio, sin reflexión, sin preguntarse si lo que estamos haciendo tiene sentido pedagógico, ético, o simplemente humano. Y después de tanto escribir, de tanto pensar, de tanto probar cosas en mi aula de tercero, he llegado a tener claro cuáles son mis cinco principios no negociables para usar IA en educación. No son los de la UNESCO (aunque coinciden en parte), no son los de ningún marco teórico. Son los míos. Los que aplico cada día. Y los que uso como filtro para decidir si una herramienta entra en mi aula o no.
Y hoy, en el post 101, me parecía importante compartirlos. Porque después de 100 días reflexionando sobre mi práctica, estos cinco principios son los que me permiten usar IA sin perder el norte. Sin olvidar que, al final, lo importante no es la tecnología. Es el alumnado.
Primer principio: utilidad real (o si no resuelve un problema, no lo metas)
El primer filtro que aplico a cualquier herramienta de IA es: ¿esto resuelve un problema pedagógico real? Y cuando digo real, digo real. No me vale "es que es muy moderna" o "es que todos la están usando". Me vale: esto me permite adaptar contenidos de forma más eficaz, esto me da feedback inmediato que sin la IA me llevaría horas, esto permite a mi alumnado acceder al contenido de formas que antes no podían. Y si no puedo responder con algo así de concreto, entonces no la uso.
Porque la guía de la UNESCO subraya que, aunque la IAGen tiene el potencial de transformar la enseñanza y el aprendizaje, es fundamental que su uso se guíe por principios éticos y pedagógicos. Y el primer principio pedagógico es que la herramienta tiene que servir para algo. Tiene que tener utilidad. Y esa utilidad no puede ser "me ahorra tiempo a mí" (que también está bien, eh, no voy a negarlo). Tiene que ser, ante todo, "ayuda a mi alumnado a aprender mejor".
Y esto lo aplico constantemente. Uso IA para crear versiones adaptadas de textos, porque eso me permite que todo mi alumnado acceda al mismo contenido con diferentes niveles de complejidad. Uso IA para generar rúbricas, porque me ayuda a tener criterios claros y compartidos. Pero no uso IA para corregir exámenes automáticamente, porque ahí pierdo información valiosa sobre cómo está aprendiendo cada alumno. Y no uso IA para generar actividades completas, porque eso es delegar mi criterio pedagógico en una máquina que no conoce a mi alumnado.
Segundo principio: cero datos personales (esto no es negociable)
El segundo principio es el más importante para mí: nunca, nunca, nunca meto datos personales de mi alumnado en una herramienta de IA que no controlo completamente. Y cuando digo nunca, es nunca. Porque la protección de datos enfatiza la importancia de preservar la confidencialidad de los datos de los estudiantes, abarcando información confidencial como nombres, números de seguro social, calificaciones y otros detalles personales. Y esos datos no son míos. Son del alumnado. Y no tengo derecho a compartirlos con una empresa privada, por muy buena que sea su política de privacidad.
Y esto tiene implicaciones muy concretas. Si voy a usar ChatGPT para generar un recurso, no incluyo nombres de alumnos. Si voy a usar una herramienta de evaluación automática, me aseguro de que los datos se procesan de forma anónima. Y si una herramienta me pide acceso a datos personales de mi alumnado como condición para funcionar, entonces no la uso. Punto. Porque según la UNESCO, solo el 16% de los países cuentan actualmente con políticas claras sobre la privacidad en la IA educativa. Y eso significa que la mayoría de herramientas que estamos usando no tienen garantías reales de protección de datos.
Y sí, esto me complica la vida. Porque hay herramientas muy potentes que requieren acceso a datos para funcionar. Pero no me importa. Prefiero complicarme la vida yo que poner en riesgo la privacidad de mi alumnado. Porque los datos de un niño de tercero de primaria no deberían estar en los servidores de una empresa que puede usarlos para entrenar sus modelos, venderlos a terceros, o lo que le dé la gana. Y punto.
Tercer principio: accesibilidad por diseño (no adaptar después, diseñar desde el principio)
El tercer principio tiene que ver con algo que he escrito muchas veces: la accesibilidad no es adaptar después, es diseñar desde el principio. Y esto aplica también a la IA. Porque es crucial evitar que las herramientas de IA refuercen desigualdades existentes, y los recursos educativos generados deben ser accesibles para todos los estudiantes, incluidos aquellos con discapacidades o en contextos vulnerables.
Y esto lo aplico de forma muy concreta. Si uso IA para generar un texto, me aseguro de que ese texto sea accesible: lenguaje claro, estructura ordenada, sin barreras innecesarias. Si uso IA para crear una actividad, pienso en cómo va a acceder a ella mi alumnado con dificultades de lectura, con problemas de atención, con menos familiaridad con la tecnología. Y si la herramienta genera recursos que solo funcionan para un perfil de alumno "estándar", entonces no me vale.
Porque la IA puede ser una herramienta muy potente para la inclusión. Pero solo si la usamos con ese propósito. Si no, puede ser exactamente lo contrario: una barrera más. Y yo ya tengo suficientes barreras en mi aula como para añadir otra.
Cuarto principio: local first (mis datos, en mi dispositivo)
El cuarto principio es más técnico, pero para mí es fundamental: siempre que puedo, uso herramientas que funcionan en local. Es decir, herramientas donde los datos se almacenan y procesan en el dispositivo del usuario, mejorando la seguridad, privacidad, control de datos, y permitiendo trabajar offline. Y esto, en educación, es oro.
Porque cuando uso una herramienta local-first, los datos de mi alumnado no salen de mi dispositivo. No van a la nube, no pasan por servidores de terceros, no se usan para entrenar modelos. Están en mi ordenador, bajo mi control. Y eso me da una tranquilidad que no tengo con herramientas en la nube. Porque el software local-first almacena datos en el dispositivo del usuario por defecto, y la nube, cuando se usa, actúa como una copia de seguridad o herramienta de sincronización, no como almacenamiento primario.
Y sí, esto limita las opciones. Porque muchas de las herramientas de IA más potentes están en la nube. Pero cada vez hay más alternativas locales. Y cuando las hay, las uso. Porque prefiero tener menos funcionalidades y más control, que tener todas las funcionalidades del mundo y cero control sobre dónde están mis datos y qué se hace con ellos.
Y esto conecta directamente con el segundo principio: si los datos no salen de mi dispositivo, no pueden ser usados de forma indebida. No pueden ser vendidos, no pueden ser filtrados, no pueden ser usados para entrenar modelos sin mi consentimiento. Y eso, en educación, debería ser el estándar. No la excepción.
Quinto principio: privacy first (la privacidad por defecto, no como añadido)
Y el quinto principio es privacy first: la privacidad no es algo que añades después, es algo que diseñas desde el principio. Y esto significa construir la privacidad en la arquitectura y operaciones de los sistemas por defecto, no como una idea tardía, anticipando, previniendo y minimizando los riesgos de privacidad en lugar de solo reaccionar a ellos.
Y esto lo aplico preguntándome siempre: ¿esta herramienta recoge solo los datos que necesita, o recoge todo lo que puede? ¿Me permite controlar qué datos se comparten y con quién? ¿Tiene opciones claras de privacidad, o están escondidas en un menú que nadie encuentra? Y si la respuesta es que la herramienta recoge más datos de los necesarios, o que no me da control real, entonces no la uso.
Porque las plataformas educativas recopilan una cantidad significativa de datos personales, y deben proporcionar políticas de privacidad claras y comprensibles, que detallen cómo se recopilan, utilizan y protegen los datos de los estudiantes. Y si no lo hacen, es una señal de alarma. Una señal de que la privacidad no es una prioridad para esa herramienta. Y si no es una prioridad para ellos, no debería ser una opción para mí.
Estos principios son míos (pero deberían ser de todos)
Estos cinco principios no los he sacado de un manual. Los he ido construyendo a base de probar cosas, de equivocarme, de leer, de reflexionar, de darme cuenta de que algunas herramientas que usaba no cumplían con lo que yo consideraba ético. Y de escribir, cada día, sobre lo que hago y por qué lo hago. Porque estos 100 días de escritura me han obligado a poner palabras a cosas que antes eran solo intuiciones.
Y no digo que estos principios sean perfectos. No digo que sean los únicos válidos. Pero son los míos. Y son los que me permiten dormir tranquilo sabiendo que, cuando uso IA en mi aula, lo estoy haciendo de forma responsable. De forma ética. De forma que pone al alumnado en el centro, no a la tecnología.
Porque al final, el texto nos invita a reflexionar sobre el papel de la tecnología en la educación, destacando la necesidad de que las herramientas de IA complementen las habilidades humanas y no las sustituyan. Y eso, para mí, resume todo. La IA tiene que complementar, no sustituir. Tiene que ayudar, no complicar. Tiene que respetar, no invadir.
Y si una herramienta no cumple con estos cinco principios, entonces no entra en mi aula. Por muy moderna que sea. Por muy potente que parezca. Por mucho que la usen otros centros. Porque mi responsabilidad no es estar a la última. Es proteger a mi alumnado. Y enseñarles que la tecnología es una herramienta, no un fin. Y que hay decisiones que no se pueden delegar en una máquina. Y que la privacidad, la ética, y el respeto no son opcionales. Son fundamentales.
Nos vemos mañana.