14/365 Explícame para ver si puedo ayudarte: La inversión del andamiaje en la colaboración con IA

La frase que lo cambió todo

En algún momento de mis conversaciones con inteligencia artificial, empecé a usar una frase que no había leído en ningún manual de prompting:

"Explícame por qué haces lo que haces, para ver si puedo ayudarte."

No recuerdo cuándo la usé por primera vez. No fue una estrategia consciente. Simplemente me salía natural, como cuando le pides a un alumno que te explique su razonamiento antes de corregirle.

Tardé meses en darme cuenta de lo extraña que era esa frase.

¿Ayudar a la IA? ¿Yo, que no sé programar, ayudando a un sistema que tiene más conocimiento técnico del que podré acumular en toda mi vida?

Y sin embargo, funcionaba. Las soluciones mejoraban. Los errores se reducían. Los resultados se ajustaban mejor a lo que realmente necesitaba.

La pregunta es: ¿por qué?


El andamiaje tradicional: el experto guía al novato

En educación hay un concepto fundamental que viene de Vygotsky: la zona de desarrollo próximo. Es ese espacio entre lo que alguien puede hacer solo y lo que puede hacer con ayuda de alguien más competente.

El andamiaje (scaffolding) es precisamente eso: el apoyo temporal que el experto proporciona al novato para que pueda realizar tareas que aún no domina. Un profesor que guía, un mentor que orienta, un manual que explica paso a paso.

La lógica es clara: el que sabe más, guía. El que sabe menos, sigue.

Cuando empezamos a usar IA generativa, asumimos esa misma lógica. La IA es el experto técnico. Nosotros somos los novatos. Ella sabe de código, de arquitecturas, de frameworks. Nosotros apenas sabemos qué queremos conseguir.

Entonces la IA debería guiarnos, ¿no?

Sí. Pero solo en parte.


La inversión: el novato guía al experto

Aquí está lo que descubrí sin buscarlo: en la colaboración efectiva con IA, el andamiaje se invierte.

La IA sabe infinitamente más que yo sobre programación. Puede escribir código en decenas de lenguajes, conoce patrones de diseño, detecta errores de sintaxis al instante.

Pero hay algo que la IA no puede saber: mi contexto.

No sabe que mis alumnos tienen seis años. No sabe que el gimnasio tiene mala cobertura wifi. No sabe que la directora es reacia a instalar aplicaciones. No sabe que el año pasado tuve un problema con una herramienta que recogía datos sin permiso. No sabe que necesito algo que funcione offline. No sabe que los pictogramas ARASAAC son importantes para un alumno con necesidades especiales.

Todo eso solo lo sé yo.

Y cuando pido a la IA que me explique su razonamiento —"¿por qué has elegido esta solución y no otra?"—, abro una ventana para aportar ese contexto.

"Vale, entiendo por qué propones una base de datos en la nube. Pero en mi caso no puedo depender de conexión estable. ¿Hay alternativa?"

De pronto, el novato técnico está guiando al experto hacia una solución mejor. No porque sepa más de programación, sino porque sabe más del problema real.


Transparencia bidireccional

Esa frase —"explícame para ver si puedo ayudarte"— activa algo que llamo transparencia bidireccional.

La IA me explica su razonamiento: por qué eligió esta estructura, qué alternativas descartó, qué supuestos asumió.

Yo le explico mi contexto: qué restricciones tengo, qué ha fallado antes, qué es innegociable.

Ambos vemos más claro.

Es como trabajar con un arquitecto brillante que nunca ha visitado el solar. Él sabe de estructuras, materiales, normativas. Pero tú sabes que el terreno tiene una pendiente que no aparece en los planos, que los vecinos son complicados, que el presupuesto es la mitad de lo que parece.

Si el arquitecto te explica por qué propone ciertas soluciones, tú puedes decirle: "Eso no va a funcionar aquí por X motivo". Y juntos llegáis a algo que ninguno habría encontrado solo.

Eso es exactamente lo que pasa cuando estableces este tipo de diálogo con IA.


El paradoxo: ayudar a quien sabe más

Parece contradictorio. ¿Cómo vas a ayudar tú a una IA que sabe más que tú?

La respuesta es simple: el conocimiento técnico no es el único conocimiento relevante.

La IA tiene conocimiento técnico. Tú tienes conocimiento contextual.

La IA sabe cómo resolver problemas genéricos. Tú sabes cuál es tu problema específico.

La IA puede generar cien soluciones. Tú sabes cuál de ellas funcionará en tu realidad concreta.

Tu ayuda no es técnica. Tu ayuda es contextual. Y esa ayuda es imprescindible.

Hay otra forma de ayuda que solo tú puedes dar: la validación en el mundo real. La IA puede predecir que algo funcionará. Pero solo tú puedes probarlo con alumnos reales, en un aula real, con todas las variables imprevistas que eso implica. Y cuando vuelves con feedback —"esto funcionó, pero aquello confundió a los niños"—, estás proporcionando información que la IA no tiene forma de obtener por sí misma.


Colaborar, no usar

Hay una diferencia profunda entre "usar una herramienta" y "trabajar con alguien".

Una herramienta la usas. Le das instrucciones, ejecuta, obtienes resultado. Martillo, clavo, pared. Fin.

Un colaborador es diferente. Aporta su perspectiva. Te cuestiona. Propone alternativas. Necesita entender el contexto para hacer bien su trabajo. Y tú necesitas entender su razonamiento para validar que va por buen camino.

Cuando le pido a la IA que me explique su razonamiento para ver si puedo ayudarle, la estoy tratando como colaborador, no como herramienta.

Y el resultado es diferente.

No porque la IA "sienta" nada. No porque haya una relación emocional. Simplemente porque esa forma de interactuar produce más información compartida, más ajuste mutuo, mejores soluciones.


Lo que aprendí sin saber que lo estaba aprendiendo

Llevo quince años enseñando. Quince años pidiendo a alumnos que me expliquen su razonamiento antes de corregirles. Quince años escuchando antes de intervenir.

No sabía que esa forma de trabajar se transfería a la IA.

Pero se transfiere.

Y quizás esa sea la lección más inesperada de todo esto: las habilidades que desarrollamos enseñando a humanos pueden ser exactamente las que necesitamos para colaborar con inteligencias artificiales.

No a pesar de no ser técnicos. Precisamente por eso.


Este artículo forma parte del Blog EDUmind, una serie sobre inteligencia artificial, educación y creación tecnológica desde la práctica docente.


Luis Vilela Acuña es docente de Educación Física en la Xunta de Galicia, creador del ecosistema educativo EDUmind

Read more