41/365 · El negocio invisible del Vibe Coding
Por Luis Vilela Acuña - serie EDUmind sobre vibe Coding, educación e ia
Hoy toca hablar de algo que muchos docentes pasamos por alto cuando creamos nuestras primeras apps con IA: dónde viven los datos. No el código. Los datos.
Porque crear una app en cinco minutos está bien. Pero si esa app recoge nombres, respuestas o registros de tu alumnado, alguien tiene que almacenarlos. Y ahí empieza el juego real.
El espejismo de la creación rápida
Cuando usas un asistente de IA para generar una aplicación educativa, el foco está en lo visible: la interfaz, los botones, las funciones. La experiencia es mágica. En minutos tienes algo funcional.
Pero detrás de esa magia hay una infraestructura invisible: bases de datos, servidores, políticas de almacenamiento. Y la mayoría de las veces, esos datos no están en tu ordenador. Están en la nube de alguien.
Dicho de otra forma: tú creas la app. Ellos alojan la información.
La hipótesis del negocio oculto
Google, Microsoft, Meta y otras grandes tecnológicas están invirtiendo millones en plataformas de desarrollo asistido por IA. ¿Por qué? ¿Solo para que creemos apps más rápido?
La clave está en el modelo de negocio. El verdadero valor no es que tú crees. Es que alojes. Cada app generada necesita una base de datos. Cada base de datos genera dependencia. Y esa dependencia, en educación, puede incluir datos sensibles de menores.
Esto no es menor. Porque cuando creas una app que recoge respuestas de un test, registros de asistencia o progresos individuales, esos datos tienen que cumplir con el RGPD. Y si el docente no sabe dónde están alojados, quién tiene acceso o bajo qué términos, estamos ante un problema legal y ético.
Un ejemplo real
Imagina que usas un generador de apps con IA para crear un cuestionario de autoevaluación emocional. Tus alumnos responden desde sus móviles. Todo funciona. Es rápido, visual, útil.
Pero ¿dónde están esas respuestas? ¿En Firebase de Google? ¿En un servidor europeo? ¿En EEUU? ¿Quién puede acceder a ellas? ¿Cuánto tiempo se conservan? ¿Las usa la plataforma para entrenar sus modelos de IA?
La mayoría de docentes no se hace estas preguntas. Y las plataformas no las ponen en primer plano.
El riesgo educativo
La diferencia fundamental entre crear una app personal y una app educativa es la responsabilidad. Cuando trabajas con menores, la protección de datos no es negociable.
El problema no es la herramienta. Es la dependencia silenciosa que generamos al no entender dónde se alojan los datos que recogemos.
Algunos riesgos concretos:
- Transferencias internacionales de datos sin consentimiento informado
- Almacenamiento indefinido en servidores privados
- Uso de datos educativos para entrenar modelos comerciales
- Falta de control real sobre la información del alumnado
Cuando lo pruebas con alumnado real, cambia todo. Porque ya no es un ejercicio técnico. Es una cuestión de derechos.
La alternativa: control desde el diseño
La solución no es dejar de crear apps. Es elegir bien dónde y cómo las alojas.
Opciones con mayor control docente:
- Bases de datos locales: SQLite, PouchDB o similares permiten almacenar datos en el dispositivo, sin enviarlos a servidores externos
- Servidores propios: Hosting europeo bajo control del centro educativo, con políticas claras de privacidad
- Plataformas educativas auditadas: Servicios que cumplen RGPD de forma explícita y transparente
- Código abierto: Soluciones donde puedes revisar qué hace realmente la app con los datos
En educación, el control manda. No basta con que la app funcione. Debe funcionar bajo tus condiciones.
Resumen
- Crear apps con IA es fácil. Alojar datos de forma ética es el verdadero reto
- El negocio no está en que generes código. Está en que uses sus servidores
- Con menores, la protección de datos no es opcional: es obligación legal y responsabilidad docente
- La alternativa pasa por entender dónde viven los datos y elegir infraestructuras con control real
Nos vemos en el día 41/365