108/365 · Uso IA para ayudarme con estos posts (y no, no me da vergüenza decirlo)

Descubre por qué uso IA para escribir mis posts educativos y cómo lo declaro transparentemente. Una reflexión honesta sobre la paradoja de transparencia.

Desde hace dos o tres años uso IA con cierta asiduidad. De hecho, estos artículos se generan en parte con IA, para lograr la capacidad de generar los 365 contenidos. Y no me escondo tras esto. La IA me ayuda a crear, colaborar, desarrollar... pero los contenidos, las ideas, el trabajo que hay detrás es mío. Y esto lo digo desde el principio porque fundamentalmente, esto se trata de transparencia, integridad, y responsabilidad. Y creo que hay que decirlo. Con normalidad. Sin vergüenza. Sin justificaciones excesivas. Porque usar IA para ayudarte no es hacer trampa. Es usar una herramienta. Como hace años, aquellos que usaban Google para localizar información en webs no eran "menos" que los que iban a leerla en enciclopedias físicas.

Pero aquí está el matiz, y es importante: las personas autoras son responsables de garantizar que la versión final del texto es original, y las personas autoras son responsables de la originalidad del contenido generado o asistido por IA. Y eso es exactamente lo que hago. La IA me ayuda. Pero el criterio, las decisiones, las ideas, la revisión, todo eso es mío. Y esa es la línea que separa usar IA de forma ética de usarla para hacer trampa.

La paradoja de la transparencia (o por qué da miedo decir "usé IA")

Y aquí está el problema: hay miedo. Miedo a decir "usé IA para esto". El uso de la IA generativa en la investigación académica genera una paradoja entre la transparencia y la credibilidad, y una investigación revela que declarar el uso de la IA, aunque ético, puede disminuir la confianza en el investigador, y la falta de directrices claras y el estigma asociado a la IA dificultan la adopción de la transparencia necesaria para garantizar la integridad científica.

He visto docentes que usan IA pero no lo dicen. He visto compañeros que generan recursos con IA y los comparten como si fueran 100% suyos. Y lo entiendo. Porque un estudio encontró que este efecto negativo persiste incluso cuando la declaración se mitiga con frases como "revisado por un humano" o "usado solo para corrección gramatical", y la mera mención de la IA es suficiente para desencadenar el sesgo negativo, y esto crea la esencia de la paradoja, en la que los investigadores que actúan con integridad son penalizados, mientras que quienes omiten información son recompensados con una percepción de mayor credibilidad en comparación.

Pero esa paradoja es exactamente la razón por la que hay que ser transparente. Porque si solo declaran su uso quienes tienen la valentía de hacerlo, entonces estamos creando un sistema donde la honestidad se penaliza y el silencio se premia. Y eso, en educación, es inaceptable.

¿Qué significa "usar IA" para crear contenido?

Y aquí está la cuestión clave que muchos no entienden: usar IA no significa copiar y pegar. Distinguimos entre uso obligatorio, opcional, e innecesario de declaración de IA, argumentando que la declaración debería ser obligatoria solo cuando el uso de IA es intencional y sustancial. Y en mi caso, el uso es intencional y sustancial. Pero no es sustitutivo.

Cuando escribo un post, empiezo con una idea. Una idea que viene de mi experiencia en el aula, de conversaciones con otros docentes, de cosas que leo, de situaciones que vivo. Esa idea es mía. Luego estructuro el contenido: qué quiero contar, en qué orden, qué ejemplos voy a usar, qué conexiones voy a hacer. Esa estructura es mía. Y luego uso IA para ayudarme a darle forma, a encontrar la mejor manera de expresar lo que quiero decir, a contrastar información, a ampliar detalles. Pero la decisión final sobre qué se publica, cómo se publica, y para qué se publica, siempre es mía.

Y las personas autoras son responsables de revisar y verificar cuidadosamente cualquier contenido generado por IA para evitar sesgos, errores o inexactitudes. Y eso es lo que hago. Cada post que publico, he escrito en gran medida, leído, lo he revisado, lo he contrastado. Y si hay un error, es mi responsabilidad. No de la IA.

Cómo declaro el uso de IA (sin complicarme la vida)

Y entonces, ¿cómo se declara? Porque las personas autoras deben declarar explícitamente en el apartado "Agradecimientos" el uso de cualquier herramienta de IA en la redacción o análisis de sus manuscritos. Y en contextos académicos formales, eso está bien. Pero en un blog, en un espacio más informal, la declaración puede ser más sencilla.

Yo lo digo desde el principio. En este post, en otros posts, en conversaciones con otros docentes: uso IA. La uso para estructurar contenido, para ampliar ideas, para contrastar información, para darle forma a lo que quiero decir. Y los estudiantes deben declarar su uso en lugar de citar o reconocer el uso, ya que es un algoritmo en lugar de una fuente. Y lo mismo aplica para docentes.

Y tanto estudiantes como académicos deben declarar de forma transparente y detallada el uso de herramientas de IA en sus producciones académicas, asegurando que su integración se realice de manera ética y acorde a los principios de transparencia, integridad y responsabilidad académica, y la declaración explícita implica especificar aspectos clave como la herramienta utilizada, incluyendo su nombre, versión y proveedor; la fecha de acceso a la misma; y el propósito para el cual fue empleada. Y eso es lo que intento hacer. No siempre con tanto detalle, pero sí con la claridad suficiente para que quien lea esto sepa que parte del proceso incluye IA.

Es como usar Google (pero mejor)

Y aquí está la analogía que uso siempre: hace 20 años, cuando alguien buscaba información en Google para un trabajo, ¿era trampa? No. Era usar una herramienta para acceder a información de forma más eficiente. Lo que era trampa era copiar y pegar sin citar. Pero usar Google para encontrar fuentes, para contrastar datos, para ampliar conocimiento... eso no era trampa. Era sentido común.

Pues con la IA pasa lo mismo. La IA es una herramienta que me permite acceder a información, estructurar contenido, explorar ideas. Pero no sustituye mi pensamiento. No sustituye mi criterio. No sustituye mi responsabilidad como autor. Y mientras eso sea así, usar IA no es hacer trampa. Es ser eficiente.

Y una buena regla general: declarar el uso si la IA ha cambiado o contribuido de manera significativa a tu escritura, y esto incluye asistencia de IA para reorganizar ideas, parafrasear secciones, o revisar y mejorar la claridad, y típicamente no necesitas declarar simples sugerencias de ortografía o formato. Y eso tiene sentido. Porque si usas un corrector ortográfico, no tienes que declararlo. Pero si usas IA para generar párrafos completos, entonces sí.

Lo que NO hago con IA (y es importante decirlo)

Y tan importante como decir lo que hago con IA, es decir lo que NO hago. El uso de IA no debe, bajo ninguna circunstancia, llevar a la manipulación de datos, plagio o violaciones de propiedad intelectual. Y eso es una línea roja.

No uso IA para inventar datos. No uso IA para generar citas falsas. No uso IA para atribuirme ideas que no son mías. Y no uso IA para crear contenido que luego presento como 100% mío sin reconocer que hubo asistencia tecnológica. Porque eso sí sería trampa. Y eso sí sería falta de integridad.

Y es esencial que autores, revisores y editores permanezcan vigilantes en mantener la integridad académica, particularmente cuando la IA está involucrada, y los autores deben verificar la precisión y adecuación del contenido generado por IA, asegurando que no comprometa la originalidad o validez de su trabajo. Y eso es exactamente lo que hago. Cada dato, cada referencia, cada afirmación que aparece en estos posts, la he contrastado. Y si hay un error, es mi error. No de la IA.

Por qué es importante normalizarlo

Y al final, esto va de normalizar. De que usar IA deje de ser algo que escondes y pase a ser algo que declaras con naturalidad. Porque la transparencia significa declarar claramente el uso de IA en tu trabajo. Y eso no te hace menos autor. Te hace un autor responsable.

Y si normalizamos la transparencia, entonces podemos empezar a tener conversaciones reales sobre cómo usar IA de forma ética. Podemos identificar buenas prácticas. Podemos detectar malas prácticas. Y podemos formar a nuestro alumnado en cómo usar estas herramientas de forma responsable. Porque si los docentes esconden su uso de IA, ¿cómo vamos a enseñar a nuestro alumnado a usarla con criterio?

Y según el Informe de Transformación Digital en Educación Superior 2025, el 78% de estudiantes universitarios utilizan regularmente herramientas de IA generativa en sus trabajos académicos, pero solo el 23% declara este uso de manera adecuada según los criterios de sus instituciones. Y eso es un problema. Un problema que solo se resuelve si los docentes damos ejemplo. Y dar ejemplo significa ser transparentes.

Esto no va de ser perfecto, va de ser honesto

Y para terminar: no pretendo tener la fórmula perfecta. No pretendo que mi forma de usar IA sea la única válida. Pero sí pretendo ser honesto. Y ser honesto significa decir: uso IA, la uso con criterio, y asumo la responsabilidad de lo que publico. Y si mañana alguien me dice que algo de lo que he escrito está mal, la responsabilidad es mía. No de la herramienta que usé para escribirlo.

Porque al final, el uso de herramientas de IA debe ser complementario al razonamiento y creatividad humana, y la declaración exige que los estudiantes y docentes declaren explícitamente su uso de IA, manteniendo la integridad académica y respetando la propiedad intelectual. Y eso es exactamente lo que intento hacer cada día. Con estos posts, con los recursos que creo, con las herramientas que uso en mi aula.

Así que sí, uso IA. Y lo digo con normalidad. Porque creo que la transparencia no es debilidad. Es responsabilidad. Y porque creo que normalizar el uso ético de la IA pasa por dejar de esconderlo y empezar a hablarlo. Con claridad, con criterio, y con honestidad.

Nos vemos mañana.