Ana Henríquez Orrego
Académica del Observatorio IA en Educación
La inteligencia artificial ya forma parte de la vida académica cotidiana. Está en la preparación de clases, en la búsqueda de información, en la escritura de textos, en la resolución de problemas, en la retroalimentación automatizada y en las preguntas que estudiantes y docentes formulan todos los días frente a una pantalla. La discusión educativa, por tanto, necesita avanzar desde la pregunta inicial —si usar o no usar IA— hacia una pregunta más exigente: qué parte del pensamiento humano estamos dispuestos a delegar y qué parte debemos proteger como núcleo del aprendizaje.

Esa distinción es decisiva. Una herramienta puede apoyar el aprendizaje, ampliar posibilidades, reducir carga innecesaria y permitir que una persona se concentre en tareas de mayor complejidad. Pero también puede producir el efecto contrario: entregar respuestas tan rápidas, completas y convincentes que el estudiante deje de hacer precisamente aquello que le permite aprender. En educación, el resultado visible no siempre equivale a aprendizaje real. Una buena respuesta puede ocultar un proceso cognitivo débil; un texto bien redactado puede encubrir falta de comprensión; una solución correcta puede haber sido obtenida sin razonamiento propio.
Diversos trabajos recientes ayudan a mirar este fenómeno con mayor precisión. Jason M. Lodge y Leslie Loble han desarrollado una advertencia clave en torno a la delegación cognitiva. Su planteamiento distingue entre una delegación beneficiosa, donde la IA ayuda a reducir carga secundaria —por ejemplo, ordenar información, corregir aspectos formales o apoyar una revisión inicial—, y una delegación perjudicial, donde la herramienta reemplaza el esfuerzo necesario para construir conocimiento. La diferencia parece sutil, pero educativamente es enorme. Una cosa es usar IA para mejorar una explicación ya pensada; otra muy distinta es pedirle que piense, estructure, argumente, verifique y concluya por nosotros.
El aprendizaje profundo requiere esfuerzo. Requiere recuperar información, equivocarse, comparar, justificar, revisar, reformular, volver a intentar. Son procesos menos eficientes que recibir una respuesta inmediata, pero son los que construyen comprensión duradera. Por eso resulta tan importante el concepto de paradoja del desempeño: la IA puede mejorar el rendimiento inmediato en una tarea y, al mismo tiempo, debilitar el aprendizaje de largo plazo. El estudiante resuelve mejor mientras está asistido, pero aprende menos si no realiza el trabajo mental que sostiene esa resolución.
El aporte de Steven D. Shaw y Gideon Nave profundiza esta preocupación desde la teoría del razonamiento. Ellos proponen pensar la IA como un “tercer sistema” cognitivo: junto al pensamiento rápido e intuitivo y al pensamiento lento y deliberativo, emerge una cognición artificial externa capaz de influir en nuestras decisiones. Esta IA puede apoyar el razonamiento, ofrecer alternativas, ayudar a detectar contradicciones o ampliar perspectivas. Pero también puede ocupar el lugar del juicio humano. Los autores llaman a este fenómeno renuncia cognitiva: aceptar la respuesta de la IA con mínima verificación crítica, como si la salida del sistema fuera automáticamente nuestro propio pensamiento.
Este punto tiene profundas implicancias educativas. Si el estudiante consulta IA, recibe una respuesta fluida y la adopta sin examinarla, el problema no es solo de autoría o integridad académica. Es un problema de formación del juicio. La pregunta ya no es únicamente quién escribió un texto, sino quién pensó, quién evaluó, quién decidió, quién verificó. La IA puede aumentar la confianza incluso cuando la respuesta es incorrecta. Allí aparece una zona particularmente delicada: una tecnología que habla con seguridad puede hacer que una persona dude menos justo cuando debería examinar más.
Grace Liu, Brian Christian, Tsvetomira Dumbalska, Michiel A. Bakker y Rachit Dubey agregan otra evidencia relevante: la asistencia de IA puede mejorar el rendimiento durante la tarea, pero afectar el desempeño independiente cuando la herramienta desaparece. Sus experimentos muestran efectos preocupantes en persistencia y resolución autónoma. Después de breves interacciones asistidas, los participantes tendían a rendir peor sin IA y a abandonar con mayor frecuencia. La conclusión educativa es clara: un apoyo que siempre entrega la respuesta completa puede enseñar, indirectamente, a dejar de intentar.
Este hallazgo es especialmente importante para el diseño de tutores, asistentes y herramientas educativas basadas en IA. Un buen tutor humano no responde todo de inmediato. Observa, pregunta, da pistas, calibra la dificultad, decide cuándo intervenir y cuándo dejar que el estudiante trabaje. La ayuda pedagógica de calidad no consiste en eliminar todo esfuerzo, sino en sostener el esfuerzo adecuado. Por eso, si una IA educativa se limita a entregar soluciones completas, rápidas y agradables, puede ser eficiente para terminar tareas, pero pobre para formar autonomía.
El desafío institucional, entonces, es mayor que regular el plagio. Las instituciones educativas necesitan definir con claridad qué usos de IA fortalecen el aprendizaje y cuáles lo sustituyen. Esto exige revisar currículos, metodologías y evaluaciones. También requiere enseñar explícitamente a los estudiantes a usar la IA como apoyo formativo: para preguntar mejor, contrastar ideas, identificar errores, solicitar explicaciones alternativas, revisar argumentos y verificar fuentes. La IA como oráculo empobrece; la IA como espejo cognitivo puede enriquecer.
Las evaluaciones también deben cambiar. Si lo único que se observa es el producto final, será cada vez más difícil saber qué aprendió realmente el estudiante. Se requieren evidencias de proceso: bitácoras, borradores, defensas orales, comparación entre respuesta propia y respuesta generada, análisis de errores, justificación de decisiones, instancias con IA y sin IA. La competencia profesional no se demuestra solo entregando un resultado correcto, sino explicando por qué ese resultado es pertinente, cómo fue construido, qué criterios lo sostienen y qué límites tiene.
La formación docente ocupa aquí un lugar central. El profesorado necesita criterios para decidir cuándo la IA puede apoyar el aprendizaje y cuándo puede reemplazarlo. Necesita diseñar tareas que conserven la exigencia cognitiva, que promuevan deliberación y que mantengan activa la metacognición. También necesita acompañamiento institucional, orientaciones claras y espacios de experimentación responsable. La respuesta educativa madura no pasa por demonizar la tecnología ni por celebrarla acríticamente, sino por integrarla con propósito pedagógico.
La equidad es otro punto decisivo. Los estudiantes con mayor conocimiento previo, mejores hábitos de estudio y mayor autorregulación suelen estar en mejores condiciones para usar la IA críticamente. Pueden pedir mejores respuestas, detectar errores, comparar alternativas y verificar. En cambio, quienes tienen menor base conceptual pueden depender más de la herramienta y aprender menos. Así, la IA puede abrir una nueva brecha: no solo digital, sino metacognitiva. La diferencia estará entre quienes saben pensar con la IA y quienes terminan pensando a través de ella sin advertirlo.
Por eso, la educación del presente tiene una tarea urgente: formar personas capaces de usar IA sin entregar su agencia cognitiva. Esto implica enseñar a verificar, persistir, preguntar, argumentar, desconfiar razonablemente, revisar y decidir. La autonomía intelectual no se protege alejando a los estudiantes de la tecnología, sino enseñándoles a relacionarse con ella de manera exigente.
La IA puede ser una aliada poderosa para la educación. Puede ampliar el acceso, personalizar apoyos, generar recursos, acompañar procesos y abrir nuevas formas de interacción con el conocimiento. Pero su valor dependerá del diseño pedagógico que la contenga. La pregunta de fondo no es si la IA responde bien. La pregunta verdaderamente educativa es si, al usarla, el estudiante comprende mejor, piensa mejor, persiste más, verifica con mayor rigor y desarrolla mayor autonomía.
Conviene profundizar en los trabajos de Jason M. Lodge y Leslie Loble sobre delegación cognitiva e implicancias educativas; en la propuesta de Steven D. Shaw y Gideon Nave sobre el tercer sistema cognitivo y la renuncia cognitiva; y en la investigación de Grace Liu, Brian Christian, Tsvetomira Dumbalska, Michiel A. Bakker y Rachit Dubey sobre asistencia de IA, persistencia y desempeño independiente. Estos autores entregan una base robusta para una conversación que la educación ya no puede postergar: cómo enseñar a pensar con IA sin dejar de pensar.
Fuentes base revisadas: Lodge y Loble abordan la delegación cognitiva, la falsa maestría y la necesidad de una respuesta pedagógica estructurada; Shaw y Nave proponen la teoría de tres sistemas y evidencian la renuncia cognitiva; Liu et al. presentan experimentos sobre menor persistencia y desempeño independiente tras asistencia con IA.





