Por Ana Henríquez Orrego Directora de Auditorías Académicas, Universidad de Las Américas (Chile)
Hoy comparto con ustedes el video de la presentación sobre “Usos de la Inteligencia Artificial en contextos educativos”, realizada el 17 de junio y organizada por el Observatorio de Inteligencia Artificial de la Universidad de Las Américas.
En esta instancia tuve la oportunidad de compartir reflexiones, enfoques y ejemplos concretos sobre cómo la inteligencia artificial generativa puede ser integrada de manera pedagógica, ética y estratégica en los distintos niveles y roles del sistema educativo. A lo largo de la presentación abordé los siguientes temas:
Comparto presentación realizada en Jornada “IA en Educación” – 17 de junio de 2025
PPT Presentación en PDF
Comparto con ustedes la presentación que expuse el 17 de junio durante la jornada “Inteligencia Artificial en Educación”, organizada por el Observatorio de Inteligencia Artificial de la Universidad de Las Américas y el Laboratorio de Hospitalidad Digital. En esta instancia reflexionamos colectivamente sobre los desafíos, oportunidades y responsabilidades que implica la integración de la IA generativa en contextos educativos. La exposición tuvo como objetivo promover un enfoque ético, pedagógico y estratégico del uso de estas tecnologías emergentes.
El Ministerio de Educación de Chile, a través del Centro de Perfeccionamiento, Experimentación e Investigaciones Pedagógicas (CPEIP) y el Centro de Innovación, presentó oficialmente el Marco Orientador de Competencias Digitales Docentes, un documento estratégico que busca fortalecer el desarrollo profesional de los docentes frente a los desafíos de la transformación digital en el sistema educativo chileno.
Este nuevo marco responde a una necesidad urgente y ampliamente reconocida: acompañar al profesorado en el proceso de integración crítica, ética y pedagógica de las tecnologías digitales en sus prácticas docentes. La pandemia evidenció las profundas brechas existentes en materia de acceso, uso y formación en tecnologías, y aceleró un proceso de digitalización educativa que exige respuestas sistémicas. En ese contexto, el marco se configura como una herramienta de política pública clave, orientada a fortalecer la calidad de la enseñanza y la equidad en el acceso al conocimiento en entornos digitales.
En un contexto donde las instituciones de educación superior enfrentan el desafío de consolidar sistemas internos de aseguramiento de la calidad, la auditoría académica emerge como una práctica con alto potencial técnico y formativo. Lejos de constituirse como un instrumento punitivo o exclusivamente fiscalizador, su valor radica en la posibilidad de observar con rigor cómo se están desplegando los procesos misionales, de identificar brechas con base en evidencia y de contribuir a decisiones estratégicas fundamentadas. En este sentido, las auditorías académicas pueden ofrecer una vía concreta para articular mejora continua, análisis técnico y cultura evaluativa en sintonía con los compromisos institucionales y los marcos regulatorios vigentes.
Esta propuesta metodológica ha sido construida desde la observación directa, el análisis comparado de experiencias nacionales e internacionales, y el ejercicio continuado de auditorías académicas internas a lo largo de los últimos años. En los distintos casos revisados, se constata que no existe una definición única ni un modelo obligatorio para su implementación: cada institución ha desarrollado enfoques propios, ajustados a sus estructuras, culturas organizacionales y prioridades estratégicas. A partir de ese escenario, este documento presenta una alternativa reflexiva y técnica sobre cómo diseñar, instalar y conducir auditorías académicas como un mecanismo esencial del aseguramiento interno de la calidad. Su foco está puesto en la verificación del cumplimiento institucional respecto de orientaciones internas y marcos externos, así como en la planificación de mejoras sistemáticas, tanto a nivel de procesos como de unidades académicas, en los distintos procesos misionales. El propósito es aportar una mirada concreta sobre cómo fortalecer, de manera periódica y estratégica, la responsabilidad institucional con la calidad.
Ana Henriquez Orrego
Directora de Auditorías Académicas UDLA
Mayo 2025
La integración de la inteligencia artificial generativa en los ecosistemas institucionales redefine no solo las metodologías de producción de contenido, sino también los marcos de validación, sistematización y aseguramiento de la calidad. En particular, en el ámbito de la educación superior, estas tecnologías emergentes abren un espectro de posibilidades para robustecer los sistemas internos de aseguramiento de la calidad y afrontar con mayor preparación los procesos de certificación y acreditación externa. Herramientas como ChatGPT, cuando son instrumentalizadas desde una lógica ética, estratégica y técnicamente fundada, pueden desempeñar funciones de apoyo avanzadas en tareas críticas como la elaboración estructurada de informes de autoevaluación, la integración de evidencias diversas, la articulación entre documentos normativos y planes de mejora, y la vigilancia de la coherencia entre el discurso institucional y la práctica efectiva.
Fundamentos éticos y riesgos emergentes
La incorporación de estas herramientas exige una comprensión profunda de los desafíos que implica su uso, considerando que su operatividad se basa en modelos estadísticos entrenados con datos que pueden contener sesgos, distorsiones o anacronismos. Estos modelos, por definición, no tienen conocimiento institucional ni comprensión de los marcos normativos que regulan los procesos de aseguramiento de la calidad. Por ello, su uso responsable requiere un compromiso explícito con principios como la trazabilidad, la supervisión humana efectiva, la validación contextual y la deliberación colegiada. No se trata de transitar hacia una delegación tecnológica, sino de consolidar un acompañamiento técnico que potencie el trabajo reflexivo y estratégico de los equipos humanos responsables.
Uno de los focos críticos recae en la identificación, gestión y control de los sesgos algorítmicos, las alucinaciones semánticas y los errores de precisión factual que pueden emanar de la IA generativa. La verosimilitud lingüística no garantiza veracidad institucional ni cumplimiento normativo. Todo insumo generado con apoyo de estas herramientas debe ser sometido a revisión rigurosa, triangulado con fuentes primarias verificadas y validado en instancias colectivas con competencias académicas, técnicas y normativas. Cualquier aproximación instrumental desprovista de esta rigurosidad puede comprometer la integridad documental, erosionar la confianza de los equipos evaluadores y poner en riesgo la coherencia institucional.
Marco institucional y gobernanza del uso de IA generativa
El desafío no es estrictamente tecnológico, sino epistemológico, organizacional y ético. La implementación institucional de estas herramientas debe estar sujeta a un diseño deliberado, enmarcado en marcos normativos internos aprobados por órganos colegiados, con protocolos que regulen su uso según el tipo de documento, nivel de confidencialidad, impacto estratégico y propósito evaluativo. Este uso regulado y reflexivo se convierte en una palanca para ampliar las capacidades institucionales sin diluir la responsabilidad humana. El control humano debe entenderse como un componente transversal del sistema de aseguramiento de la calidad, en interacción constante con los procesos de planificación, ejecución y evaluación.
Las tecnologías de IA generativa deben ser comprendidas como herramientas de apoyo que, correctamente empleadas, pueden facilitar la organización y procesamiento de información proveniente de diversas fuentes (entrevistas, focus groups, encuestas, bases de datos internas), pero cuya interpretación y síntesis deben permanecer bajo dominio humano. Esta articulación técnica y humana es especialmente relevante en procesos como el análisis de brechas, la identificación de nudos críticos, la formulación de planes de mejora o la redacción de informes para auditorías internas o acreditaciones externas. En estos casos, la IA no sustituye ni simplifica la toma de decisiones, sino que amplía las posibilidades de análisis, siempre que se resguarde la intencionalidad, la consistencia institucional y la ética del uso.
Acciones estratégicas recomendadas
Las instituciones de educación superior deben avanzar hacia el desarrollo de capacidades orientadas a la integración responsable de la IA generativa en los sistemas de calidad, con énfasis en las siguientes acciones estratégicas:
Delimitar explícitamente qué información puede ser procesada por IA, en qué condiciones y con qué resguardos metodológicos, éticos y normativos.
Construir y validar institucionalmente marcos de referencia para el uso ético de IA generativa, integrando principios de control humano, protección de datos, veracidad, rendición de cuentas y coherencia documental.
Establecer programas de formación continua y especializada para los equipos de aseguramiento de la calidad, académicos y administrativos, abordando tanto el potencial como las limitaciones de estas herramientas.
Insertar la IA en procesos deliberativos, diagnósticos y de gestión de información, como asistente técnico que colabora en el ordenamiento de datos, pero no en la toma de decisiones sustantivas.
Incorporar mecanismos de trazabilidad documental que permitan identificar cuándo y cómo fue utilizada la IA en la elaboración de documentos clave, garantizando transparencia frente a evaluadores internos y externos.
Evaluar periódicamente el impacto del uso de estas herramientas en los sistemas de calidad, mediante indicadores que midan tanto su utilidad operativa como su consistencia ética.
El uso de la inteligencia artificial generativa en contextos de aseguramiento de la calidad —tanto en sus dimensiones internas como en procesos de certificación o acreditación externa— debe entenderse como un fenómeno que exige gobernanza, no solo adopción tecnológica. La calidad institucional no se construye únicamente a través de evidencias bien redactadas, sino mediante procesos robustos, éticos y reflexivos, donde la tecnología cumple un rol instrumental subordinado al juicio profesional. Hacer de la IA generativa una herramienta útil y legítima implica establecer límites, criterios y formas de validación que la inserten como un recurso estratégico, pero nunca como una fuente autónoma de legitimidad institucional.
Ruiz Muñoz, G. F., Vasco Delgado, J. C., & Lozano Zamora, S. L. (2024). Evaluación y acreditación universitaria: Integración de la inteligencia artificial en los sistemas de calidad. Revista Social Fronteriza, 4(6), e511. https://doi.org/10.59814/resofro.2024.4(6)511
UNESCO. (2023). Guía para el uso de la inteligencia artificial generativa en la educación y la investigación. París: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. https://unesdoc.unesco.org/ark:/48223/pf0000386352
Youm, J., & Dabzadeh, Z. (2024). Twelve tips to guide the use of data with generative AI for accreditation and continuous quality improvement. University of California, Irvine. https://www.aamc.org/media/82576/download?attachment