Inteligencia Artificial Generativa en el Aseguramiento de la Calidad en Instituciones de Educación Superior


Posibles aplicaciones en sistemas internos de calidad, auditorías académicas, procesos de autoevaluación y acreditación institucional

Ana Henriquez Orrego
Directora de Auditorías Académicas UDLA
Mayo 2025

El uso de inteligencia artificial generativa en el aseguramiento interno de la calidad y la acreditación institucional en educación superior abre nuevas oportunidades para fortalecer procesos, optimizar análisis técnicos y respaldar decisiones basadas en evidencia. Este documento entrega orientaciones para integrar la IA como colaboradora en tareas como redacción de informes, análisis de estándares, auditorías internas, diseño y revisión de sistemas de calidad, revisión curricular, sistematización de evidencias y preparación para evaluaciones externas. Su implementación requiere un enfoque ético, gradual y deliberado, que preserve el juicio profesional, se alinee con los marcos institucionales y mantenga siempre el control humano. Está dirigido a equipos técnicos, comités académicos, direcciones de escuela, unidades de aseguramiento y autoridades universitarias que buscan integrar la IA con responsabilidad, consistencia normativa y visión estratégica.

Este documento se focaliza en el uso de IA generativa como herramienta de apoyo técnico en tareas cualitativas dentro del aseguramiento interno de la calidad, especialmente en labores desarrolladas por comités de autoevaluación, equipos académicos y unidades institucionales de calidad. Se excluye expresamente su aplicación en análisis estadísticos, gestión de indicadores o procesamiento de datos numéricos, funciones que exigen metodologías especializadas. El objetivo es orientar el uso estratégico y responsable de plataformas como ChatGPT, Claude, NotebookLM y Copilot en actividades como redacción de informes, estructuración de evidencias, verificación de coherencia documental, acompañamiento a equipos y generación de insumos cualitativos para la evaluación y mejora continua.

Si bien las propuestas presentadas en este documento se fundamentan en experiencias concretas de uso de inteligencia artificial generativa y en el conocimiento acumulado sobre las características, potencialidades y limitaciones de estas herramientas, resulta pertinente señalar algunas experiencias internacionales ya documentadas en contextos de aseguramiento de la calidad. Por ejemplo, la Agencia Nacional para el Aseguramiento de la Calidad (ANQA) de Armenia aplicó IA para analizar la evolución de las narrativas institucionales tras varios ciclos de acreditación, identificando patrones de cambio en el lenguaje y la cultura organizacional (ANQA, 2024)[1]. En Estados Unidos, la Western Association of Schools and Colleges (WASC) integró ChatGPT-4 en etapas clave del proceso de evaluación externa, como el análisis de informes y la redacción de observaciones (Rhoads, 2024)[2]. Asimismo, un estudio reciente documentó la incorporación de sistemas de inteligencia artificial en procesos de evaluación y acreditación en 25 instituciones de educación superior a nivel internacional, evidenciando mejoras significativas en eficiencia, consistencia y trazabilidad (Ruiz, Vasco & Lozano, 2024).[3]

I.             Marco preliminar para una integración responsable de IA generativa en calidad institucional

La incorporación de herramientas de inteligencia artificial generativa en procesos formales de aseguramiento de la calidad requiere de un marco institucional que delimite su alcance, permita comprender sus posibilidades reales y anticipe los riesgos derivados de un uso no controlado. Esta sección entrega orientaciones para toda institución que decida explorar o profundizar el uso de IA en funciones relacionadas con redacción técnica, análisis documental, evaluación institucional o auditorías académicas. Los elementos expuestos a continuación buscan resguardar la integridad de los procesos, facilitar una adopción ética y técnicamente sólida, y asegurar que las decisiones institucionales se mantengan siempre bajo la supervisión del juicio profesional, en coherencia con el modelo educativo y los marcos normativos vigentes.

1. Principios éticos esenciales para el uso de IA generativa

Toda incorporación de IA generativa en procesos institucionales debe estar alineada con los principios éticos y los valores profesionales que sustentan la calidad académica. La IA debe ser entendida como un apoyo subordinado al juicio humano, nunca como un sustituto. Para ello, es necesario establecer criterios que aseguren su uso correcto desde el inicio:

  • Garantizar que toda decisión institucional que involucre contenidos generados con IA esté supervisada por personas responsables, resguardando que el juicio académico y técnico no sea sustituido por automatismos ni por interpretaciones generadas sin revisión crítica.
  • Establecer desde el inicio principios de uso explícitos que contemplen transparencia en el origen del contenido, trazabilidad de las interacciones con la IA, protección de la información utilizada, y respeto por el rol activo e insustituible de las personas en cada etapa del proceso.
  • Delimitar con precisión los ámbitos críticos en los que el uso de IA requiere un mayor nivel de control institucional, como la validación de evidencias, la elaboración de informes de autoevaluación, o la preparación de documentos oficiales que serán presentados ante organismos externos.

2. Riesgos y limitaciones técnicas de la inteligencia artificial generativa

Si bien las herramientas de IA generativa pueden ser altamente funcionales, su uso exige una comprensión clara de sus limitaciones. Estas tecnologías no son infalibles y pueden producir resultados que, aunque plausibles en apariencia, resultan imprecisos o incorrectos si no se les guía adecuadamente:

  • Alucinar: generar información incorrecta o inventada con aparente certeza.
  • Errar: interpretar de forma inadecuada criterios o contexto si el input no es claro.
  • Reproducir sesgos: replicar patrones injustos si se basa en datos de entrenamiento no controlados o en instrucciones poco cuidadosas.

3. Roles estratégicos de los usuarios humanos

La efectividad y legitimidad del uso de IA depende del rol activo que desempeñen las personas en su configuración, aplicación y supervisión. Se distinguen tres funciones clave:

  • Validadores: confirman la pertinencia, coherencia y utilidad del contenido generado.
  • Reformuladores: ajustan los diálogos o instrucciones para mejorar la calidad de las respuestas.
  • Responsables: mantienen la titularidad del proceso y del resultado final; ninguna respuesta debe considerarse válida sin revisión humana.

4. Niveles de integración institucional de la IA

El uso de IA puede escalar según el grado de madurez tecnológica y organizacional de la institución. Se identifican tres niveles:

  • Uso inicial (básico): interacción puntual por parte de académicos o directivos con herramientas generales como ChatGPT, Claude o Gemini.
  • Uso funcional (intermedio): integración progresiva en tareas específicas, como la redacción de informes, sistematización de datos o análisis de planes de mejora.
  • Uso estructural (avanzado): incorporación formal de sistemas internos o servicios contratados de IA integrados al ecosistema institucional. Este nivel aún es incipiente en la mayoría de las universidades.

II.               Ámbitos de aplicación en procesos de calidad institucional

La IA generativa puede colaborar activamente en cuatro líneas de acción fundamentales dentro del aseguramiento de la calidad: el diseño de sistemas y documentos estratégicos, la ejecución de auditorías internas, la elaboración de procesos de autoevaluación, y la preparación para certificación o acreditación externa. A continuación, se detalla cómo puede aportar en cada una de estas áreas:

1. Diseño de sistemas y documentos estratégicos

La IA puede actuar como apoyo técnico en la creación, revisión o actualización de sistemas de gestión de calidad, políticas institucionales, planes estratégicos, modelos educativos, mallas curriculares y programas. Su capacidad para analizar grandes volúmenes de texto, comparar documentos y detectar inconsistencias permite fortalecer la consistencia institucional en todos los niveles.

  • Análisis estructurado del modelo educativo y su coherencia con los fines institucionales.
  • Apoyo en la revisión de sistemas internos de calidad  o en la formulación de nuevos sistemas de calidad.
  • Validación del perfil de egreso a partir de evidencia institucional y requerimientos del entorno.
  • Revisión de la coherencia entre planes estratégicos, modelos educativos y políticas institucionales.
  • Evaluación técnica de mallas curriculares, progresión formativa y articulación entre programas.
  • Revisión y reformulación de programas de asignatura, alineados a estándares internos y externos.
  • Procesamiento de resultados de encuestas y retroalimentación de actores clave (empleadores, egresados, estudiantes, académicos), especialmente en temas como perfil de egreso, empleabilidad, percepción curricular, pertinencia formativa.
  • Simulación de escenarios ante ajustes de diseño curricular, cambios estructurales o redefinición de indicadores institucionales.

2. Auditorías internas

En auditorías académicas internas, la IA puede colaborar como herramienta de apoyo al análisis documental, la verificación cruzada de evidencias y la elaboración de insumos técnicos, sin reemplazar el análisis evaluativo de los equipos humanos.

  • Revisión cruzada entre documentos normativos, reglamentos, evidencias y prácticas institucionales.
  • Construcción de matrices de consistencia entre estándares, criterios y documentación institucional.
  • Categorización y priorización de hallazgos según dimensiones de evaluación.
  • Identificación de vacíos, duplicidades y debilidades en las evidencias.
  • Sistematización de hallazgos provenientes de entrevistas, focus group, encuestas u observaciones internas.
  • Generación de reportes técnicos de avance en planes de mejora.
  • Sugerencias preliminares de focos críticos o recomendaciones, siempre revisadas por el equipo auditor.
  • Redacción inicial de informes técnicos como insumo para revisión profesional.

3. Autoevaluación institucional

La IA puede ser utilizada como colaboradora en la elaboración de informes de autoevaluación, estructuración de evidencias, validación técnica de información, y acompañamiento a equipos en procesos formativos y operativos.

  • Redacción preliminar de capítulos o secciones del informe de autoevaluación, con base en criterios CNA, ANECA u otros.
  • Síntesis de entrevistas, focus group, encuestas y talleres institucionales.
  • Generación de fichas técnicas o resúmenes ejecutivos por dimensión.
  • Revisión del cumplimiento de acciones de mejora comprometidas.
  • Organización estructurada de evidencias, fichas y anexos.
  • Acompañamiento a comités curriculares o de calidad con ejemplos, plantillas y guías.
  • Apoyo en la preparación de presentaciones para socialización de avances o resultados del proceso.
  • Función tutorial: explicar con claridad qué es la autoevaluación, cómo se estructura, qué se espera de cada actor institucional y cómo se construye un informe técnico de calidad. Este tipo de orientación resulta especialmente valiosa para equipos que enfrentan por primera vez un proceso de autoevaluación, ya que permite comprender la lógica técnica y normativa que subyace a su desarrollo.

4. Certificación y acreditación externa

Durante procesos de certificación institucional o acreditación ante agencias como CNA o ANECA, la IA puede actuar como soporte técnico y documental para la preparación, revisión y fortalecimiento de informes, anexos y evidencias clave.

  • Revisión del cumplimiento de criterios de calidad definidos por la agencia correspondiente.
  • Evaluación del impacto institucional de acreditaciones previas sobre planes, estructuras o decisiones estratégicas.
  • Apoyo en la redacción, revisión técnica y estructuración de informes de acreditación.
  • Revisión crítica de la narrativa institucional y su respaldo documental.
  • Apoyo en la elaboración de respuestas a observaciones de comités externos.
  • Simulación de escenarios de visita y formulación de preguntas tipo de pares evaluadores.
  • Apoyo a direcciones académicas, equipos de calidad o rectoría en la elaboración de documentos institucionales clave.

III.            Uso de herramientas de IA generativa

En un nivel intermedio de integración tecnológica, las instituciones de educación superior pueden incorporar herramientas digitales basadas en modelos de lenguaje avanzado que resultan particularmente útiles para fortalecer tareas asociadas al aseguramiento interno de la calidad. Estas herramientas permiten organizar información compleja, facilitar procesos de redacción técnica, apoyar la estructuración documental y dinamizar el trabajo de comités académicos o equipos de planificación.

Entre las más reconocidas por su desempeño en contextos educativos y de gestión académica se encuentran ChatGPT, Claude, NotebookLM y Copilot. A continuación, se presentan sus principales aplicaciones, con foco en tareas que se desarrollan en procesos de autoevaluación, auditorías internas y elaboración de informes institucionales:

ChatGPT https://chatgpt.com/

Herramienta versátil con amplio rango de aplicación en tareas académicas y de gestión.

  • Aplicaciones destacadas: elaboración de borradores de informes, sistematización de evidencias, diseño de fichas técnicas, apoyo a comités de autoevaluación y planificación curricular.
  • Valor agregado: permite desarrollar asistentes personalizados configurados con lenguaje natural y documentos institucionales, lo que facilita su adaptación a funciones específicas dentro de procesos de calidad.

Claude https://claude.ai/new

Especializado en el análisis de documentos extensos y en la síntesis estructurada de contenido técnico.

  • Aplicaciones destacadas: revisión de marcos normativos, reglamentos internos, actas de evaluación y documentos históricos de procesos de acreditación.
  • Valor agregado: útil para apoyar equipos técnicos o direcciones que trabajan con grandes volúmenes de texto, gracias a su capacidad para mantener consistencia y profundidad analítica.

NotebookLM https://notebooklm.google.com/

Plataforma orientada al trabajo sobre documentos cargados directamente por el usuario.

  • Aplicaciones destacadas: revisión transversal de evidencias, análisis de alineación curricular, lectura comparada de SIAC, modelo educativo y planes de mejora.
  • Valor agregado: permite mantener trazabilidad con la fuente original, lo que resulta especialmente útil para tareas que exigen precisión técnica y validación documental.

Copilot https://copilot.microsoft.com/

Integrado al ecosistema de Microsoft, permite trabajar directamente sobre archivos Word, Excel o PowerPoint.

  • Aplicaciones destacadas: estructuración de presentaciones para procesos de acreditación, elaboración de planillas de seguimiento, redacción técnica de informes institucionales.
  • Valor agregado: aprovecha entornos de uso cotidiano, facilitando la incorporación fluida en rutinas administrativas y académicas.

Una de las aplicaciones más significativas de estas herramientas en contextos institucionales es la posibilidad de desarrollar asistentes personalizados (GPTs) a través de plataformas como ChatGPT. Estos asistentes, configurados mediante lenguaje natural y orientaciones técnicas, pueden cumplir funciones clave en procesos de aseguramiento de la calidad, como la redacción de informes, el análisis de planes, la revisión de evidencias o la simulación de escenarios evaluativos.

Su utilidad no reside en reemplazar el trabajo académico, sino en apoyar tareas complejas que requieren organización estructurada de información, coherencia técnica y adaptación al contexto institucional, siempre bajo control humano. El impacto de estos asistentes depende directamente de cómo han sido diseñados: con propósito claro, alineación al modelo educativo, límites éticos definidos y consistencia con los criterios de calidad vigentes.

A continuación, se presenta la metodología desarrollada para su diseño y aplicación responsable en instituciones de educación superior.

IV.            Enfoque metodológico propuesto para la integración de Asistentes GPTs en contextos de aseguramiento de la calidad

La integración de herramientas como los GPTs en la gestión académica surge de una necesidad concreta: contar con un colaborador que acompañe procesos reales y complejos que enfrentan equipos técnicos y comités académicos en instituciones de educación superior. No se trata de una fórmula genérica ni de una solución automática, sino de una estrategia construida en terreno, junto a equipos que diseñan programas, redactan informes, revisan evidencias, evalúan la coherencia curricular o realizan auditorías académicas.

Este enfoque metodológico se ha desarrollado a partir de experiencias directas con equipos de trabajo que han definido, desde sus propias necesidades, qué tipo de apoyo esperan de un asistente basado en IA. Así, el diseño del GPT se basa en acuerdos colaborativos que permiten traducir las expectativas institucionales en una herramienta concreta, alineada con el modelo educativo y los estándares de calidad. La clave está en preguntarse, antes de usar la IA, qué se necesita que haga ese asistente, cómo debe comportarse y con qué insumos debe trabajar.

Para ordenar este proceso, se ha construido una guía basada en diez preguntas clave. Estas preguntas ayudan a definir el rol del asistente, su público objetivo, las tareas que debe realizar, los límites que no debe traspasar, y el tipo de productos que se espera que entregue. A partir de este insumo inicial, es posible configurar un GPT realmente útil: adaptado al contexto, ético en su comportamiento y capaz de integrarse como un verdadero colaborador al trabajo institucional.

Diez preguntas clave para el diseño de GPTs aplicados a aseguramiento de la calidad

  1. ¿Cuál es la identidad funcional del asistente?

Definir si actuará como asesor técnico para criterios de calidad, facilitador de procesos de autoevaluación, analista de evidencias, revisor de alineación documental, curador de antecedentes para informes, editor preliminar de textos evaluativos o simulador de escenarios de visita externa. También es necesario definir si solo responderá solicitudes o podrá proponer acciones cuando identifique brechas o inconsistencias.

  1. ¿Quién será su usuario principal?

Determinar si el asistente será utilizado por integrantes de comités de autoevaluación, direcciones académicas, equipos de aseguramiento de la calidad, evaluadores internos o profesionales que preparan informes institucionales. Este dato define el tipo de lenguaje, nivel de detalle y tipo de soporte que deberá entregar.

  1. ¿Qué problema o tarea concreta debe abordar?

Especificar si apoyará, por ejemplo, en la redacción inicial de informes de autoevaluación, en la revisión de alineación entre SIAC, PDE y modelo educativo, en la preparación de evidencias para visitas externas, en la identificación de vacíos documentales o en la revisión cruzada entre estándares de acreditación y prácticas institucionales declaradas.

  1. ¿Qué insumos necesita recopilar antes de actuar?

Se deben definir los insumos básicos: estándares CNA o ANECA, planes de mejora, reglamentos internos, versiones de programas de asignatura, matrices de consistencia, actas de comités, evidencias declaradas, fichas técnicas de indicadores, resultados de encuestas, entre otros. Un GPT diseñado para asegurar calidad necesita fuentes verificables, actuales y pertinentes.

  1. ¿Cómo debe actuar frente a datos incompletos?

Indicar si debe advertir al usuario que faltan insumos para una respuesta precisa, ofrecer una respuesta tentativa con indicación de validación pendiente, o detener la interacción hasta que se proporcione más contexto. Por ejemplo: “No cuento con información suficiente sobre el estándar solicitado. ¿Deseas cargar el reglamento correspondiente para continuar?”

  1. ¿Qué principios debe garantizar en sus respuestas?

Debe respetar criterios de calidad como la alineación con el modelo educativo institucional, el respeto al juicio profesional, la coherencia técnica, el uso ético de la IA, y la indicación clara de que el producto generado debe ser validado por el equipo responsable. En informes de autoevaluación o planes de mejora, esto es especialmente crítico.

  1. ¿Qué forma deben tener sus respuestas?

El asistente puede entregar sus respuestas de forma estructurada por secciones, dimensiones, estándares o criterios. También puede entregar productos como matrices de coherencia, fichas de análisis, resúmenes de entrevistas, síntesis ejecutivas, tablas comparativas o borradores de narrativas institucionales. Se debe definir si debe guiar paso a paso o entregar bloques editables.

  1. ¿Qué límites debe respetar?

Debe abstenerse de emitir conclusiones definitivas, interpretar normativas sin respaldo documental, o proponer decisiones institucionales. Todo contenido debe presentarse como propuesta preliminar. Por ejemplo: “Esta recomendación debe ser validada por el comité de calidad correspondiente.”

  1. ¿Cómo debe cerrar sus interacciones?

Establecer si debe cerrar con un resumen de lo entregado, indicar que puede continuar colaborando con nuevas tareas, o señalar que el producto es un borrador sujeto a revisión. También puede ofrecer continuar con tareas complementarias, como redactar una versión alternativa o presentar el contenido en formato de presentación para socialización.

  1. ¿Debe simular el uso de herramientas expertas?

Determinar si debe comportarse como si utilizara una rúbrica para auditar una carrera, analizara una ficha de estándar CNA, verificara la consistencia entre PEI y modelo educativo, revisara evidencias de prácticas declaradas, o actuara como par evaluador simulado en contexto de visita externa. Si se espera ese tipo de comportamiento, debe indicarse claramente en la configuración del GPT.

Esta metodología permite diseñar Asistentes GPT alineados con propósitos institucionales reales, configurados con sentido ético, técnico y pedagógico, y preparados para contribuir de forma efectiva al trabajo de aseguramiento de la calidad. La claridad en las definiciones iniciales, la anticipación de escenarios de uso y el establecimiento de límites operacionales son factores clave para que estos asistentes se integren con legitimidad, eficiencia y valor estratégico en las prácticas académicas e institucionales.

Recomendaciones para crear GPTs personalizados en aseguramiento de la calidad educativa

Las siguientes recomendaciones surgen del análisis sistemático de experiencias reales en el diseño, implementación y validación de GPTs personalizados en instituciones de educación superior. Estas herramientas han sido aplicadas en tareas clave como el diseño curricular, la realización de auditorías académicas, la elaboración de informes y el fortalecimiento de procesos de gestión de la calidad.

La propuesta metodológica aquí presentada ha sido construida y afinada a partir de más de 130 asistentes desarrollados en colaboración con comités curriculares, unidades técnicas y direcciones académicas. Su aplicación ha permitido articular el uso de inteligencia artificial generativa con marcos institucionales existentes, asegurando alineación con modelos educativos, criterios de aseguramiento interno y exigencias de acreditación externa.

Este enfoque ha sido difundido y validado mediante recursos formativos y materiales técnicos que respaldan su aplicabilidad en contextos reales:

Aquí presentamos algunos de estos materiales.

Síntesis de recomendaciones clave para crear asistentes con IA GPTs personalizados

Recomendación claveAplicación práctica en calidad
Definir la necesidad institucionalEj.: Identificar si se requiere apoyo para: redactar borradores de informes de autoevaluación; sistematizar resultados de encuestas aplicadas a empleadores; revisar la progresión curricular de una carrera; generar insumos para comités de rediseño; organizar evidencia por estándar CNA o ANECA.
Redactar una descripción de cargo del asistente IAEj.: GPT como “Asesor técnico para criterios CNA”, “Editor de informes de mejora continua”, “Curador de evidencia documental”, o “Simulador de preguntas de visita de pares evaluadores”. En esta sección se recomienda seguir el formato de descriptores de cargos específicos y con ello configurar el GPT.
Trabajar en equipo para definir funciones y comportamientoEj.: Comités de autoevaluación acuerdan si el GPT debe actuar como tutor paso a paso o como generador de borradores estructurados; definición consensuada de tono, límites éticos y formatos de entrega esperados.
Separar funciones complejas en GPTs específicosEj.: Crear un GPT solo para revisar el alineamiento entre resultados de aprendizaje y perfil de egreso; otro para redactar síntesis por dimensión; otro para evaluar coherencia entre PEI, SIAC y planes de mejora.
Transformar la lluvia de ideas en un prompt robustoEj.: A partir de requerimientos del comité, formular instrucciones que incluyan: rol, objetivo, fuentes, criterios CNA, documentos base, formato de respuesta (tabla, resumen, matriz). Incluir ejemplos y lenguaje técnico preciso.
Usar la opción ‘CREAR’ en la plataforma de ChatGPTEj.: Configurar asistentes en proyectos piloto para carreras en rediseño; GPTs para auditar programas de asignatura; asistentes específicos para revisar cumplimiento de indicadores estratégicos o compromisos de planes de mejora.
Cargar solo documentos útiles, claros y pertinentesEj.: Subir versión oficial del modelo educativo, reglamento de autoevaluación, matriz SIAC institucional, planes estratégicos, informes CNA anteriores, actas validadas por los comités de calidad.
Activar funciones avanzadas justificadasEj.: Si el GPT analiza la evolución de indicadores de empleabilidad, habilitar análisis cuantitativo; si revisa el alineamiento curricular, permitir navegación entre múltiples documentos interrelacionados.
Definir buenos iniciadores de conversaciónEj.: “¿Qué evidencia necesitas categorizar hoy?”, “¿Qué sección del informe quieres mejorar?”, “¿Deseas simular una entrevista con pares evaluadores?”, “¿Sobre qué dimensión necesitas redacción técnica preliminar?”.
Establecer límites y recordatorios éticosEj.: Incorporar en cada GPT mensajes de advertencia como: “Esta respuesta debe ser validada por tu comité académico”, o “Este contenido no reemplaza el juicio profesional ni decisiones colegiadas”.
Probar el GPT antes de compartirloEj.: Ejecutar simulaciones con miembros del comité de calidad; utilizar el GPT para producir una sección de informe real y validar su utilidad, precisión y tono. Recolectar retroalimentación de los usuarios piloto.
Revisar y mejorar constantemente el GPTEj.: Establecer revisión semestral del comportamiento del GPT; actualizar contenidos si cambian criterios CNA o marcos institucionales; documentar cambios y crear versión controlada con respaldo del equipo técnico.

Nota: Método diseñado por Ana Henriquez a partir de la experiencia de creación de asistentes IA entre 2023 y 2025

V.              Uso ético y responsable de la inteligencia artificial generativa en procesos de aseguramiento de la calidad

La incorporación de herramientas de inteligencia artificial generativa en los procesos de aseguramiento interno de la calidad plantea oportunidades significativas, pero también riesgos que deben ser anticipados. Su aplicación requiere un enfoque ético, técnico y deliberativo, orientado por principios de integridad académica, responsabilidad institucional y validación profesional.

Estas herramientas no deben ser vistas como sustitutos del juicio humano ni de las prácticas colegiadas, sino como colaboradoras técnicas que pueden facilitar el análisis de información, la estructuración de documentos o la organización de evidencias. Su aporte depende de que su uso se mantenga dentro de límites institucionales claros, bajo control humano, y en coherencia con los marcos normativos, el modelo educativo y los estándares de calidad aplicables.

A continuación, se presentan orientaciones estructuradas en cuatro bloques: principios éticos rectores, buenas prácticas, usos no permitidos y usos restringidos.

Principios éticos rectores

El uso de inteligencia artificial generativa debe fundarse en principios que resguarden la integridad de los procesos evaluativos y aseguren que las decisiones continúen siendo lideradas por las personas responsables de los procesos institucionales (diseño curricular, auditorías internas, autoevaluación, etc.).

Se destacan los siguientes principios:

  • La IA debe operar como asistente subordinado al juicio académico y técnico, nunca como reemplazo.
  • Su uso debe ser transparente, incluyendo advertencias en los productos generados, cuando corresponda.
  • Todo contenido producido con IA debe ser validado por instancias profesionales antes de ser incorporado a documentos oficiales o difundido institucionalmente.
  • Debe reconocerse que las herramientas de IA pueden contener errores, ambigüedades o sesgos si se utilizan sin supervisión crítica.
  • Se debe fomentar el pensamiento crítico y la revisión colegiada, manteniendo como pilares la deliberación y el trabajo en equipo.

Buenas prácticas en contextos de calidad

El uso responsable de IA generativa en aseguramiento de la calidad exige establecer prácticas claras y consistentes, alineadas con el marco institucional.

Entre las buenas prácticas recomendadas, se encuentran:

  • Utilizar IA solo cuando se disponga de insumos claros, actualizados y validados internamente, como reglamentos, matrices SIAC, actas oficiales, planes de mejora o estándares válidos..
  • Aplicar la IA en tareas como sistematización de información, análisis documental, redacción preliminar de secciones, o simulación de preguntas de pares evaluadores, pero nunca como fuente final sin revisión.
  • Confirmar que las salidas generadas estén alineadas con los marcos institucionales vigentes, incluyendo el modelo educativo, criterios de evaluación externa y políticas internas.
  • Revisar periódicamente los asistentes GPT personalizados ya implementados, ajustándolos a cambios normativos, nuevas versiones institucionales o aprendizajes operativos.
  • Incorporar la IA en sesiones de trabajo académico como un insumo para el análisis técnico o la reflexión institucional, sin desplazar el debate ni sustituir las decisiones colegiadas.

Usos no permitidos

Existen límites que deben estar claramente definidos para prevenir el uso inapropiado o riesgoso de estas herramientas. Se consideran usos no permitidos aquellos que comprometen la legitimidad del proceso o que omiten el control humano necesario.

No se debe permitir:

  • La generación de informes definitivos, planes de mejora, matrices de consistencia u otros productos evaluativos institucionales sin revisión técnica, sin visado profesional ni aprobación formal.
  • El uso de contenido generado por IA en procesos de acreditación o certificación sin validación disciplinar ni contextualización con los marcos institucionales vigentes.
  • La sustitución de deliberaciones colegiadas por resultados automáticos generados por IA, aunque estén redactados correctamente.
  • El uso de IA para reinterpretar criterios normativos, justificar decisiones estructurales o emitir análisis institucionales sin respaldo documental.

[1] https://www.anqa.am/en/news-events/news/ai-as-a-tool-for-quality-assurance-system-analysis-presenting-anqa-s-practice-at-the-enqa-members-forum/

[2] https://matthewrhoads.com/2024/03/15/harnessing-generative-ai-for-a-comprehensive-wasc-accreditation-visit-a-step-by-step-methodology/#:~:text=Generative%20AI%2C%20ChatGPT,and%20depth%20in%20their%20evaluation

[3] https://www.revistasocialfronteriza.com/ojs/index.php/rev/article/view/511

Avatar de Desconocido

About Annyhen

Magíster en Historia, Licenciada en Educación, Profesora de Historia, Geografía y Ciencias Sociales por la Pontificia Universidad Católica de Valparaíso. Académica de Universidad de Las Américas. Ámbitos actuales de desempeño: Aseguramiento de la Calidad en Docencia Universitaria, diseño curricular, acompañamiento académico, análisis del proceso formativo, evaluación de logro de perfiles de egreso, Inteligencia Artificial integrada en procesos de enseñanza, aprendizaje, evaluación, gestión educativa, diseño curricular y los diversos ámbitos del aseguramiento de la calidad.
Esta entrada fue publicada en IA EN EDUCACIÓN, inteligencia artificial y etiquetada , , , , , , , . Guarda el enlace permanente.

2 Responses to Inteligencia Artificial Generativa en el Aseguramiento de la Calidad en Instituciones de Educación Superior

  1. Pingback: Reflexiones y propuestas para el desarrollo de auditorías académicas internas en educación superior | Inteligencia Artificial en Educación

  2. Pingback: Uso ético y responsable de la inteligencia artificial generativa en contextos de aseguramiento de la calidad | Inteligencia Artificial en Educación

Deja un comentario