Buenas prácticas docentes utilizando IA, ponencia en Universidad de Colima


En la ponencia “Buenas prácticas docentes utilizando inteligencia artificial”, presentada en el ciclo Pensamiento crítico e inteligencia artificial (Universidad de Colima, jornadas académicas 12 al 21 de enero de 2026), se desarrolló una idea eje: el vínculo entre IA y pensamiento crítico no se juega solo “después” de obtener una respuesta, sino antes, en el plano de la decisión estratégica sobre para qué usarla, con qué límites, y qué juicios siguen siendo no delegables.

A lo largo de la presentación se abordó la tensión que hoy atraviesa a la educación y al trabajo: la sinergia creativa que puede habilitar la IA (apoyo en ideación, personalización, productividad), frente a riesgos que pueden derivar en atrofia cognitiva y, en particular, en delegación cognitiva cuando el uso se vuelve automático o acrítico. En esa línea se revisaron problemas recurrentes: alucinaciones y errores, sesgos y descontextualización, respuestas genéricas, privacidad y autoría, y un aspecto de alta relevancia institucional: la ampliación de brechas entre quienes acceden a mejores herramientas y conectividad y quienes quedan rezagados.

También se planteó un giro necesario en el enfoque institucional: desplazar la discusión desde la “caza” del uso de IA hacia el desarrollo de una colaboración inteligente humano–IA. Se problematizaron caminos frecuentes —prohibición, hipervigilancia y dependencia de detectores— subrayando sus límites (incluyendo falsos positivos y costos de implementación), y se propuso una ruta alternativa: integrar, formar, advertir y rediseñar.

Desde la perspectiva universitaria, la ponencia distinguió dos planos que hoy conviven en la mayoría de las instituciones:

  1. iniciativas individuales o pilotos docentes, con resultados heterogéneos y sin siempre contar con revisión formal, y
  2. decisiones institucionales estratégicas, que exigen gobernanza (políticas de uso responsable, evaluación rigurosa, resguardos de datos e integridad), especialmente cuando la IA toca procesos sensibles como tutorías personalizadas que consideran rendimiento o progresión académica.

El núcleo pedagógico se concentró en una tesis clara: el desafío principal es curricular y evaluativo. Si una actividad puede resolverse “al borde de un clic”, el problema no es solo conductual; es también de diseño. Por eso se insistió en revisar instrumentos y prácticas, diferenciando entre evaluaciones donde la IA no se necesita, evaluaciones asistidas por IA y evaluaciones donde la IA se integra explícitamente como parte del proceso formativo. Aparecieron como criterios centrales la validez del aprendizaje, el razonamiento, las tareas auténticas, la trazabilidad por etapas y la reducción de la delegación cognitiva.

En cuanto a herramientas, se presentó un panorama de opciones y se enfatizó la importancia de elegir con criterio: qué hace bien cada una, qué hace mal, cuánta flexibilidad ofrece y qué riesgos abre si se usa sin control. En ese marco, se recomendó especialmente NotebookLM, destacando su lógica de trabajo con fuentes cargadas y su potencial para generar productos académicos (resúmenes, guías, tablas, presentaciones, apoyos de estudio) con menor exposición a respuestas no sustentadas en material provisto.

Un componente aplicable a docentes y equipos curriculares fue la propuesta metodológica para crear asistentes: la “metodología del perfil de cargo”, que implica definir rol experto, alcance, formatos de respuesta, restricciones, criterios de calidad y conducta ante retroalimentación. Se ejemplificó además la diferencia entre desarrollos pilotables con lenguaje natural y soluciones institucionales que requieren programación, resguardos de datos y articulación con áreas especializadas.

En la sección de preguntas, se profundizó en preocupaciones muy concretas: la conveniencia de exigir bibliografía y trazabilidad cuando se trabaja con IA, y el riesgo de que se instale un circuito de automatización completa (docencia, respuesta del estudiante y corrección) donde “conversan máquinas”, debilitando el sentido formativo. La discusión reforzó una conclusión transversal: marcos y orientaciones sirven poco si no se acompañan de formación, criterios compartidos y rediseño evaluativo.

La actividad cerró con un reconocimiento institucional por la participación en las jornadas académicas, destacando la alta convocatoria y el interés del público por los ejemplos, recursos y materiales compartidos. En conjunto, la ponencia dejó instalado un mensaje exigente pero operativo: el reto no se resuelve con control punitivo ni con adopción acrítica, sino con decisiones pedagógicas explícitas, formación y rediseño curricular y evaluativo para sostener aprendizajes auténticos en contextos donde la IA ya es parte del entorno.

Avatar de Desconocido

About Ana Henriquez Orrego

Magíster en Historia, Licenciada en Educación, Profesora de Historia, Geografía y Ciencias Sociales por la Pontificia Universidad Católica de Valparaíso. Académica de Universidad de Las Américas. Ámbitos actuales de desempeño: Aseguramiento de la Calidad en Docencia Universitaria, diseño curricular, acompañamiento académico, análisis del proceso formativo, evaluación de logro de perfiles de egreso, Inteligencia Artificial integrada en procesos de enseñanza, aprendizaje, evaluación, gestión educativa, diseño curricular y los diversos ámbitos del aseguramiento de la calidad.
Esta entrada fue publicada en inteligencia artificial y etiquetada , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , . Guarda el enlace permanente.

Deja un comentario