En la ponencia “Buenas prácticas docentes utilizando inteligencia artificial”, presentada en el ciclo Pensamiento crítico e inteligencia artificial (Universidad de Colima, jornadas académicas 12 al 21 de enero de 2026), se desarrolló una idea eje: el vínculo entre IA y pensamiento crítico no se juega solo “después” de obtener una respuesta, sino antes, en el plano de la decisión estratégica sobre para qué usarla, con qué límites, y qué juicios siguen siendo no delegables.
A lo largo de la presentación se abordó la tensión que hoy atraviesa a la educación y al trabajo: la sinergia creativa que puede habilitar la IA (apoyo en ideación, personalización, productividad), frente a riesgos que pueden derivar en atrofia cognitiva y, en particular, en delegación cognitiva cuando el uso se vuelve automático o acrítico. En esa línea se revisaron problemas recurrentes: alucinaciones y errores, sesgos y descontextualización, respuestas genéricas, privacidad y autoría, y un aspecto de alta relevancia institucional: la ampliación de brechas entre quienes acceden a mejores herramientas y conectividad y quienes quedan rezagados.
También se planteó un giro necesario en el enfoque institucional: desplazar la discusión desde la “caza” del uso de IA hacia el desarrollo de una colaboración inteligente humano–IA. Se problematizaron caminos frecuentes —prohibición, hipervigilancia y dependencia de detectores— subrayando sus límites (incluyendo falsos positivos y costos de implementación), y se propuso una ruta alternativa: integrar, formar, advertir y rediseñar.
Desde la perspectiva universitaria, la ponencia distinguió dos planos que hoy conviven en la mayoría de las instituciones:
- iniciativas individuales o pilotos docentes, con resultados heterogéneos y sin siempre contar con revisión formal, y
- decisiones institucionales estratégicas, que exigen gobernanza (políticas de uso responsable, evaluación rigurosa, resguardos de datos e integridad), especialmente cuando la IA toca procesos sensibles como tutorías personalizadas que consideran rendimiento o progresión académica.
El núcleo pedagógico se concentró en una tesis clara: el desafío principal es curricular y evaluativo. Si una actividad puede resolverse “al borde de un clic”, el problema no es solo conductual; es también de diseño. Por eso se insistió en revisar instrumentos y prácticas, diferenciando entre evaluaciones donde la IA no se necesita, evaluaciones asistidas por IA y evaluaciones donde la IA se integra explícitamente como parte del proceso formativo. Aparecieron como criterios centrales la validez del aprendizaje, el razonamiento, las tareas auténticas, la trazabilidad por etapas y la reducción de la delegación cognitiva.
En cuanto a herramientas, se presentó un panorama de opciones y se enfatizó la importancia de elegir con criterio: qué hace bien cada una, qué hace mal, cuánta flexibilidad ofrece y qué riesgos abre si se usa sin control. En ese marco, se recomendó especialmente NotebookLM, destacando su lógica de trabajo con fuentes cargadas y su potencial para generar productos académicos (resúmenes, guías, tablas, presentaciones, apoyos de estudio) con menor exposición a respuestas no sustentadas en material provisto.
Un componente aplicable a docentes y equipos curriculares fue la propuesta metodológica para crear asistentes: la “metodología del perfil de cargo”, que implica definir rol experto, alcance, formatos de respuesta, restricciones, criterios de calidad y conducta ante retroalimentación. Se ejemplificó además la diferencia entre desarrollos pilotables con lenguaje natural y soluciones institucionales que requieren programación, resguardos de datos y articulación con áreas especializadas.
En la sección de preguntas, se profundizó en preocupaciones muy concretas: la conveniencia de exigir bibliografía y trazabilidad cuando se trabaja con IA, y el riesgo de que se instale un circuito de automatización completa (docencia, respuesta del estudiante y corrección) donde “conversan máquinas”, debilitando el sentido formativo. La discusión reforzó una conclusión transversal: marcos y orientaciones sirven poco si no se acompañan de formación, criterios compartidos y rediseño evaluativo.
La actividad cerró con un reconocimiento institucional por la participación en las jornadas académicas, destacando la alta convocatoria y el interés del público por los ejemplos, recursos y materiales compartidos. En conjunto, la ponencia dejó instalado un mensaje exigente pero operativo: el reto no se resuelve con control punitivo ni con adopción acrítica, sino con decisiones pedagógicas explícitas, formación y rediseño curricular y evaluativo para sostener aprendizajes auténticos en contextos donde la IA ya es parte del entorno.





