Este GPT ha sido diseñado específicamente para facilitar el diseño, desarrollo y evaluación de situaciones de aprendizaje en la educación superior, particularmente en el contexto de carreras universitarias.
Para utilizar este GPT se requiere contar con una cuenta de ChatGPT. Puedes usar GPTs con cuentas tanto de pago como gratuitas. La tienda de GPTs está liberada para todos los usuarios; sin embargo, los usuarios gratuitos tienen un límite de interacción que se agota, y deben regresar más tarde. Si tienes una cuenta de pago, puedes crear tus propios GPTs y aprovechar todas sus capacidades sin restricciones.
Hoy presentamos: Podcast sobre Historia del Siglo XX de Eric Hobsbawm, creado con NotebookLM
En esta oportunidad exploramos el potencial de NotebookLM poniéndolo a prueba con una tarea desafiante: le pedimos que creara un podcast en español basado en la obra Historia del Siglo XX de Eric Hobsbawm. El resultado es un diálogo entre tres periodistas que discuten los puntos más relevantes de este clásico de la historia contemporánea.
¿Qué le pedimos a NotebookLM? Nuestra indicación fue clara: queríamos un formato de conversación fluida en español, donde los periodistas analizaran:
Hoy exploramos los desafíos y las oportunidades que la Inteligencia Artificial (IA) está generando en diversos contextos educativos y laborales. Sabemos que la IA no es simplemente una moda pasajera; es una tecnología que está revolucionando el modo en que vivimos, trabajamos y aprendemos. Con este propósito, hemos tenido el privilegio de entrevistar a Rafael Martínez Campoblanco, un reconocido experto en educación y tecnología educativa, que nos compartió su experiencia y perspectivas sobre esta transformación tan significativa.
Las alucinaciones en la inteligencia artificial (IA) se refieren a situaciones en las que un modelo de IA genera información incorrecta, inventada o sin fundamento en los datos de entrenamiento. Estas «alucinaciones» son especialmente comunes en modelos de lenguaje basados en IA generativa y se manifiestan como respuestas factualmente erróneas, afirmaciones imaginarias o fuentes ficticias.
Causas de las alucinaciones en IA:
Generalización incorrecta: La IA puede extrapolar información más allá de lo aprendido, generando datos falsos o mezclando conceptos de forma incorrecta.
Falta de contexto adecuado: Si el modelo no comprende bien el contexto de la pregunta, puede responder de manera incoherente.
Ruido en los datos de entrenamiento: Datos ambiguos o contradictorios en el conjunto de entrenamiento pueden llevar a la generación de respuestas erróneas.
Optimización orientada a fluidez: Algunos modelos están diseñados para producir texto fluido y coherente, lo que a veces prioriza la forma sobre la precisión.
Limitaciones del conocimiento estático: La IA entrenada hasta cierto punto en el tiempo puede inventar datos para suplir la falta de información actualizada.
Ejemplos de alucinaciones:
Inventar hechos o referencias: Decir que un autor publicó un libro que nunca existió.
Confundir conceptos: Mezclar eventos históricos de manera incorrecta.
Crear citas o referencias académicas falsas: Incluir un DOI o referencia que no corresponde a ningún artículo real.
Es un honor presentar la entrevista realizada a Marcela Momberg, una destacada profesional en el ámbito educativo, ampliamente reconocida por su labor en la integración de herramientas digitales y su compromiso con el desarrollo de la educación en un contexto profundamente influenciado por la tecnología. Esta entrevista forma parte de nuestro ciclo «Inteligencia Artificial en diversos contextos laborales«, cuyo objetivo es explorar cómo la inteligencia artificial y otras tecnologías están transformando el trabajo, nuestras prácticas pedagógicas y los desafíos educativos contemporáneos.