Resumen:A medida que los estudiantes dependen cada vez más de grandes modelos lingüísticos, las alucinaciones representan una amenaza creciente para el aprendizaje. Para mitigar esto, la alfabetización en IA debe ir más allá de la ingeniería rápida para abordar cómo los estudiantes deben detectar y responder a las alucinaciones del LLM. Para respaldar esto, necesitamos comprender cómo los estudiantes experimentan las alucinaciones, cómo las detectan y por qué creen que ocurren. Para investigar estas preguntas, planteamos a estudiantes universitarios tres preguntas abiertas sobre sus experiencias con alucinaciones de IA, sus estrategias de detección y sus modelos mentales de por qué ocurren las alucinaciones. Sesenta y tres estudiantes respondieron la encuesta. El análisis temático de sus respuestas reveló que los problemas de alucinaciones reportados se relacionan principalmente con citas incorrectas o inventadas, información falsa, respuestas excesivamente confiadas pero engañosas, mala adherencia a las indicaciones, persistencia en respuestas incorrectas y adulación. Para detectar alucinaciones, los estudiantes confían en el juicio intuitivo o en estrategias de verificación activa, como la verificación cruzada con fuentes externas o la repetición del modelo. Las explicaciones de los estudiantes sobre por qué ocurren las alucinaciones reflejaron varios modelos mentales, incluidos conceptos erróneos notables. Muchos describieron la IA como un motor de investigación que fabrica información cuando no puede encontrar una respuesta en su “base de datos”. Otros atribuyeron las alucinaciones a problemas con los datos de entrenamiento, indicaciones inadecuadas o la incapacidad del modelo para comprender o verificar la información. Estos hallazgos iluminan las vulnerabilidades en el aprendizaje respaldado por IA y resaltan la necesidad de instrucción explícita en protocolos de verificación, modelos mentales precisos de IA generativa y conciencia de comportamientos como la adulación y la entrega segura que oscurecen la inexactitud. El estudio aporta evidencia empírica para integrar la concienciación y la mitigación de las alucinaciones en los planes de estudios de alfabetización en IA.
Publicado originalmente en export.arxiv.org el 22 de febrero de 2026.
Ver fuente original
