Resumen: La alucinación, donde los modelos de idiomas grandes (LLM) generan información segura pero incorrecta o irrelevante, sigue siendo una limitación clave en su aplicación a tareas complejas y abiertas. La indicación de la cadena de pensamiento (COT) ha surgido como un método prometedor para mejorar el razonamiento de varios pasos mediante la guía de los modelos a través de pasos intermedios. Sin embargo, COT solo no aborda completamente el problema de la alucinación. En este trabajo, investigamos cómo la combinación de COT con la generación de recuperación acuática (RAG), así como la aplicación de estrategias de autoconsistencia y autoverificación, puede reducir las alucinaciones y mejorar la precisión objetiva. Al incorporar fuentes de conocimiento externas durante los modelos de razonamiento y habilitación para verificar o revisar sus propios resultados, nuestro objetivo es generar respuestas más precisas y coherentes. Presentamos una evaluación comparativa de LLM de línea de base contra COT, COT+RAG, autoconsistencia y técnicas de autoverificación. Nuestros resultados resaltan la efectividad de cada método e identifican el enfoque más sólido para minimizar las alucinaciones al tiempo que preservan la fluidez y la profundidad de razonamiento.
Publicado Originalme en rss.arxiv.org El 14 de mayo de 2025.
Ver Fuente Original