En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Mejora de la fiabilidad de las LLM: combinar cuna, trapo, autoconsistencia y autoverificación

Mejora de la fiabilidad de las LLM: combinar cuna, trapo, autoconsistencia y autoverificación

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La alucinación, donde los modelos de idiomas grandes (LLM) generan información segura pero incorrecta o irrelevante, sigue siendo una limitación clave en su aplicación a tareas complejas y abiertas. La indicación de la cadena de pensamiento (COT) ha surgido como un método prometedor para mejorar el razonamiento de varios pasos mediante la guía de los modelos a través de pasos intermedios. Sin embargo, COT solo no aborda completamente el problema de la alucinación. En este trabajo, investigamos cómo la combinación de COT con la generación de recuperación acuática (RAG), así como la aplicación de estrategias de autoconsistencia y autoverificación, puede reducir las alucinaciones y mejorar la precisión objetiva. Al incorporar fuentes de conocimiento externas durante los modelos de razonamiento y habilitación para verificar o revisar sus propios resultados, nuestro objetivo es generar respuestas más precisas y coherentes. Presentamos una evaluación comparativa de LLM de línea de base contra COT, COT+RAG, autoconsistencia y técnicas de autoverificación. Nuestros resultados resaltan la efectividad de cada método e identifican el enfoque más sólido para minimizar las alucinaciones al tiempo que preservan la fluidez y la profundidad de razonamiento.

Publicado Originalme en rss.arxiv.org El 14 de mayo de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web