Resumen: Los modelos de lenguajes grandes (LLM) generalmente mejoran su desempeño mediante la recuperación de información semánticamente similar o la mejora de sus capacidades de razonamiento. Sin embargo, sigue existiendo un desafío importante a la hora de integrar eficazmente estrategias de recuperación y razonamiento para optimizar el rendimiento del LLM. En este artículo, presentamos un método de recuperación de conocimientos basado en el razonamiento que enriquece los LLM con información alineada con la estructura lógica de las conversaciones, yendo más allá de la similitud semántica a nivel superficial. Seguimos un enfoque de grueso a fino para la recuperación de conocimientos. Primero, identificamos una subregión contextualmente relevante de la base de conocimientos, asegurando que todas las oraciones dentro de ella sean relevantes para el tema del contexto. A continuación, refinamos nuestra búsqueda dentro de esta subregión para extraer conocimiento que sea específicamente relevante para el proceso de razonamiento. A lo largo de ambas fases, empleamos el método de búsqueda inspirado en Monte Carlo Tree Search para navegar de manera efectiva a través de oraciones de conocimiento utilizando palabras clave comunes. Los experimentos en dos conjuntos de datos de diálogos de múltiples turnos demuestran que nuestro enfoque de recuperación de conocimientos no solo se alinea más estrechamente con el razonamiento subyacente en las conversaciones humanas, sino que también mejora significativamente la diversidad del conocimiento recuperado, lo que resulta en respuestas más informativas y creativas.
Publicado originalmente en export.arxiv.org el 4 de enero de 2026.
Ver fuente original
