Resumen: La integración del conocimiento externo a través de la generación de recuperación aumentada (RAG) se ha vuelto fundamental para mejorar los modelos de idiomas grandes (LLM) para tareas intensivas en conocimiento. Sin embargo, los paradigmas de RAG existentes a menudo pasan por alto el paso cognitivo de aplicar conocimiento, dejando una brecha entre los hechos recuperados y el razonamiento específico de la tarea. En este trabajo, presentamos RAG+, una extensión de principios y modulares que incorpora explícitamente el razonamiento consciente de la aplicación en la tubería RAG. RAG+ construye un corpus dual que consiste en conocimiento y ejemplos de aplicación alineados, creado manual o automáticamente, y recupera ambos conjuntamente durante la inferencia. Este diseño permite a LLM no solo acceder a la información relevante, sino también aplicarla dentro de los procesos de razonamiento estructurados orientados a objetivos. Los experimentos en dominios matemáticos, legales y médicos, realizados en múltiples modelos, demuestran que RAG+ supera constantemente las variantes de RAG estándar, logrando mejoras promedio de 3-5% y ganancias máximas de hasta 7.5% en escenarios complejos. Al unir la recuperación con una aplicación procesable, RAG+ avanza un marco más cognitivamente cognitivo para la integración del conocimiento, que representa un paso hacia LLM más interpretables y capaces.
Publicado Originalme en rss.arxiv.org El 15 de junio de 2025.
Ver Fuente Original