En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->PAR$^2$-RAG: Recuperación activa planificada y razonamiento para responder preguntas de múltiples saltos

PAR$^2$-RAG: Recuperación activa planificada y razonamiento para responder preguntas de múltiples saltos

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los modelos de lenguaje grande (LLM) siguen siendo frágiles en la respuesta a preguntas de múltiples saltos (MHQA), donde la respuesta requiere combinar evidencia entre documentos mediante la recuperación y el razonamiento. Los sistemas de recuperación iterativos pueden fallar al fijarse en una trayectoria temprana de baja recuperación y amplificar los errores posteriores, mientras que los enfoques de solo planificación pueden producir conjuntos de consultas estáticas que no pueden adaptarse cuando cambia la evidencia intermedia. Proponemos textbf{RAG de razonamiento y recuperación activa planificada (PAR$^2$-RAG)}, un marco de dos etapas que separa emph{cobertura} de emph{compromiso}. PAR$^2$-RAG primero realiza un anclaje en amplitud para construir una frontera de evidencia de alta recuperación, luego aplica un refinamiento en profundidad con control de suficiencia de evidencia en un bucle iterativo. En cuatro puntos de referencia de MHQA, PAR$^2$-RAG supera consistentemente las líneas base de última generación existentes; en comparación con IRCoT, PAR$^2$-RAG logra una precisión hasta textbf{23.5%} mayor, con ganancias de recuperación de hasta textbf{10.5%} en NDCG.

Publicado originalmente en export.arxiv.org el 31 de marzo de 2026.
Ver fuente original

admin

Usuario de administración del sitio web