Resumen:A medida que los modelos de lenguajes grandes (LLM) continúan creciendo en tamaño, sus capacidades para abordar tareas complejas han mejorado significativamente. Sin embargo, cuestiones como las alucinaciones y la falta de conocimientos actualizados siguen sin resolverse en gran medida. Los gráficos de conocimiento (KG), que sirven como representaciones simbólicas del conocimiento del mundo real, ofrecen una fuente confiable para mejorar el razonamiento. Por lo tanto, la integración de la recuperación de KG en los LLM puede fortalecer su razonamiento al proporcionar conocimientos confiables. Sin embargo, debido a la comprensión limitada del gráfico de conocimiento subyacente, los LLM pueden tener dificultades con consultas que tienen múltiples interpretaciones. Además, lo incompleto y el ruido dentro de los gráficos de conocimiento pueden provocar fallas en la recuperación. Para abordar estos desafíos, proponemos un marco de razonamiento de recuperación basado en incrustación, EMBRAG. En este enfoque, el modelo primero genera múltiples reglas lógicas basadas en gráficos de conocimiento basados en la consulta de entrada. Luego, estas reglas se aplican al razonamiento en el espacio de incrustación, guiadas por el gráfico de conocimiento, lo que garantiza un razonamiento más sólido y preciso. Un modelo de reclasificación interpreta aún más estas reglas y refina los resultados. Amplios experimentos en dos conjuntos de datos de referencia de KGQA demuestran que nuestro enfoque logra el nuevo rendimiento de vanguardia en las tareas de razonamiento de KG.
Publicado originalmente en export.arxiv.org el 16 de marzo de 2026.
Ver fuente original
