Resumen: Los modelos de lenguaje grande (LLM) logran resultados sólidos en la respuesta a preguntas de gráficos de conocimiento (KGQA), pero la mayoría de los puntos de referencia asumen gráficos de conocimiento completos (KG) donde existen tripletas de soporte directo. Esto reduce la evaluación a una recuperación superficial y pasa por alto la realidad de los KG incompletos, donde faltan muchos datos y las respuestas deben inferirse de los hechos existentes. Cerramos esta brecha proponiendo una metodología para construir puntos de referencia bajo la incompletitud de KG, que elimina los tripletes directos de apoyo al tiempo que garantiza que se mantengan caminos de razonamiento alternativos necesarios para inferir la respuesta. Los experimentos con puntos de referencia construidos utilizando nuestra metodología muestran que los métodos existentes sufren una degradación constante del rendimiento cuando están incompletos, lo que resalta su limitada capacidad de razonamiento. Para superar esta limitación, presentamos el Agente de razonamiento de gráficos adaptativos (GR-Agent). Primero construye un entorno interactivo a partir del KG y luego formaliza KGQA como interacción del entorno del agente dentro de este entorno. GR-Agent opera en un espacio de acción que comprende herramientas de razonamiento gráfico y mantiene una memoria de posibles evidencias de razonamiento que respalden, incluidas relaciones relevantes y rutas de razonamiento. Amplios experimentos demuestran que GR-Agent supera las líneas de base sin capacitación y se desempeña de manera comparable a los métodos basados en capacitación tanto en entornos completos como incompletos.
Publicado originalmente en export.arxiv.org el 18 de diciembre de 2025.
Ver fuente original
