Resumen: La respuesta de las preguntas sobre los gráficos de conocimiento académico (SKGS) sigue siendo una tarea desafiante debido a la complejidad del contenido académico y la estructura intrincada de estos gráficos. Los enfoques del modelo de lenguaje grande (LLM) podrían usarse para traducir preguntas de lenguaje natural (NLQ) en consultas SPARQL; Sin embargo, estos enfoques basados en LLM luchan con la generación de consultas SPARQL debido a la exposición limitada al contenido específico de SKG y al esquema subyacente. Identificamos dos tipos principales de errores en las consultas SPARQL generadas por LLM: (i) inconsistencias estructurales, como los triples faltantes o redundantes en las consultas, y (ii) inexactitudes semánticas, donde las entidades o propiedades incorrectas se muestran en las consideraciones a pesar de una estructura de consulta correcta. Para abordar estos problemas, proponemos FiresParQL, un marco modular que admite LLMS sintonizados como un componente central, con un contexto opcional proporcionado a través de la generación de recuperación acuática (RAG) y una capa de corrección de consulta SPARQL. Evaluamos el marco en el punto de referencia SciQA utilizando varias configuraciones (shot cero, shot cero con trapo, un disparo, ajuste y ajuste fino con trapo) y comparamos el rendimiento con los enfoques de referencia y de vanguardia. Medimos la precisión de la consulta utilizando las métricas de Bleu y Rouge, y la precisión del resultado de la consulta utilizando la coincidencia exacta relajada (relajación), con respecto a los estándares de oro que contienen los NLQ, consultas SPARQL y los resultados de las consultas. Los resultados experimentales demuestran que el ajuste fino logra el mayor rendimiento general, alcanzando 0.90 Rouge-L para la precisión de la consulta y 0.85 RelajedEM para la precisión de los resultados en el conjunto de pruebas.
Publicado Originalme en export.arxiv.org El 14 de agosto de 2025.
Ver Fuente Original