En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Firesparql: un marco basado en LLM para la generación de consultas Sparql sobre gráficos de conocimiento académico

Firesparql: un marco basado en LLM para la generación de consultas Sparql sobre gráficos de conocimiento académico

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La respuesta de las preguntas sobre los gráficos de conocimiento académico (SKGS) sigue siendo una tarea desafiante debido a la complejidad del contenido académico y la estructura intrincada de estos gráficos. Los enfoques del modelo de lenguaje grande (LLM) podrían usarse para traducir preguntas de lenguaje natural (NLQ) en consultas SPARQL; Sin embargo, estos enfoques basados en LLM luchan con la generación de consultas SPARQL debido a la exposición limitada al contenido específico de SKG y al esquema subyacente. Identificamos dos tipos principales de errores en las consultas SPARQL generadas por LLM: (i) inconsistencias estructurales, como los triples faltantes o redundantes en las consultas, y (ii) inexactitudes semánticas, donde las entidades o propiedades incorrectas se muestran en las consideraciones a pesar de una estructura de consulta correcta. Para abordar estos problemas, proponemos FiresParQL, un marco modular que admite LLMS sintonizados como un componente central, con un contexto opcional proporcionado a través de la generación de recuperación acuática (RAG) y una capa de corrección de consulta SPARQL. Evaluamos el marco en el punto de referencia SciQA utilizando varias configuraciones (shot cero, shot cero con trapo, un disparo, ajuste y ajuste fino con trapo) y comparamos el rendimiento con los enfoques de referencia y de vanguardia. Medimos la precisión de la consulta utilizando las métricas de Bleu y Rouge, y la precisión del resultado de la consulta utilizando la coincidencia exacta relajada (relajación), con respecto a los estándares de oro que contienen los NLQ, consultas SPARQL y los resultados de las consultas. Los resultados experimentales demuestran que el ajuste fino logra el mayor rendimiento general, alcanzando 0.90 Rouge-L para la precisión de la consulta y 0.85 RelajedEM para la precisión de los resultados en el conjunto de pruebas.

Publicado Originalme en export.arxiv.org El 14 de agosto de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web