Resumen: Fusionar gráficos de conocimiento con modelos de lenguaje grandes es crucial para tareas intensivas en conocimiento, como la finalización de gráficos de conocimiento. El paradigma predominante, el ajuste de prefijos, simplemente concatena la incorporación de conocimientos con entradas de texto. Sin embargo, esta fusión superficial pasa por alto la rica semántica relacional dentro de los KG e impone una carga de razonamiento implícita significativa al LLM para correlacionar el prefijo con el texto. Para abordarlos, proponemos el ajuste de condiciones semánticas (SCT), un nuevo paradigma de inyección de conocimiento que comprende dos módulos clave. En primer lugar, un módulo de gráfico semántico emplea una red neuronal de gráficos para extraer una condición semántica consciente del contexto de la vecindad del gráfico local, guiada por relaciones mejoradas por el conocimiento. Posteriormente, esta condición se pasa a un módulo de fusión adaptable a la condición, que, a su vez, modula de forma adaptativa la incrustación textual a través de dos proyectores parametrizados, lo que permite una interacción profunda, funcional y consciente del conocimiento. La incrustación prefundida resultante luego se introduce en el LLM para realizar ajustes. Amplios experimentos sobre puntos de referencia de gráficos de conocimiento demuestran que SCT supera significativamente el ajuste de prefijos y otras líneas de base sólidas. Nuestro análisis confirma que al modular la representación de entrada con el contexto del gráfico semántico antes de la inferencia LLM, SCT proporciona una señal más directa y potente, lo que permite un razonamiento de conocimiento más preciso y sólido.
Publicado originalmente en export.arxiv.org el 12 de octubre de 2025.
Ver fuente original
