Resumen: El razonamiento de alta seguridad, particularmente en dominios críticos como la ley y la medicina, requiere conclusiones precisas, verificables y basadas explícitamente en evidencia. Este razonamiento se basa en las premisas codificadas de reglas, estatutos y contratos, inherentemente que implica una lógica deficiente o no monotónica debido a numerosas excepciones, donde la introducción de un solo hecho puede invalidar las reglas generales, planteando desafíos significativos. Mientras que los modelos de lenguaje grande (LLMS) se destacan en el procesamiento del lenguaje natural, sus capacidades en las tareas de inferencia estándar no se traducen en el riguroso razonamiento requerido sobre las pautas de texto de alta seguridad. Los desafíos de razonamiento central dentro de tales textos a menudo manifiestan estructuras lógicas específicas que implican negación, implicación y, más críticamente, reglas y excepciones deficiencia. En este artículo, proponemos una nueva arquitectura neurosimbólica de tierra llamada LogicalThought (LOGT) que utiliza un lenguaje lógico y un razonador avanzados junto con un LLM para construir un contexto gráfico simbólico dual y un contexto lógico. Estas dos representaciones de contexto transforman el problema de la inferencia en las pautas de forma larga en una evaluación compacta fundamentada. Evaluado en cuatro puntos de referencia de dominios múltiples contra cuatro líneas de base, LOGT mejora el rendimiento general en un 11.84% en todos los LLM. El rendimiento mejora significativamente en los tres modos de razonamiento: hasta +10.2% en la negación, +13.2% en implicación y +5.5% en el razonamiento desfasible en comparación con la línea de base más fuerte.
Publicado Originalme en export.arxiv.org El 2 de octubre de 2025.
Ver Fuente Original
