Resumen: Los modelos de lenguaje grande (LLMS) se destacan en tareas de razonamiento complejas, pero luchan con una aplicación de reglas consistente, manejo de excepciones y explicación, particularmente en dominios como el análisis legal que requieren comprensión del lenguaje natural e inferencia lógica precisa. Este documento introduce un marco de indicación estructurado que descompone el razonamiento en tres pasos verificables: identificación de entidad, extracción de propiedades y aplicación de reglas simbólicas. Al integrar los enfoques neuronales y simbólicos, nuestro método aprovecha la flexibilidad interpretativa de las LLM al tiempo que garantiza la consistencia lógica a través de la verificación formal. El marco externaliza las definiciones de tareas, lo que permite a los expertos en dominio refinar estructuras lógicas sin alterar la arquitectura. Evaluado en la tarea de determinación de rumores de LegalBench, nuestro enfoque superó significativamente las líneas de base, con modelos O OpenAI O-Family que muestran mejoras sustanciales, O1 logrando una puntuación F1 de 0.929 y O3-Mini 0.867 utilizando una descomposición estructurada con predicados complementarios, en comparación con sus pocas bases de 0.714 y 0.74 respectivamente. Este sistema de simbólicos neuronales híbridos ofrece una vía prometedora para un razonamiento basado en reglas transparente y consistente, lo que sugiere potencial para aplicaciones de IA explicables en tareas de razonamiento legal estructurado.
Publicado Originalme en export.arxiv.org El 22 de junio de 2025.
Ver Fuente Original