Resumen: Los modelos de lenguaje grande (LLM) pueden proponer reglas en lenguaje natural, evitando la necesidad de un espacio de predicados predefinido en el aprendizaje de reglas tradicional. Sin embargo, muchos enfoques basados en LLM ignoran las interacciones entre reglas, y la oportunidad de combinar LLM con el aprendizaje de reglas probabilísticas para una inferencia sólida sigue sin explorarse. Presentamos RLIE, un marco unificado que integra LLM con modelos probabilísticos para aprender un conjunto de reglas ponderadas. RLIE tiene cuatro etapas: (1) Generación de reglas, donde un LLM propone y filtra candidatos; (2) Regresión logística, que aprende pesos probabilísticos para la selección y calibración global; (3) Refinamiento iterativo, que actualiza el conjunto de reglas utilizando errores de predicción; y (4) Evaluación, que compara el conjunto de reglas ponderadas como clasificador directo con métodos que inyectan reglas en un LLM. Evaluamos múltiples estrategias de inferencia en conjuntos de datos del mundo real. La aplicación de reglas directamente con las ponderaciones aprendidas produce un rendimiento superior, mientras que solicitar a los LLM las reglas, ponderaciones y resultados del modelo logístico degrada sorprendentemente la precisión. Esto respalda la opinión de que los LLM sobresalen en la generación e interpretación semántica, pero son menos confiables para una integración probabilística precisa. RLIE aclara el potencial y las limitaciones de los LLM para el razonamiento inductivo y los combina con métodos clásicos de combinación de reglas probabilísticas para permitir un razonamiento neurosimbólico más confiable.
Publicado originalmente en export.arxiv.org el 22 de octubre de 2025.
Ver fuente original
