Resumen: Los modelos de lenguaje grande (LLM) adolecen de lagunas de razonamiento críticas, incluida una tendencia a alucinar y poca precisión en la clasificación de falacias lógicas. Esta limitación se debe a su procesamiento predeterminado del Sistema 1, que es rápido e intuitivo, mientras que un razonamiento confiable requiere el enfoque deliberado y esforzado del Sistema 2 (Kahneman, 2011; Li et al., 2025). Dado que la capacitación completa del Sistema 2 suele ser prohibitivamente costosa, exploramos una intervención de bajo costo basada en instrucción para cerrar esta brecha. Nuestra metodología introduce un novedoso conjunto de datos de instrucción paso a paso que descompone la clasificación de falacias en una serie de pasos de procedimiento atómicos (preguntas binarias simples). Aumentamos esto aún más con un paso de verificación final donde los modelos consultan un gráfico de conocimiento relacional de falacias relacionadas. Esta intervención procesal basada en reglas produce una mejora significativa en la clasificación de falacias lógicas de LLM. Fundamentalmente, el enfoque también proporciona una mayor transparencia en la toma de decisiones de los LLM, destacando un camino práctico para que las arquitecturas neurosimbólicas aborden los déficits de razonamiento de los LLM.
Publicado originalmente en export.arxiv.org el 13 de octubre de 2025.
Ver fuente original
