Resumen: Los modelos de lenguaje grande (LLM) son candidatos poderosos para la toma de decisiones complejas, aprovechando un vasto conocimiento codificado y notables habilidades de disparo cero. Sin embargo, su adopción en entornos de alto riesgo se ve obstaculizada por su opacidad; sus resultados carecen de explicaciones fieles y no pueden impugnarse eficazmente para corregir errores, lo que socava la confiabilidad. En este artículo, proponemos ART (Árboles de razonamiento adaptativo), un método jerárquico para la verificación de reclamaciones. El proceso comienza con una afirmación fundamental, que se ramifica para apoyar y atacar argumentos secundarios. La fuerza de un argumento se determina de abajo hacia arriba mediante un torneo por parejas de sus hijos, adjudicado por un juez LLM, lo que permite derivar sistemáticamente un veredicto final, transparente y cuestionable, algo que falta en métodos como la Cadena de Pensamiento (CoT). Validamos empíricamente ART en múltiples conjuntos de datos, analizando diferentes generadores de argumentos y estrategias de comparación. Nuestros hallazgos muestran que el razonamiento estructurado de ART supera las bases sólidas, estableciendo un nuevo punto de referencia para la verificación de reclamaciones explicables que es más confiable y garantiza claridad en el paso general de toma de decisiones.
Publicado originalmente en export.arxiv.org el 11 de enero de 2026.
Ver fuente original
