Resumen: En pliegues invisibles, LLM-AR logra una precisión del 59,5% y una recuperación del 8,7%, 5,9 veces la precisión de referencia aleatoria, al tiempo que expone cada ruta de decisión para la inspección humana. El marco es interpretable y ajustable mediante hiperparámetros, lo que promete extenderse a otros dominios.
Publicado originalmente en export.arxiv.org el 27 de octubre de 2025.
Leer más →
Resumen: Los sistemas de IA del mundo real están abordando problemas cada vez más complejos, a menudo a través de interacciones entre agentes de modelos de lenguaje grande (LLM). Cuando estos agentes desarrollan convenciones inconsistentes, la coordinación puede fallar.
Leer más →
Resumen: Los modelos de lenguaje grande (LLM) han demostrado sólidas capacidades de razonamiento en la resolución de problemas matemáticos basados en texto; sin embargo, cuando se adaptan a tareas de razonamiento visual, en particular a la resolución de problemas geométricos, su rendimiento disminuye sustancialmente porque los problemas geométricos presentan desafíos únicos.
Leer más →