Resumen: Los modelos de lenguaje grande (LLM) han demostrado fuertes habilidades en el razonamiento y la resolución de problemas, pero estudios recientes revelan que todavía tienen dificultades con las tareas de razonamiento de series temporales, donde los resultados a menudo se ven afectados por alucinaciones o fugas de conocimiento. En este trabajo proponemos TS-Agent, un agente de razonamiento de series de tiempo que aprovecha los LLM estrictamente para aquello en lo que destacan, es decir, reunir evidencia y sintetizarla en conclusiones a través del razonamiento paso a paso, mientras delega la extracción de información estadística y estructural a herramientas analíticas de series de tiempo. En lugar de mapear series temporales en tokens de texto, imágenes o incrustaciones, nuestro agente interactúa con secuencias numéricas sin procesar a través de operadores atómicos, registra los resultados en un registro de evidencia explícito y refina iterativamente su razonamiento bajo la guía de una autocrítica y una puerta de calidad final. Este diseño evita el entrenamiento de alineación multimodal, preserva la forma nativa de las series temporales, garantiza la interpretabilidad y verificabilidad y mitiga la fuga de conocimientos o las alucinaciones. Empíricamente, evaluamos al agente según puntos de referencia establecidos. Nuestros experimentos muestran que TS-Agent logra un rendimiento comparable a los LLM de última generación en la comprensión de puntos de referencia y ofrece mejoras significativas en las tareas de razonamiento, donde los modelos existentes a menudo dependen de la memorización y fallan en configuraciones de disparo cero.
Publicado originalmente en export.arxiv.org el 9 de octubre de 2025.
Ver fuente original
