Resumen: El rápido avance de los modelos de idiomas grandes (LLM) ha capacitado a agentes inteligentes para aprovechar diversas herramientas externas para resolver problemas complejos del mundo real. Sin embargo, a medida que los agentes dependen cada vez más de múltiples herramientas, encuentran nuevos desafíos: los contextos extendidos de fuentes dispares y las salidas de herramientas ruidosas o irrelevantes pueden socavar la confiabilidad y precisión del sistema. Estos desafíos subrayan la necesidad de una mayor estabilidad en los sistemas basados en agentes. Para abordar esto, introducimos mecanismos dinámicos de supervisión y maniobra, construyendo una arquitectura de sistema múltiple (MAS) robusta y dinámica dentro del marco de Aworld. En nuestro enfoque, el agente de ejecución invoca al agente de la guardia en pasos críticos para verificar y corregir el proceso de razonamiento, reduciendo efectivamente los errores que surgen del ruido y reforzando la robustez de resolución de problemas. Experimentos extensos en el conjunto de datos de prueba de GAIA revelan que nuestro mecanismo de maniobra dinámica mejora significativamente tanto la efectividad como la estabilidad de las soluciones, superar el sistema de agente único (SAS) y Como resultado, nuestro sistema MAS dinámico logró el primer lugar entre los proyectos de código abierto en la prestigiosa tabla de clasificación de Gaia. Estos hallazgos destacan el valor práctico de los roles de agentes colaborativos en el desarrollo de sistemas inteligentes más confiables y confiables.
Publicado Originalme en export.arxiv.org El 13 de agosto de 2025.
Ver Fuente Original