Resumen: Los sistemas multiagente construidos sobre modelos de lenguajes grandes (LLM) prometen capacidades mejoradas de resolución de problemas a través de la división colaborativa del trabajo. Sin embargo, con frecuencia tienen un rendimiento inferior al de las líneas base de un solo agente debido a cascadas de errores a nivel de borde: pequeñas imprecisiones en la transferencia de un mensaje se propagan por toda la cadena. Proponemos AgentAsk, un módulo de aclaración liviano y listo para usar que trata cada mensaje entre agentes como un posible punto de falla e inserta preguntas mínimamente necesarias para detener la propagación de errores. AgentAsk sigue un proceso de tres etapas: (i) destilar juicios a nivel de borde a partir de rastros de fallas seleccionados en una política compacta, (ii) supervisar la política para determinar cuándo/qué/a quién/cómo preguntar y (iii) optimizar en línea con E-GRPO, un objetivo de aprendizaje de refuerzo que equilibra la precisión, la latencia y el costo. El módulo es independiente de la arquitectura y fácil de integrar en la orquestación existente. En los puntos de referencia de matemáticas, razonamiento y codificación, AgentAsk mejora constantemente la precisión y la solidez de las implementaciones públicas de múltiples agentes, al tiempo que mantiene los gastos generales al mínimo, con una latencia y un costo adicional inferiores al 5 %, acercándose al desempeño de un evaluador sólido. Más allá de las mejoras empíricas, aportamos una taxonomía basada en principios de errores a nivel de borde y una receta práctica para la intervención local de enlace, ofreciendo un camino escalable hacia sistemas multiagente basados en LLM más confiables.
Publicado originalmente en export.arxiv.org el 9 de octubre de 2025.
Ver fuente original