Resumen:Trabajos recientes comenzaron a automatizar el diseño de sistemas agentes utilizando metaagentes que proponen y refinan iterativamente nuevas arquitecturas de agentes. En este artículo, examinamos tres desafíos clave en una clase común de metaagentes. Primero, investigamos cómo un metaagente aprende a través de iteraciones y descubrimos que simplemente expandir el contexto con todos los agentes anteriores, como lo proponen trabajos anteriores, funciona peor que ignorar por completo los diseños anteriores. Mostramos que el rendimiento mejora con un enfoque evolutivo. En segundo lugar, aunque el metaagente diseña varios agentes durante el entrenamiento, normalmente se compromete con un solo agente en el momento de la prueba. Encontramos que los agentes diseñados tienen una baja diversidad de comportamiento, lo que limita el potencial para su uso complementario. En tercer lugar, evaluamos cuándo el diseño automatizado es económicamente viable. Descubrimos que sólo en unos pocos casos (específicamente, dos conjuntos de datos) el costo total de diseño e implementación de los agentes es menor que el de los agentes diseñados por humanos cuando se implementan en más de 15.000 ejemplos. Por el contrario, las mejoras en el rendimiento de otros conjuntos de datos no justifican el coste del diseño, independientemente de la escala.
Publicado originalmente en export.arxiv.org el 8 de octubre de 2025.
Ver fuente original