En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Codeagents: un marco de token-eficiente para el razonamiento codificado de múltiples agentes en LLMS

Codeagents: un marco de token-eficiente para el razonamiento codificado de múltiples agentes en LLMS

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: El diseño rápido efectivo es esencial para mejorar las capacidades de planificación de los agentes impulsados ​​por el modelo de idioma grande (LLM). Sin embargo, las estrategias de solicitación estructuradas existentes generalmente se limitan a configuraciones de un solo agente y solo plan y, a menudo, evalúan el rendimiento únicamente en función de la precisión de la tarea, con vistas a factores críticos como la eficiencia de los tokens, la modularidad y la escalabilidad en entornos de múltiples agentes. Para abordar estas limitaciones, introducimos CodeAgents, un marco de solicitud que codifica razonamiento de múltiples agentes y permite una planificación estructurada y eficiente en token en sistemas de múltiples agentes. En Codeagents, todos los componentes de la interacción del agente, la tarea, el plan, la retroalimentación, los roles del sistema e invocaciones de herramientas externas) se codifican en pseudocodos modulares enriquecidos con estructuras de control (por ejemplo, bucles, condicionales), lógica booleana y variables tipificadas. Este diseño transforma los planes de agente conectados libremente en programas de razonamiento cohesivo, interpretable y verificable de múltiples agentes. Evaluamos el marco propuesto en tres puntos de referencia diversos: Gaia, Hotpotqa y VirtualHome, utilizando una gama de LLM representativas. Los resultados muestran mejoras consistentes en el rendimiento de la planificación, con ganancias absolutas de 3-36 puntos porcentuales sobre el lenguaje natural que provocan líneas de base. En Virtualhome, nuestro método logra una nueva tasa de éxito de última generación del 56%. Además, nuestro enfoque reduce el uso de token de entrada y salida en un 55-87% y 41-70%, respectivamente, subrayando la importancia de las métricas de evaluación conscientes de los tokens en el desarrollo de sistemas LLM de múltiples agentes escalables. El código y los recursos están disponibles en: esta URL HTTPS

Publicado Originalme en export.arxiv.org El 7 de julio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web