Resumen: Con la evolución de la IA generativa, los sistemas de agentes múltiples que aprovechan los modelos de lenguaje grande (LLM) han surgido como una herramienta poderosa para tareas complejas. Sin embargo, estos sistemas enfrentan desafíos para cuantificar el rendimiento del agente y la falta de mecanismos para evaluar la credibilidad del agente. Para abordar estos problemas, presentamos DRF, un marco de filtrado de reputación dinámica. DRF construye una red de calificación interactiva para cuantificar el rendimiento del agente, diseña un mecanismo de puntuación de reputación para medir la honestidad y la capacidad del agente, e integra una estrategia basada en la confianza superior para mejorar la eficiencia de la selección del agente. Los experimentos muestran que DRF mejora significativamente la calidad de finalización de la tarea y la eficiencia de colaboración en el razonamiento lógico y el código – tareas de generación, que ofrece un nuevo enfoque para los sistemas de agentes múltiples para manejar tareas a gran escala.
Publicado Originalme en export.arxiv.org El 8 de septiembre de 2025.
Ver Fuente Original