Resumen: Estudios recientes sobre el escalamiento de agentes de LLM han destacado el potencial del Debate Multi-Agente (MAD) para mejorar las habilidades de razonamiento. Sin embargo, el aspecto crítico de las estrategias de asignación de roles sigue sin explorarse. En este estudio, demostramos que la asignación de roles con diferentes puntos de vista a posiciones específicas afecta significativamente el desempeño de MAD en tareas de razonamiento. En concreto, encontramos una novedosa estrategia de asignación de roles, “Truth Last”, que puede mejorar el rendimiento de MAD hasta un 22% en tareas de razonamiento. Para abordar el problema de la verdad desconocida en aplicaciones prácticas, proponemos la estrategia de coherencia del debate entre múltiples agentes (MADC), que simula y optimiza sistemáticamente sus mecanismos centrales. MADC incorpora coherencia de ruta para evaluar el acuerdo entre roles independientes, simulando el rol con la puntuación de coherencia más alta como la verdad. Validamos MADC en una variedad de LLM (9 modelos), incluidos los modelos destilados DeepSeek-R1, en tareas de razonamiento desafiantes. MADC demostró consistentemente un rendimiento avanzado, superando eficazmente los cuellos de botella de rendimiento de MAD y proporcionando un camino crucial para futuras mejoras en el escalamiento de agentes LLM.
Publicado originalmente en export.arxiv.org el 17 de noviembre de 2025.
Ver fuente original
