Resumen: Un sistema multiagente (MAS) mejora su capacidad para resolver tareas complejas de procesamiento del lenguaje natural (PNL) a través de la colaboración entre múltiples agentes, donde la búsqueda de consenso sirve como mecanismo fundamental. Sin embargo, los enfoques existentes de búsqueda de consenso suelen basarse en mecanismos de votación para juzgar el consenso, pasando por alto las contradicciones en las creencias internas del sistema que desestabilizan el consenso. Además, estos métodos a menudo implican que los agentes actualicen sus resultados mediante la colaboración indiscriminada con todos los demás agentes. Esta interacción uniforme no logra identificar a los colaboradores óptimos para cada agente, lo que dificulta el surgimiento de un consenso estable. Para abordar estos desafíos, proporcionamos un marco teórico para seleccionar colaboradores óptimos que maximicen la estabilidad del consenso. Con base en los teoremas, proponemos el marco de búsqueda de consenso calibrado por creencias (BCCS) para facilitar un consenso estable mediante la selección de colaboradores óptimos y la calibración del juicio de consenso según las creencias internas del sistema. Los resultados experimentales en los conjuntos de datos de referencia MATH y MMLU demuestran que el marco BCCS propuesto supera los mejores resultados existentes con un 2,23 % y un 3,95 % de precisión en tareas desafiantes, respectivamente. Nuestro código y datos están disponibles en esta URL https.
Publicado originalmente en export.arxiv.org el 8 de octubre de 2025.
Ver fuente original