Resumen: Los protocolos distribuidos demostrablemente correctos, que son un componente crítico de los sistemas distribuidos modernos, son muy difíciles de diseñar y, a menudo, han requerido décadas de esfuerzo humano. Estos protocolos permiten que múltiples agentes se coordinen para llegar a un acuerdo común en un entorno de incertidumbre y fracasos. Formulamos el diseño de protocolos como un problema de búsqueda de estrategias en un juego con información imperfecta, y las condiciones de corrección deseadas se especifican en las Teorías del Módulo de Satisfacibilidad (SMT). Sin embargo, los métodos estándar para resolver juegos con múltiples agentes no logran aprender los protocolos correctos en este entorno, incluso cuando el número de agentes es pequeño. Proponemos un marco de aprendizaje, GGMS, que integra una variante especializada de Monte Carlo Tree Search con un codificador de acción basado en transformador, una búsqueda global en profundidad para romper los mínimos locales y retroalimentación repetida de un verificador de modelos. Los protocolos generados por GGMS se verifican correctamente mediante una verificación exhaustiva del modelo para todas las ejecuciones dentro de la configuración limitada. Además, demostramos que, bajo suposiciones leves, el proceso de búsqueda está completo: si existe un protocolo correcto, GGMS eventualmente lo encontrará. En experimentos, demostramos que GGMS puede aprender protocolos correctos para entornos más grandes que los métodos existentes.
Publicado originalmente en export.arxiv.org el 1 de febrero de 2026.
Ver fuente original
