Resumen: Los avances en la IA han llevado a agentes en entornos en red cada vez más reflejando el comportamiento humano, lo que difumina el límite entre los actores artificiales y humanos en contextos específicos. Este cambio provoca desafíos significativos en la confianza, la responsabilidad, la ética, la seguridad, etc. La dificultad para supervisar los comportamientos de los agentes puede conducir a problemas como la contaminación de datos y la responsabilidad poco clara. Para abordar estos desafíos, este documento propone el modelo del “ciclo de vida del comportamiento de la red”, que divide el comportamiento de la red en 6 etapas y analiza sistemáticamente las diferencias de comportamiento entre humanos y agentes en cada etapa. Con base en estas ideas, el documento introduce además el modelo de “agente para el agente (A4A)” y el modelo de “disparidad conductual del agente humano (HABD)”, que examina las distinciones fundamentales entre los comportamientos humanos e agentes a través de 5 dimensiones: mecanismo de decisión, eficiencia de ejecución, consistencia de la intención intencional, la inercia del comportamiento y los patrones irracionales. La efectividad del modelo se verifica a través de casos del mundo real, como la penetración del equipo rojo y la defensa del equipo azul. Finalmente, el documento analiza las futuras direcciones de investigación en la arquitectura dinámica de gobernanza cognitiva, la cuantificación de la disparidad del comportamiento y las pilas de protocolo de meta-gobernanza, con el objetivo de proporcionar una base teórica y una hoja de ruta técnica para una colaboración segura y confiable del agente humano.
Publicado Originalme en export.arxiv.org El 20 de agosto de 2025.
Ver Fuente Original