Resumen: ¿Pueden los agentes del modelo de lenguaje grande (LLM) reproducir las complejas dinámicas sociales que caracterizan el comportamiento humano en línea, moldeadas por la homofilia, la reciprocidad y la validación social, y qué mecanismos de memoria y aprendizaje permiten que surjan tales dinámicas? Presentamos un marco de simulación LLM de múltiples agentes en el que los agentes interactúan repetidamente, se evalúan entre sí y adaptan su comportamiento a través del aprendizaje en contexto acelerado por una señal de entrenamiento. Para modelar el comportamiento social humano, diseñamos funciones de recompensa conductual que capturan los impulsores centrales de la participación en línea, incluida la interacción social, la búsqueda de información, la autopresentación, la coordinación y el apoyo emocional. Estas recompensas alinean los objetivos de los agentes con las motivaciones de los usuarios observadas empíricamente, lo que permite estudiar cómo las estructuras de red y las formaciones de grupos surgen de la toma de decisiones individuales. Nuestros experimentos muestran que los agentes de LLM entrenados desarrollan patrones de interacción estables y forman vínculos sociales emergentes, produciendo estructuras de red que reflejan las propiedades de comunidades en línea reales. Al combinar recompensas conductuales con adaptación en contexto, nuestro marco establece un banco de pruebas de principios para investigar la dinámica colectiva en poblaciones de LLM y revela cómo los agentes artificiales pueden aproximarse o divergir del comportamiento social humano.
Publicado originalmente en export.arxiv.org el 22 de octubre de 2025.
Ver fuente original
