Resumen:A medida que los LLM actúan cada vez más como agentes autónomos en entornos interactivos y de múltiples agentes, comprender su comportamiento estratégico es fundamental para la seguridad, la coordinación y los sistemas sociales y económicos impulsados por la IA. Investigamos cómo la magnitud de los beneficios y el contexto lingüístico dan forma a las estrategias de LLM en dilemas sociales repetidos, utilizando un dilema del prisionero con escala de beneficios para aislar la sensibilidad a la fuerza del incentivo. En todos los modelos y lenguajes, observamos patrones de comportamiento consistentes, incluidas estrategias condicionales sensibles a incentivos y divergencia entre idiomas. Para interpretar esta dinámica, entrenamos a clasificadores supervisados en estrategias canónicas de juegos repetidos y las aplicamos a decisiones de LLM, revelando intenciones de comportamiento sistemáticas, dependientes del modelo y del lenguaje, con un marco lingüístico que a veces iguala o supera los efectos arquitectónicos. Nuestros resultados proporcionan un marco unificado para auditar los LLM como agentes estratégicos y resaltan los sesgos de cooperación con implicaciones directas para la gobernanza de la IA y el diseño de sistemas multiagente.
Publicado originalmente en export.arxiv.org el 27 de enero de 2026.
Ver fuente original
