En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Más en juego: cómo la rentabilidad y el lenguaje dan forma a las estrategias de los agentes de LLM en dilemas de cooperación

Más en juego: cómo la rentabilidad y el lenguaje dan forma a las estrategias de los agentes de LLM en dilemas de cooperación

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen:A medida que los LLM actúan cada vez más como agentes autónomos en entornos interactivos y de múltiples agentes, comprender su comportamiento estratégico es fundamental para la seguridad, la coordinación y los sistemas sociales y económicos impulsados ​​por la IA. Investigamos cómo la magnitud de los beneficios y el contexto lingüístico dan forma a las estrategias de LLM en dilemas sociales repetidos, utilizando un dilema del prisionero con escala de beneficios para aislar la sensibilidad a la fuerza del incentivo. En todos los modelos y lenguajes, observamos patrones de comportamiento consistentes, incluidas estrategias condicionales sensibles a incentivos y divergencia entre idiomas. Para interpretar esta dinámica, entrenamos a clasificadores supervisados ​​en estrategias canónicas de juegos repetidos y las aplicamos a decisiones de LLM, revelando intenciones de comportamiento sistemáticas, dependientes del modelo y del lenguaje, con un marco lingüístico que a veces iguala o supera los efectos arquitectónicos. Nuestros resultados proporcionan un marco unificado para auditar los LLM como agentes estratégicos y resaltan los sesgos de cooperación con implicaciones directas para la gobernanza de la IA y el diseño de sistemas multiagente.

Publicado originalmente en export.arxiv.org el 27 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web