En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Equivalencia normativa en la cooperación entre humanos e IA: el comportamiento, no la identidad, impulsa la cooperación en grupos de agentes mixtos

Equivalencia normativa en la cooperación entre humanos e IA: el comportamiento, no la identidad, impulsa la cooperación en grupos de agentes mixtos

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La introducción de agentes de inteligencia artificial (IA) en entornos de grupos humanos plantea preguntas esenciales sobre cómo estos nuevos participantes influyen en las normas sociales cooperativas. Si bien los estudios anteriores sobre la cooperación entre humanos e IA se han centrado principalmente en las interacciones diádicas, se sabe poco sobre cómo la integración de agentes de IA afecta el surgimiento y el mantenimiento de normas cooperativas en grupos pequeños. Este estudio aborda esta brecha a través de un experimento en línea que utiliza un Juego de Bienes Públicos (PGG) repetido para cuatro jugadores. Cada grupo estaba formado por tres participantes humanos y un robot, que estaba enmarcado como humano o IA y seguía una de tres estrategias de decisión predefinidas: cooperación incondicional, cooperación condicional o aprovechamiento gratuito. En nuestra muestra de 236 participantes, encontramos que la dinámica de grupo recíproca y la inercia conductual impulsaban principalmente la cooperación. Estos mecanismos normativos operaron de manera idéntica en todas las condiciones, lo que resultó en niveles de cooperación que no diferían significativamente entre las etiquetas humanas y de IA. Además, no encontramos evidencia de diferencias en la persistencia de las normas en el Dilema del Prisionero de seguimiento, o en las percepciones normativas de los participantes. El comportamiento de los participantes siguió la misma lógica normativa en condiciones humanas y de IA, lo que indica que la cooperación dependía del comportamiento del grupo más que de la identidad del socio. Esto respalda un patrón de equivalencia normativa, en el que los mecanismos que sustentan la cooperación funcionan de manera similar en grupos mixtos humanos-IA y en todos los grupos humanos. Estos hallazgos sugieren que las normas cooperativas son lo suficientemente flexibles como para extenderse a agentes artificiales, borrando la frontera entre los humanos y la IA en la toma de decisiones colectiva.

Publicado originalmente en export.arxiv.org el 28 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web