Resumen: Si bien los humanos son criaturas inherentemente sociales, el desafío de identificar cuándo y cómo ayudar y colaborar con otros, particularmente cuando persigue objetivos independientes, puede obstaculizar la cooperación. Para abordar este desafío, nuestro objetivo es desarrollar un sistema de IA que proporcione comentarios útiles para promover el comportamiento prosocial, acciones que benefician a otros, incluso cuando no están alineados directamente con los propios objetivos. Introducimos Protom, un facilitador informado por la mente que promueve acciones prosociales en sistemas de múltiples agentes al proporcionar retroalimentación dirigida y sensible al contexto a los agentes individuales. Protom primero infiere los objetivos de los agentes utilizando la planificación inversa bayesiana, luego selecciona retroalimentación para comunicarse maximizando la utilidad esperada, condicionada a la distribución de objetivos inferidos. Evaluamos nuestro enfoque contra las líneas de base en dos entornos de múltiples agentes: puertas, claves y gemas, así como en exceso. Nuestros resultados sugieren que los modelos de lenguaje y razonamiento de última generación no alcanzan la retroalimentación que se basa en contextualmente y a tiempo, lo que lleva a una mayor sobrecarga de comunicación y a la aceleración de la tarea. Por el contrario, Protom proporciona retroalimentación específica y útil, logrando una tasa de éxito más alta, tiempos de finalización de tareas más cortos, y los usuarios humanos prefieren constantemente.
Publicado Originalme en export.arxiv.org El 7 de septiembre de 2025.
Ver Fuente Original