Resumen: El rápido aumento de los modelos de lenguaje grande (LLMS) ha cambiado la investigación de inteligencia artificial (IA) hacia los sistemas de agente, motivando el uso de nociones de agencia más débiles y más flexibles. Sin embargo, este cambio plantea preguntas clave sobre la medida en que los agentes con sede en LLM replican el razonamiento estratégico humano, particularmente en los entornos teóricos del juego. En este contexto, examinamos el papel de la sofisticación agente en la configuración del rendimiento de los razonadores artificiales mediante la evaluación de tres diseños de agentes: un modelo teórico simple del juego, un modelo de agente LLM como agente no estructurado y un LLM integrado en un marco agente tradicional. Utilizando los juegos de adivinanzas como un lecho de prueba, comparamos a estos agentes contra los participantes humanos en patrones de razonamiento general y objetivos individuales basados en roles. Además, presentamos escenarios de juegos ofuscados para evaluar la capacidad de los agentes para generalizar más allá de las distribuciones de capacitación. Nuestro análisis, que cubre más de 2000 muestras de razonamiento en 25 configuraciones de agentes, muestra que las estructuras cognitivas inspiradas en los humanos pueden mejorar la alineación de los agentes de LLM con el comportamiento estratégico humano. Aún así, la relación entre la complejidad del diseño de agente y la probabilidad humana no es lineal, destacando una dependencia crítica de las capacidades de LLM subyacentes y sugiriendo límites al aumento arquitectónico simple.
Publicado Originalme en rss.arxiv.org El 14 de mayo de 2025.
Ver Fuente Original