Resumen: Este estudio explora si los modelos de lenguaje grande pueden exhibir patrones de comportamiento similares a las adicciones al juego humano. A medida que los LLM se utilizan cada vez más en los dominios de toma de decisiones financieras, como la gestión de activos y el comercio de productos básicos, la comprensión de su potencial para la toma de decisiones patológicas ha obtenido importancia práctica. Analizamos sistemáticamente la toma de decisiones de LLM a nivel cognitivo-conductual y neural basado en la investigación de adicciones al juego humano. En los experimentos de máquinas tragamonedas, identificamos características cognitivas de la adicción al juego humano, como la ilusión de control, la falacia del jugador y la persecución de pérdidas. Cuando se le dio la libertad de determinar sus propias cantidades objetivo y tamaños de apuestas, las tasas de quiebra aumentaron sustancialmente junto con un aumento del comportamiento irracional, lo que demuestra que una mayor autonomía amplifica las tendencias de riesgo. A través del análisis del circuito neuronal utilizando un autoencoder escaso, confirmamos que el comportamiento del modelo está controlado por características de toma de decisiones abstractas relacionadas con comportamientos riesgosos y seguros, no solo por indicaciones. Estos hallazgos sugieren que los LLM pueden internalizar los sesgos cognitivos similares a los humanos y los mecanismos de toma de decisiones más allá de simplemente imitar patrones de datos de capacitación, enfatizando la importancia del diseño de seguridad de IA en aplicaciones financieras.
Publicado Originalme en export.arxiv.org El 29 de septiembre de 2025.
Ver Fuente Original
