Resumen: Un objetivo central del modelado cognitivo es desarrollar modelos que no solo predicen el comportamiento humano, sino que también proporcionen información sobre los mecanismos cognitivos subyacentes. Si bien los modelos de redes neuronales entrenados en datos de comportamiento a gran escala a menudo logran un fuerte rendimiento predictivo, generalmente se quedan cortos en ofrecer explicaciones interpretables de los procesos cognitivos que capturan. En este trabajo, exploramos el potencial de los modelos de lenguaje grande previamente prenado (LLM) para servir como modelos cognitivos de doble propósito, con la capacidad de predicción precisa y la explicación interpretable en el lenguaje natural. Específicamente, empleamos el aprendizaje de refuerzo con recompensas basadas en resultados para guiar a LLM hacia la generación de trazas de razonamiento explícitas para explicar las elecciones de riesgo humano. Nuestros hallazgos demuestran que este enfoque produce explicaciones de alta calidad junto con fuertes predicciones cuantitativas de las decisiones humanas.
Publicado Originalme en rss.arxiv.org El 19 de mayo de 2025.
Ver Fuente Original