Resumen:Las campañas de desinformación pueden distorsionar la percepción pública y desestabilizar las instituciones. Comprender cómo responden las diferentes poblaciones a la información es crucial para diseñar intervenciones efectivas, pero la experimentación en el mundo real es poco práctica y éticamente desafiante. Para abordar esto, desarrollamos una simulación basada en agentes utilizando modelos de lenguaje grande (LLM) para modelar respuestas a la información errónea. Construimos personajes de agentes que abarcan cinco profesiones y tres esquemas mentales, y evaluamos sus reacciones a los titulares de las noticias. Nuestros hallazgos muestran que los agentes generados por LLM se alinean estrechamente con las etiquetas de verdad sobre el terreno y las predicciones humanas, lo que respalda su uso como sustitutos para estudiar las respuestas a la información. También encontramos que los esquemas mentales, más que los antecedentes profesionales, influyen en la forma en que los agentes interpretan la información errónea. Este trabajo proporciona una validación de los LLM para ser utilizados como agentes en un modelo basado en agentes de una red de información para analizar la confianza, la polarización y la susceptibilidad al contenido engañoso en sistemas sociales complejos.
Publicado originalmente en export.arxiv.org el 9 de noviembre de 2025.
Ver fuente original
