Resumen:La rápida difusión de los grandes modelos lingüísticos (LLM) ha generado preocupación sobre las reacciones sociales que provocan. Investigaciones anteriores documentan actitudes negativas hacia los usuarios de IA, pero aún no está claro si dicha desaprobación se traduce en acciones costosas. Abordamos esta pregunta en un experimento en línea de dos fases (N = 491 participantes de la Fase II; la Fase I proporcionó objetivos) donde los participantes podían gastar parte de su propia dotación para reducir los ingresos de sus pares que previamente habían completado una tarea de esfuerzo real con o sin apoyo de LLM. En promedio, los participantes destruyeron el 36% de los ingresos de aquellos que dependían exclusivamente del modelo, y el castigo aumentó monótonamente con el uso real del LLM. La divulgación sobre el uso de LLM creó una brecha de credibilidad: el uso nulo autoinformado fue castigado con más dureza que el uso nulo real, lo que sugiere que las declaraciones de “no uso” se tratan con sospecha. Por el contrario, en niveles altos de uso, la confianza real en el modelo fue castigada con más fuerza que la confianza autoinformada. En conjunto, estos hallazgos proporcionan la primera evidencia conductual de que las ganancias de eficiencia de los LLM se producen a costa de sanciones sociales.
Publicado originalmente en export.arxiv.org el 15 de enero de 2026.
Ver fuente original
