En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->¿Los modelos de lenguaje grandes muestran sesgos en el aprendizaje causal? Perspectivas del juicio de contingencia

¿Los modelos de lenguaje grandes muestran sesgos en el aprendizaje causal? Perspectivas del juicio de contingencia

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: El aprendizaje causal es el proceso cognitivo de desarrollar la capacidad de hacer inferencias causales basadas en la información disponible, a menudo guiada por principios normativos. Este proceso es propenso a errores y sesgos, como la ilusión de causalidad, en la que las personas perciben una relación causal entre dos variables a pesar de carecer de evidencia que lo respalde. Se ha propuesto que este sesgo cognitivo es la base de muchos problemas sociales, incluidos los prejuicios sociales, la formación de estereotipos, la desinformación y el pensamiento supersticioso. En este trabajo, examinamos si los grandes modelos de lenguaje son propensos a desarrollar ilusiones causales cuando se enfrentan a un paradigma clásico de la ciencia cognitiva: la tarea de juicio de contingencia. Para investigar esto, construimos un conjunto de datos de 1000 escenarios de contingencia nula (en los que la información disponible no es suficiente para establecer una relación causal entre las variables) dentro de contextos médicos y solicitamos a los LLM que evaluaran la efectividad de las causas potenciales. Nuestros hallazgos muestran que todos los modelos evaluados infieren sistemáticamente relaciones causales injustificadas, revelando una fuerte susceptibilidad a la ilusión de causalidad. Si bien existe un debate en curso sobre si los LLM realmente entienden la causalidad o simplemente reproducen el lenguaje causal sin una verdadera comprensión, nuestros hallazgos respaldan la última hipótesis y plantean preocupaciones sobre el uso de modelos de lenguaje en dominios donde el razonamiento causal preciso es esencial para la toma de decisiones informada.

Publicado originalmente en export.arxiv.org el 16 de octubre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web