Resumen: ¿Cómo una causa conduce a un efecto y qué pasos causales intermedios explican su conexión? Este trabajo examina las capacidades de razonamiento causal mecanicista de los modelos de lenguaje grande (LLM) para responder estas preguntas a través de la tarea de descubrimiento de cadenas causales implícitas. En un marco de evaluación de diagnóstico, instruimos a nueve LLM para que generen todos los posibles pasos causales intermedios que vinculen pares causa-efecto determinados en estructuras de cadena causal. Estos pares se extraen de recursos recientes en estudios de argumentación que presentan discusiones polarizadas sobre el cambio climático. Nuestro análisis revela que los LLM varían en el número y granularidad de los pasos causales que producen. Aunque generalmente son autoconsistentes y confiados en las conexiones causales intermedias en las cadenas generadas, sus juicios están impulsados principalmente por coincidencias de patrones asociativos más que por un razonamiento causal genuino. No obstante, las evaluaciones humanas confirmaron la coherencia lógica y la integridad de las cadenas generadas. Nuestro enfoque básico de descubrimiento de cadenas causales, los conocimientos de nuestra evaluación de diagnóstico y el conjunto de datos de referencia con cadenas causales sientan una base sólida para avanzar en el trabajo futuro sobre el razonamiento causal implícito y mecanicista en entornos de argumentación.
Publicado originalmente en export.arxiv.org el 15 de octubre de 2025.
Ver fuente original
