Resumen: Los agentes del Modelo de Lenguaje (LM) se utilizan cada vez más como tomadores de decisiones autónomos que necesitan recopilar activamente información para guiar sus decisiones. Una habilidad cognitiva crucial para tales agentes es la exploración y comprensión eficientes de la estructura causal del mundo, clave para el razonamiento robusto y científicamente fundamentado. Sin embargo, no está claro si LMS posee esta capacidad o exhibe sesgos sistemáticos que conducen a conclusiones erróneas. En este trabajo, examinamos la capacidad de LMS para explorar e inferir relaciones causales, utilizando el paradigma de “prueba de blicket” bien establecido de la psicología del desarrollo. Encontramos que los LM inferen de manera confiable las relaciones causales disyuntivas comunes e intuitivas, pero luchan sistemáticamente con las inusuales, pero igualmente (o a veces aún más) evidencian las conjuntivas conjuntivas. Este “sesgo disyuntivo” persiste en las familias modelo, los tamaños y las estrategias de impulso, y el rendimiento disminuye aún más a medida que aumenta la complejidad de la tarea. Curiosamente, aparece un sesgo análogo en los adultos humanos, lo que sugiere que LMS puede haber heredado las heurísticas de razonamiento profundamente arraigados de sus datos de entrenamiento. Con este fin, cuantificamos las similitudes entre LMS y humanos, encontrando que LMS exhibe perfiles de inferencia similares a los adultos (pero no como niños). Finalmente, proponemos un método de muestreo de tiempo de prueba que muestra explícitamente y elimina hipótesis sobre las relaciones causales de la LM. Este enfoque escalable reduce significativamente el sesgo disyuntivo y se acerca a LMS al objetivo del razonamiento científico y causalmente riguroso.
Publicado Originalme en rss.arxiv.org El 14 de mayo de 2025.
Ver Fuente Original