Resumen: Diseñamos un agente de modelo de lenguaje grande (LLM) que extrae mapas cognitivos difusos (FCM) de retroalimentación causal a partir de texto sin formato. El proceso de aprendizaje o extracción causal es agente debido a la semiautonomía del LLM y porque, en última instancia, los equilibrios del sistema dinámico FCM impulsan a los agentes del LLM a buscar y procesar texto causal. El texto obtenido puede, en principio, modificar la estructura causal adaptativa del FCM y así modificar la fuente de su cuasiautonomía: sus ciclos límite de equilibrio y atractores de punto fijo. Este proceso bidireccional dota al sistema dinámico FCM en evolución de un grado de autonomía sin dejar de mantenerse atado a su correa agente. En particular, mostramos que una secuencia de tres instrucciones del sistema finamente ajustadas guía a un agente LLM mientras extrae sistemáticamente sustantivos y frases nominales clave del texto, mientras extrae nodos conceptuales FCM de entre esos sustantivos y frases nominales, y luego extrae o infiere bordes causales parciales o difusos entre esos nodos FCM. Ponemos a prueba esta generación de FCM en un ensayo reciente sobre la promesa de la IA del difunto diplomático y teórico político Henry Kissinger y sus colegas. Este proceso de tres pasos produjo sistemas dinámicos FCM que convergieron a los mismos ciclos límite de equilibrio que los FCM generados por humanos, aunque los FCM generados por humanos diferían en el número de nodos y bordes. Un FCM final generó FCM mixtos de agentes separados de Gemini y ChatGPT LLM. El FCM mixto absorbió los equilibrios de su componente mixto dominante pero también creó nuevos equilibrios propios para aproximarse mejor al sistema dinámico causal subyacente.
Publicado originalmente en export.arxiv.org el 4 de enero de 2026.
Ver fuente original
