Resumen: El comportamiento intencional es un sello distintivo de la inteligencia natural y artificial. A menudo se cree que su adquisición depende de los modelos mundiales, que comprenden aspectos descriptivos (lo que es) y prescriptivos (lo que es deseable) que identifican y evalúan el estado de las cosas en el mundo, respectivamente. Los relatos computacionales canónicos del comportamiento intencional, como el aprendizaje de refuerzo, plantean componentes distintos de un modelo mundial que comprende una representación estatal (aspecto descriptivo) y una función de recompensa (aspecto prescriptivo). Sin embargo, una posibilidad alternativa, que aún no se ha formulado computacionalmente, es que estos dos aspectos en su lugar co-emergen de manera interdependiente del objetivo de un agente. Aquí, describimos un marco computacional de la representación estatal dirigida por objetivos en los agentes cognitivos, en el que los aspectos descriptivos y prescriptivos de un modelo mundial co-emergen de secuencias de interacción de agente-ambiente o experiencias. Basándose en la epistemología budista, presentamos una construcción de estados dirigidos por objetivos o telic, definidos como clases de distribuciones de experiencia equivalentes a objetivos. Los estados telic proporcionan una descripción parsimoniosa del aprendizaje dirigido por objetivos en términos de la divergencia estadística entre las políticas de comportamiento y las características de experiencia deseables. Revisamos la literatura empírica y teórica que respalda esta nueva perspectiva y discutimos su potencial para proporcionar una descripción unificada de las dimensiones conductuales, fenomenológicas y neurales de comportamientos intencionales en diversos sustratos.
Publicado Originalme en export.arxiv.org El 21 de agosto de 2025.
Ver Fuente Original