Resumen: El concepto del ‘agente’ ha formado profundidad la investigación de inteligencia artificial (IA), guiando el desarrollo de teorías fundamentales a aplicaciones contemporáneas como sistemas basados en el modelo de lenguaje grande (LLM). Este documento reevalúa críticamente la necesidad y la optimización de este paradigma centrado en el agente. Argumentamos que sus ambigüedades conceptuales persistentes y sus sesgos antropocéntricos inherentes pueden representar un marco limitante. Distinguemos entre sistemas de agente (IA inspirada en la agencia, a menudo semiautónoma, por ejemplo, agentes basados en LLM), sistemas agenciales (sistemas totalmente autónomos, autoproductores, actualmente solo biológicos) y sistemas no agénticos (herramientas sin impresión de la agencia). Nuestro análisis, basado en una revisión sistemática de la literatura relevante, deconstruye el paradigma del agente en varios marcos de IA, destacando los desafíos para definir y medir las propiedades como la autonomía y la dirección de los objetivos. Argumentamos que el encuadre ‘agente’ de muchos sistemas de IA, aunque heurísticamente útiles, puede ser engañoso y puede oscurecer los mecanismos computacionales subyacentes, particularmente en modelos de idiomas grandes (LLM). Como alternativa, proponemos un cambio de enfoque hacia los marcos basados en la dinámica a nivel del sistema, el modelado mundial y la inteligencia material. Concluimos que investigar los marcos no agénticos y sistémicos, inspirados en sistemas complejos, biología y computación no convencional, es esencial para avanzar hacia formas robustas, escalables y potencialmente no antropomórficas de inteligencia general. Esto requiere no solo nuevas arquitecturas, sino también una reconsideración fundamental de nuestra comprensión de la inteligencia misma, yendo más allá de la metáfora del agente.
Publicado Originalme en export.arxiv.org El 15 de septiembre de 2025.
Ver Fuente Original