Resumen: Los agentes de modelos de lenguaje grande (LLM) han surgido como herramientas poderosas para tareas complejas, pero su capacidad para adaptarse a usuarios individuales sigue siendo fundamentalmente limitada. Argumentamos que esta limitación surge de una combinación arquitectónica crítica: los sistemas actuales tratan la memoria, el aprendizaje y la personalización como una capacidad unificada en lugar de tres mecanismos distintos que requieren infraestructura diferente, operan en diferentes escalas de tiempo y se benefician de una optimización independiente. Proponemos MAPLE (Aprendizaje personalizado adaptable a la memoria), una descomposición de principios donde la memoria maneja la infraestructura de almacenamiento y recuperación; El aprendizaje extrae inteligencia de las interacciones acumuladas de forma asincrónica; y la personalización aplica el conocimiento aprendido en tiempo real dentro de presupuestos de contexto finitos. Cada componente opera como un subagente dedicado con herramientas especializadas e interfaces bien definidas. La evaluación experimental en el punto de referencia MAPLE-Personas demuestra que nuestra descomposición logra una mejora del 14,6 % en la puntuación de personalización en comparación con una línea base sin estado (p < 0,01, d de Cohen = 0,95) y aumenta la tasa de incorporación de rasgos del 45 % al 75 %, lo que permite a los agentes que realmente aprenden y se adaptan.
Publicado originalmente en export.arxiv.org el 16 de febrero de 2026.
Ver fuente original
