Resumen:Aprender a hacer cosas mediante prueba y error en tiempo real es un sello distintivo de la inteligencia biológica; sin embargo, la mayoría de los agentes basados en LLM carecen de mecanismos para adquirir conocimientos de procedimientos después del despliegue. Proponemos la recuperación de procedimientos para agentes con experiencias indexadas por estado (PRAXIS), un mecanismo liviano de aprendizaje posterior al entrenamiento que almacena las consecuencias de las acciones y las recupera al hacer coincidir conjuntamente los estados ambientales e internos de episodios pasados con el estado actual. PRAXIS aumenta la selección de acciones agentes con ejemplos de resultados de acción de estado recuperados que se generan en tiempo real. Cuando se evalúa en el punto de referencia de navegación web REAL, PRAXIS mejora la precisión, la confiabilidad y la rentabilidad de la finalización de tareas en diferentes pilares del modelo básico y muestra una generalización preliminar a tareas invisibles en entornos similares. Estos resultados demuestran que PRAXIS permite la adopción práctica de agentes de IA en entornos con estado en rápida evolución ayudándolos a aprender nuevos procedimientos de manera efectiva.
Publicado originalmente en export.arxiv.org el 30 de noviembre de 2025.
Ver fuente original
