Resumen: Los sistemas multiagente basados en modelos de lenguaje grande (LLM) son difíciles de depurar porque las fallas a menudo surgen de rastros de interacción largos y ramificados. La práctica predominante es aprovechar los LLM para la localización de fallas basada en registros, atribuyendo errores a un agente y paso específicos.
Leer más →
Resumen:A medida que los agentes basados en grandes modelos lingüísticos se implementan cada vez más en tareas de largo plazo, mantener su alineación con las preferencias de las partes interesadas se vuelve fundamental.
Leer más →
Resumen: Los agentes del Large Language Model (LLM) están surgiendo para transformar la vida diaria. Sin embargo, los agentes LLM existentes siguen principalmente un paradigma reactivo, confiando en instrucciones explícitas del usuario para iniciar los servicios, lo que aumenta la carga de trabajo tanto física como cognitiva.
Leer más →