Resumen: Los modelos de lenguaje grande (LLM) se utilizan cada vez más como simuladores humanos, tanto para evaluar sistemas conversacionales como para generar datos de ajuste.
Leer más →
Resumen: Proponemos MemoBrain, un modelo de memoria ejecutiva para agentes aumentados con herramientas que construye una memoria consciente de la dependencia sobre pasos de razonamiento, capturando estados intermedios destacados y sus relaciones lógicas.
Leer más →
Resumen: Las restricciones negativas (instrucciones de la forma “no usar la palabra X”) representan una prueba fundamental de la capacidad de seguir instrucciones en modelos de lenguaje grandes. A pesar de su aparente simplicidad, estas limitaciones fallan con sorprendente regularidad, y las condiciones que gobiernan el fracaso siguen siendo poco comprendidas.
Leer más →