Resumen: La decodificación basada en muestreo subyace al razonamiento complejo en modelos de lenguaje grandes (LLM), donde las estrategias de decodificación dan forma crítica al comportamiento del modelo.
Leer más →
Resumen: Un desafío importante en el entrenamiento de agentes TableQA, en comparación con los agentes estándar basados en texto e imágenes, es que las respuestas no pueden inferirse a partir de una entrada estática, sino que deben razonarse mediante transformaciones graduales del estado de la tabla, lo que introduce complejidad de razonamiento de varios pasos e interacción ambiental.
Leer más →
Resumen: Los agentes del modelo de lenguaje grande multimodal (MLLM) facilitan la automatización de la interfaz gráfica de usuario (GUI), pero tienen dificultades con tareas de largo horizonte y entre aplicaciones debido a ventanas de contexto limitadas.
Leer más →