Resumen: El aprendizaje por refuerzo (RL) puede refinar las capacidades de razonamiento de los grandes modelos de lenguaje (LLM), pero depende fundamentalmente de un prerrequisito clave: el LLM ya puede generar rutas de razonamiento de alta utilidad con una probabilidad no despreciable.
Leer más →
Resumen: En este artículo, abordamos el problema de dar nombres a predicados en reglas lógicas utilizando modelos de lenguaje grandes (LLM). En el contexto de la programación lógica inductiva, varios métodos de generación de reglas producen reglas que contienen predicados sin nombre, siendo la invención de predicados un ejemplo clave.
Leer más →
Resumen: Los agentes autónomos impulsados por grandes modelos de lenguaje (LLM) han demostrado capacidades impresionantes en la manipulación de herramientas para la resolución de tareas complejas. Sin embargo, los paradigmas existentes como ReAct se basan en el razonamiento y la ejecución secuenciales, sin explotar el paralelismo inherente entre subtareas independientes.
Leer más →