RAVR: razonamiento variacional guiado por referencias y respuestas para modelos de lenguaje grandes

Resumen: El aprendizaje por refuerzo (RL) puede refinar las capacidades de razonamiento de los grandes modelos de lenguaje (LLM), pero depende fundamentalmente de un prerrequisito clave: el LLM ya puede generar rutas de razonamiento de alta utilidad con una probabilidad no despreciable.

Leer más →

Comentarios desactivados en RAVR: razonamiento variacional guiado por referencias y respuestas para modelos de lenguaje grandes

Cambio de nombre de predicados mediante modelos de lenguaje grandes

Resumen: En este artículo, abordamos el problema de dar nombres a predicados en reglas lógicas utilizando modelos de lenguaje grandes (LLM). En el contexto de la programación lógica inductiva, varios métodos de generación de reglas producen reglas que contienen predicados sin nombre, siendo la invención de predicados un ejemplo clave.

Leer más →

Comentarios desactivados en Cambio de nombre de predicados mediante modelos de lenguaje grandes

GAP: planificación de agentes basada en gráficos con uso de herramientas paralelas y aprendizaje por refuerzo

Resumen: Los agentes autónomos impulsados ​​por grandes modelos de lenguaje (LLM) han demostrado capacidades impresionantes en la manipulación de herramientas para la resolución de tareas complejas. Sin embargo, los paradigmas existentes como ReAct se basan en el razonamiento y la ejecución secuenciales, sin explotar el paralelismo inherente entre subtareas independientes.

Leer más →

Comentarios desactivados en GAP: planificación de agentes basada en gráficos con uso de herramientas paralelas y aprendizaje por refuerzo

Fin del contenido

No hay más páginas por cargar