Resumen: En este artículo, abordamos el problema de dar nombres a predicados en reglas lógicas utilizando modelos de lenguaje grandes (LLM). En el contexto de la programación lógica inductiva, varios métodos de generación de reglas producen reglas que contienen predicados sin nombre, siendo la invención de predicados un ejemplo clave.
Leer más →
Resumen: El uso del aprendizaje por refuerzo con recompensas verificables (RLVR) para optimizar los modelos de lenguaje grandes (LLM) se puede conceptualizar como una edición progresiva del “árbol de razonamiento” de una consulta. Este proceso implica explorar nodos (tokens) y modificar dinámicamente la política del modelo en cada nodo.
Leer más →
Resumen: Los sistemas de recuperación-generación aumentada (RAG) a menudo enfrentan limitaciones en dominios especializados como fintech, donde las ontologías específicas del dominio, la terminología densa y los acrónimos complican la recuperación y síntesis efectivas.
Leer más →