Resumen:Alinear a los jueces de LLM con las preferencias humanas es un desafío importante, ya que son difíciles de calibrar y a menudo sufren de sensibilidad, sesgo e inestabilidad de las rúbricas.
Leer más →
Resumen: Los marcos existentes convergen en la centralidad de la compresión de la inteligencia, pero no especifican por qué este proceso impone el descubrimiento de una estructura causal en lugar de patrones estadísticos superficiales. Introducimos un marco de dos niveles para abordar esta brecha.
Leer más →
Resumen: Los modelos de recompensa (RM) desempeñan un papel fundamental a la hora de alinear los modelos de lenguaje grande (LLM) con las preferencias humanas. Sin embargo, en el ámbito del aprendizaje de herramientas, la falta de RM diseñados específicamente para tareas de llamada de funciones ha limitado el progreso hacia una IA agente más capaz.
Leer más →