Resumen: Los modelos de aprendizaje profundo han tenido éxito en muchas áreas, pero comprender sus comportamientos sigue siendo una caja negra. La mayoría de los enfoques anteriores de IA explicable (XAI) se han centrado en interpretar y explicar cómo los modelos hacen predicciones.
Leer más →
Resumen: Los avances recientes en grandes modelos de lenguaje (LLM) han cambiado el paradigma posterior al entrenamiento desde el ajuste de la instrucción tradicional y la alineación de las preferencias humanas hacia el aprendizaje por refuerzo (RL) centrado en las capacidades de razonamiento.
Leer más →
Resumen: Los modelos de recompensa (RM) son un componente central en el entrenamiento posterior de modelos de lenguaje grande (LLM), y sirven como sustitutos para la evaluación de las preferencias humanas y guían la alineación del modelo.
Leer más →