Resumen: Los modelos de transformadores de solo codificador siguen siendo ampliamente utilizados para tareas discriminativas de PNL, sin embargo, los avances arquitectónicos recientes se han centrado en gran medida en el inglés.
Leer más →
Resumen: Destilar las capacidades de razonamiento de los grandes modelos de razonamiento (LRM) en modelos más pequeños suele estar limitado por la limitación del muestreo de rechazo.
Leer más →
Resumen: El desaprendizaje de LLM es esencial para mitigar los problemas de seguridad, derechos de autor y privacidad en modelos de lenguaje grande (LLM) previamente entrenados. En comparación con la alineación de preferencias, ofrece una forma más explícita de eliminar conocimientos no deseados caracterizados por conjuntos de datos específicos de desaprendizaje.
Leer más →