AraModernBERT: inicialización transtokenizada y modelado de codificador de contexto largo para árabe

Resumen: Los modelos de transformadores de solo codificador siguen siendo ampliamente utilizados para tareas discriminativas de PNL, sin embargo, los avances arquitectónicos recientes se han centrado en gran medida en el inglés.

Leer más →

Comentarios desactivados en AraModernBERT: inicialización transtokenizada y modelado de codificador de contexto largo para árabe

LLM explicable desaprendiendo a través del razonamiento

Resumen: El desaprendizaje de LLM es esencial para mitigar los problemas de seguridad, derechos de autor y privacidad en modelos de lenguaje grande (LLM) previamente entrenados. En comparación con la alineación de preferencias, ofrece una forma más explícita de eliminar conocimientos no deseados caracterizados por conjuntos de datos específicos de desaprendizaje.

Leer más →

Comentarios desactivados en LLM explicable desaprendiendo a través del razonamiento

Fin del contenido

No hay más páginas por cargar