Resumen: Los desechos de destilación estándar de LLM se calculan en dos frentes: problemas que el estudiante ya domina (gradientes cercanos a cero) y problemas que están mucho más allá de su alcance (gradientes incoherentes que erosionan las capacidades existentes).
Leer más →
Resumen: La alineación de seguridad tiene como objetivo garantizar que los modelos de lenguaje grandes (LLM) rechacen solicitudes dañinas mediante una capacitación posterior sobre consultas dañinas combinadas con respuestas de rechazo.
Leer más →
Resumen: El desarrollo de la conducción autónoma (AD) de alto nivel está pasando de limitaciones centradas en la percepción a un cuello de botella más fundamental, a saber, un déficit de razonamiento sólido y generalizable.
Leer más →