Protección de modelos lingüísticos contra la destilación no autorizada mediante la reescritura de trazas

Resumen: La destilación de conocimientos es una técnica ampliamente adoptada para transferir capacidades de los LLM a modelos de estudiantes más pequeños y eficientes. Sin embargo, el uso no autorizado de la destilación del conocimiento aprovecha injustamente el considerable esfuerzo y costo invertido en el desarrollo de modelos de frontera.

Leer más →

Comentarios desactivados en Protección de modelos lingüísticos contra la destilación no autorizada mediante la reescritura de trazas

Cuantificación de la validez de constructo en evaluaciones de modelos de lenguaje grandes

Resumen:Tanto los científicos sociales como los informáticos proponen modelos formales (modelos de factores latentes y leyes de escala) para identificar las capacidades subyacentes a las puntuaciones de referencia. Sin embargo, ninguna de las técnicas es satisfactoria para la validez de constructo.

Leer más →

Comentarios desactivados en Cuantificación de la validez de constructo en evaluaciones de modelos de lenguaje grandes

ResearchGym: Evaluación de agentes de modelos de lenguaje en investigaciones de IA del mundo real

Resumen:Presentamos ResearchGym, un entorno de ejecución y referencia para evaluar agentes de IA en investigaciones de un extremo a otro. Para ejemplificar esto, reutilizamos cinco artículos orales y destacados de ICML, ICLR y ACL.

Leer más →

Comentarios desactivados en ResearchGym: Evaluación de agentes de modelos de lenguaje en investigaciones de IA del mundo real

Fin del contenido

No hay más páginas por cargar