Cuando los modelos piensan más que su seguridad: mitigar la auto-jailbreak en modelos de gran razonamiento con cadenas de seguridad

Resumen: Los modelos de razonamiento de gran tamaño (LRM) demuestran capacidades notables en tareas de razonamiento complejas, pero siguen siendo vulnerables a graves riesgos de seguridad, incluida la generación de contenido dañino y ataques de jailbreak.

Leer más →

Comentarios desactivados en Cuando los modelos piensan más que su seguridad: mitigar la auto-jailbreak en modelos de gran razonamiento con cadenas de seguridad

Aprendizaje continuo sin memoria con adaptación al espacio nulo para modelos de lenguaje-visión de disparo cero

Resumen: Los modelos de visión y lenguaje (VLM) previamente entrenados, como CLIP, han demostrado una notable generalización de disparo cero, lo que permite la implementación en una amplia gama de tareas del mundo real sin capacitación adicional específica para la tarea.

Leer más →

Comentarios desactivados en Aprendizaje continuo sin memoria con adaptación al espacio nulo para modelos de lenguaje-visión de disparo cero

Detección fuera de distribución para garantizar la seguridad de la IA y los sistemas autónomos

Resumen: Las capacidades operativas y los dominios de aplicación de los sistemas autónomos habilitados para IA se han expandido significativamente en los últimos años debido a los avances en la robótica y el aprendizaje automático (ML).

Leer más →

Comentarios desactivados en Detección fuera de distribución para garantizar la seguridad de la IA y los sistemas autónomos

Fin del contenido

No hay más páginas por cargar