En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Hacia la IA confiable: un marco de confianza cero para modelos fundamentales

Hacia la IA confiable: un marco de confianza cero para modelos fundamentales

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

A medida que los modelos de IA fundamentales crecen en poder y alcance, también exponen nuevas superficies de ataque, vulnerabilidades y riesgos éticos. Este Libro Blanco del Centro de Investigación Secure de Sistemas (SSRC) en el Technology Innovation Institute (TII) describe un marco integral para garantizar la seguridad, la resistencia y la seguridad en los modelos de IA a gran escala. Al aplicar los principios de Trust Cero, el marco aborda las amenazas entre capacitación, despliegue, inferencia y monitoreo posterior al despliegue. También considera riesgos geopolíticos, mal uso del modelo y envenenamiento por datos, ofreciendo estrategias como entornos de cómputo seguros, conjuntos de datos verificables, validación continua y garantía de tiempo de ejecución. El documento propone una hoja de ruta para gobiernos, empresas y desarrolladores para construir colaborativamente sistemas de IA confiables para aplicaciones críticas.

¡Descargue este documento técnico gratuito ahora!

Publicado Originalme en Spectrum.ieee.org El 24 de junio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web