Resumen: Las capacidades operativas y los dominios de aplicación de los sistemas autónomos habilitados para IA se han expandido significativamente en los últimos años debido a los avances en la robótica y el aprendizaje automático (ML). Demostrar rigurosamente la seguridad de los sistemas autónomos es fundamental para su adopción responsable, pero es un desafío ya que requiere metodologías sólidas que puedan manejar situaciones novedosas e inciertas a lo largo del ciclo de vida del sistema, incluida la detección de datos fuera de distribución (OoD). Por lo tanto, la detección de OOD está recibiendo cada vez más atención por parte de las comunidades de investigación, desarrollo e ingeniería de seguridad. Esta revisión exhaustiva analiza las técnicas de detección de OOD en el contexto de la garantía de seguridad para sistemas autónomos, en particular en dominios críticos para la seguridad. Comenzamos definiendo los conceptos relevantes, investigando qué causa OOD y explorando los factores que hacen que la garantía de seguridad de los sistemas autónomos y la detección de OOD sean un desafío. Nuestra revisión identifica una variedad de técnicas que se pueden usar a lo largo del ciclo de vida del desarrollo de ML y sugerimos áreas dentro del ciclo de vida en las que se pueden usar para respaldar los argumentos de garantía de seguridad. Analizamos una serie de advertencias que los ingenieros de sistemas y de seguridad deben tener en cuenta al integrar la detección de OOD en los ciclos de vida del sistema. Concluimos describiendo los desafíos y el trabajo futuro necesarios para el desarrollo y operación seguros de sistemas autónomos en una variedad de dominios y aplicaciones.
Publicado originalmente en export.arxiv.org el 26 de octubre de 2025.
Ver fuente original
