Resumen: Garantizar el uso responsable de la inteligencia artificial (AI) se ha vuelto imperativo a medida que los sistemas autónomos influyen cada vez más en los dominios sociales críticos. Sin embargo, el concepto de IA confiable sigue siendo amplio y multifacético. Esta tesis avanza el conocimiento en la seguridad, la equidad, la transparencia y la responsabilidad de los sistemas de IA. En seguridad, ampliamos las técnicas de blindaje determinista clásico para volverse resistentes contra las observaciones retrasadas, lo que permite el despliegue práctico en condiciones del mundo real. También implementamos escudos de seguridad deterministas y probabilísticos en vehículos autónomos simulados para evitar colisiones con usuarios de la carretera, validando el uso de estas técnicas en simuladores de conducción realistas. Introducimos a los escudos de equidad, un nuevo enfoque posterior al procesamiento para hacer cumplir la equidad grupal en entornos de toma de decisiones secuenciales sobre horizontes temporales finitos y periódicos. Al optimizar los costos de intervención al tiempo que garantiza estrictamente las restricciones de equidad, este método equilibra eficientemente la equidad con una interferencia mínima. Para la transparencia y la responsabilidad, proponemos un marco formal para evaluar el comportamiento intencional en los agentes probabilísticos de toma de decisiones, introduciendo métricas cuantitativas de agencia y cociente de intención. Utilizamos estas métricas para proponer un análisis retrospectivo de la intención, útil para determinar la responsabilidad cuando los sistemas autónomos causan daños no deseados. Finalmente, unificamos estas contribuciones a través del marco “ toma de decisiones reactiva ”, proporcionando una formalización general que consolida enfoques anteriores. Colectivamente, los avances presentados contribuyen prácticamente a la realización de sistemas de IA más seguros, justos y más responsables, sometiendo a las bases para futuras investigaciones en IA confiable.
Publicado Originalme en rss.arxiv.org El 12 de junio de 2025.
Ver Fuente Original