Resumen: Este documento realiza una revisión crítica específica de la literatura sobre supervisión fuera de la IA, junto con un breve resumen del trabajo pasado sobre el tema relacionado con la IA. Luego diferenciamos el control como exente o en tiempo real, y operativo en lugar de política o gobernanza. En contraste, la supervisión es una función de política y gobernanza, o es ex post. Sugerimos que el control tiene como objetivo prevenir fallas. En contraste, la supervisión a menudo se centra en la detección, remediación o incentivos para la prevención futura; No obstante, todas las estrategias de supervisión preventiva requieren control.
Sobre la base de esta base, hacemos tres contribuciones. Primero, proponemos un marco teóricamente informado pero fundamentado que articula las condiciones bajo las cuales cada mecanismo es posible, donde se quedan cortos y lo que se requiere para hacerlas significativas en la práctica. En segundo lugar, describimos cómo los métodos de supervisión deben documentarse e integrarse en la gestión de riesgos, y basarse en el modelo de madurez de IA responsable de Microsoft, describimos un modelo de madurez para la supervisión de IA. En tercer lugar, destacamos explícitamente algunos límites de estos mecanismos, incluido dónde se aplican, dónde fallan, y donde está claro que ningún método existente es suficiente. Esto es posible la cuestión de si la supervisión significativa es posible en un contexto de implementación dado, y puede apoyar a los reguladores, auditores y profesionales para identificar tanto las limitaciones actuales como la necesidad de nuevos avances conceptuales y técnicos.
Publicado Originalme en export.arxiv.org El 7 de julio de 2025.
Ver Fuente Original