Resumen: Las regulaciones de Frontier AI se centran principalmente en los sistemas implementados para usuarios externos, donde la implementación es más visible y está sujeta a escrutinio externo. Sin embargo, las aplicaciones de alto riesgo pueden ocurrir internamente cuando las empresas implementan sistemas altamente capaces dentro de sus propias organizaciones, como para automatizar la I+D, acelerar procesos comerciales críticos y manejar datos confidenciales de propiedad privada. Este artículo examina cómo las regulaciones fronterizas de IA en los Estados Unidos y la Unión Europea en 2025 manejarán el despliegue interno. Identificamos tres brechas que podrían causar que los sistemas implementados internamente evadan la supervisión prevista: (1) ambigüedad en el alcance que permite a los sistemas internos evadir las obligaciones regulatorias, (2) evaluaciones de cumplimiento puntuales que no logran capturar la evolución continua de los sistemas internos, y (3) asimetrías de información que subvierten la conciencia y la supervisión regulatorias. Luego analizamos por qué persisten estas brechas, examinando las tensiones en torno a la mensurabilidad, los incentivos y el acceso a la información. Finalmente, mapeamos enfoques potenciales para abordarlos y sus compensaciones asociadas. Al comprender estos patrones, esperamos que las decisiones políticas en torno a los sistemas de IA implementados internamente puedan tomarse de forma deliberada y no incidental.
Publicado originalmente en export.arxiv.org el 13 de enero de 2026.
Ver fuente original
