Resumen:A los agentes de IA se les otorga cada vez más agencia económica (ejecutando operaciones, administrando presupuestos, negociando contratos y generando subagentes), sin embargo, los marcos actuales limitan esta agencia a puntos de referencia de capacidad que no están empíricamente correlacionados con la solidez operativa. Presentamos la economía de agentes controlada por comprensión (CGAE), una arquitectura formal en la que los permisos económicos de un agente están limitados superiormente por una función de comprensión verificada derivada de auditorías de robustez adversarias. El mecanismo de activación opera en tres dimensiones de robustez ortogonal: cumplimiento de restricciones (medido por CDCT), integridad epistémica (medida por DDFT) y alineación conductual (medida por AGT), con tasas de alucinaciones intrínsecas que sirven como diagnóstico transversal. Definimos una función de puerta del vínculo más débil que asigna vectores de robustez a niveles económicos discretos y demostramos tres propiedades del sistema resultante: (1) exposición económica limitada, lo que garantiza que la responsabilidad financiera máxima sea una función de la solidez verificada; (2) inversión en solidez compatible con incentivos, que muestra que los agentes racionales maximizan las ganancias mejorando la solidez en lugar de escalar la capacidad únicamente; y (3) escalamiento monótono de la seguridad, lo que demuestra que la seguridad agregada del sistema no disminuye a medida que crece la economía. La arquitectura incluye mecanismos de decadencia temporal y reauditoría estocástica que evitan la desviación posterior a la certificación. CGAE proporciona el primer puente formal entre la evaluación empírica de la solidez de la IA y la gobernanza económica, transformando la seguridad de una carga regulatoria a una ventaja competitiva.
Publicado originalmente en export.arxiv.org el 17 de marzo de 2026.
Ver fuente original
