Resumen: Los agentes de IA ahora ejecutan transacciones reales, flujos de trabajo y cadenas de subagentes a través de los límites organizacionales sin una supervisión humana continua. Esto crea un problema que ninguna infraestructura actual está preparada para resolver: ¿cómo se identifica, verifica y responsabiliza a una entidad sin cuerpo, sin memoria persistente y sin personalidad jurídica? Definimos la identidad de IA como la relación continua entre lo que se declara que es un agente de IA y lo que se observa que hace, limitada por la confianza de que esas dos cosas corresponden en un momento dado. A través de una encuesta estructurada de las tendencias de la industria, los estándares emergentes y la literatura técnica, llevamos a cabo un análisis de brechas en todo el ciclo de vida de la identidad del agente y hacemos tres contribuciones: (1) una comparación estructural de la identidad humana y de la IA en cuatro dimensiones (sustrato, persistencia, verificabilidad y estatus legal) que muestra que la asimetría es fundamental y que extender los marcos humanos a los agentes sin modificación estructural produce fallas sistemáticas; (2) una evaluación de los documentos técnicos y regulatorios actuales en comparación con los requisitos de identidad de los agentes autónomos, encontrando que ninguno aborda adecuadamente el desafío de gobernar entidades no deterministas que cruzan fronteras; y (3) identificación de cinco brechas críticas (verificación de la intención semántica, responsabilidad de la delegación recursiva, integridad de la identidad del agente, opacidad y aplicación de la gobernanza, y sostenibilidad operativa) que ninguna tecnología o instrumento regulatorio actual resuelve. Estas brechas son estructurales; un mayor esfuerzo de ingeniería por sí solo no los cerrará. La investigación fundamental sobre la identidad de la IA es la conclusión central de este informe.
Publicado originalmente en export.arxiv.org el 27 de abril de 2026.
Ver fuente original
