
Proporcionado por
La IA generativa llegó a la infancia entre diciembre de 2025 y enero de 2026 con la introducción de herramientas sin código de múltiples proveedores y el debut de OpenClaw, un agente personal de código abierto publicado en GitHub. No más gatear sobre la alfombra: el bebé de la tecnología de IA generativa echó a correr y muy pocos principios de gobernanza estaban preparados operativamente.
El desafío de la rendición de cuentas: no son ellos, eres tú
Hasta ahora, la gobernanza se ha centrado en los riesgos de producción del modelo con humanos al tanto antes de que se tomaran decisiones importantes, como las aprobaciones de préstamos o las solicitudes de empleo. El enfoque fue el comportamiento del modelo, incluida la deriva, la alineación, la filtración de datos y el envenenamiento. El ritmo lo marcaba un humano que impulsaba un modelo en formato de chatbot con muchas interacciones de ida y vuelta entre la máquina y el humano.
Hoy en día, con agentes autónomos operando en flujos de trabajo complejos, la visión y los beneficios de la IA aplicada requieren significativamente menos humanos involucrados. El objetivo es operar un negocio al ritmo de la máquina mediante la automatización de tareas manuales que tengan una arquitectura y reglas de decisión claras. El objetivo, desde el punto de vista de la responsabilidad, no es reducir el riesgo empresarial o empresarial entre una máquina que opera un flujo de trabajo y un humano que opera un flujo de trabajo. CX hoy resume la situación de manera sucinta: “La IA hace el trabajo, los humanos asumen el riesgo” y la ley estatal de California (AB 316), que entró en vigor el 1 de enero de 2026, elimina la excusa “La IA lo hizo; yo no lo aprobé”. Esto es similar a la crianza de los hijos cuando un adulto es responsable de las acciones de un niño que impactan negativamente a la comunidad en general.
El desafío es que sin incorporar un código que imponga una gobernanza operativa alineada con diferentes niveles de riesgo y responsabilidad a lo largo de todo el flujo de trabajo, se anula el beneficio de los agentes autónomos de IA. En el pasado, la gobernanza era estática y estaba alineada con el ritmo de interacción típico de un chatbot. Sin embargo, la IA autónoma por diseño excluye a los humanos de muchas decisiones, lo que puede afectar la gobernanza.
Considerando permisos
Al igual que entregarle a un niño de tres años una consola de videojuegos que controla remotamente un tanque Abrams o un dron armado, dejar un sistema probabilístico funcionando sin barreras de seguridad en tiempo real que puedan cambiar datos empresariales críticos conlleva riesgos significativos. Por ejemplo, los agentes que integran y encadenan acciones en múltiples sistemas corporativos pueden ir más allá de los privilegios que se le otorgarían a un solo usuario humano. Para avanzar con éxito, la gobernanza debe ir más allá de las políticas establecidas por los comités y pasar a un código operativo integrado en los flujos de trabajo desde el principio.
Un meme humorístico sobre el comportamiento de los niños pequeños con los juguetes comienza con todas las razones por las que cualquier juguete que tengas es mío y termina con un juguete roto que definitivamente es tuyo. Por ejemplo, OpenClaw brindó una experiencia de usuario más cercana a la de trabajar con un asistente humano, pero el entusiasmo cambió a medida que expertos en seguridad Me di cuenta de que los usuarios inexpertos podrían verse comprometidos fácilmente al usarlo.
Durante décadas, la TI empresarial ha vivido con la TI en la sombra y la realidad de que equipos técnicos capacitados deben hacerse cargo y limpiar los activos que no diseñaron ni instalaron, de manera muy similar a como el niño pequeño que devuelve un juguete roto. Con los agentes autónomos, los riesgos son mayores: credenciales de cuentas de servicio persistentes, tokens API de larga duración y permisos para tomar decisiones sobre los sistemas de archivos centrales. Para enfrentar este desafío, es imperativo asignar por adelantado un presupuesto y mano de obra de TI adecuados para sostener el descubrimiento, la supervisión y la corrección centralizados para los miles de empleados o agentes creados por departamentos.
Tener un plan de jubilación
Recientemente, una conocida mencionó que le ahorró a un cliente cientos de miles de dólares al identificar y luego finalizar un “proyecto zombi”: un piloto de IA descuidado o fallido que se dejó ejecutando en una instancia de nube de GPU. Hay potencialmente miles de agentes que corren el riesgo de convertirse en una flota de zombis dentro de una empresa. Hoy en día, muchos ejecutivos animan a los empleados a utilizar la IA (o si no) y se les pide que creen sus propios flujos de trabajo o asistentes de IA. Con la utilidad de algo como OpenClaw y directivas de arriba hacia abajo, es fácil proyectar que la cantidad de agentes de creación propia que llegarán a la oficina con su empleado humano se disparará. Dado que un agente de IA es un programa que entraría en la definición de propiedad intelectual de la empresa, cuando un empleado cambia de departamento o de empresa, esos agentes pueden quedar huérfanos. There needs to be proactive policy and governance to decommission and retire any agents linked to a specific employee ID and permissions.
La optimización financiera es la gobernanza desde el principio
Si bien para algunos ejecutivos la IA autónoma suena como una forma de mejorar sus márgenes operativos limitando el capital humano, muchos están descubriendo que el retorno de la inversión (ROI) para el reemplazo de mano de obra humana es el ángulo equivocado. Agregar capacidades de IA a la empresa no significa comprar una nueva herramienta de software con precios predecibles de instancia por hora o por puesto. Un diciembre de 2025 Encuesta IDC patrocinado por Data Robot indicó que el 96% de las organizaciones que implementaron IA generativa y el 92% de las que implementaron IA agente informaron que los costos eran más altos o mucho más altos de lo esperado.
La encuesta separa los conceptos de gobernanza y retorno de la inversión, pero a medida que los sistemas de IA escalan en las grandes empresas, la gobernanza financiera y de responsabilidad debe integrarse en los flujos de trabajo desde el principio. Parte del gobierno de clase empresarial surge de predecir y cumplir con el presupuesto asignado. A diferencia de los modelos financieros de software de costos por puesto con tarifas de soporte y mantenimiento, el uso de la IA es consumo y los costos de uso aumentan a medida que el flujo de trabajo escala en toda la empresa: cuantos más usuarios, más tokens o más tiempo de cómputo, y mayor la factura. Piense en ello como una pestaña que se deja abierta o el botón del carrito de compras digital de un minorista en línea desbloqueado en el dispositivo de juego electrónico de un niño pequeño.
Cloud FinOps era determinista, pero la IA generativa y los sistemas de IA agentes construidos sobre IA generativa son probabilísticos. Alguno IA primero fundadores Se están dando cuenta de que el costo del token de un solo agente puede llegar a los 100.000 dólares por sesión. Sin barreras de seguridad integradas desde el principio, encadenar agentes autónomos complejos que funcionan sin supervisión durante largos períodos de tiempo puede fácilmente superar el presupuesto para contratar a un desarrollador junior.
Mantener a los humanos informados sigue siendo fundamental
La promesa de la IA autónoma y agente es la aceleración de las operaciones comerciales, la introducción de productos, la experiencia del cliente y la retención de clientes. Pasar a decisiones a velocidad de máquina sin humanos involucrados en estas funciones clave cambia significativamente el panorama de la gobernanza. Si bien muchos de los principios en torno a los permisos proactivos, el descubrimiento, la auditoría, la corrección y las operaciones/optimizaciones financieras son los mismos, la forma en que se ejecutan debe cambiar para seguir el ritmo de la IA agente autónoma.
Este contenido fue producido por Intel. No fue escrito por el personal editorial de MIT Technology Review.
Publicado originalmente en technologyreview.com el 16 de marzo de 2026.
Ver fuente original
