Bienvenido de nuevo a El estado de la REVISIÓN DE TECNOLOGÍA AIFT/MIT | ACCIONES DE ADOBE
Existe claramente el peligro de que la base de datos Lavender replique los sesgos de los datos en los que está entrenada. Pero el personal militar también tiene prejuicios. Un oficial de inteligencia israelí que usó Lavender afirmó tener más fe en la justicia de un “mecanismo estadístico”que el de un soldado afligido.
Los optimistas tecnológicos que diseñan armas de IA incluso niegan que se necesiten nuevos controles específicos para controlar sus capacidades. Keith Dear, un ex oficial militar del Reino Unido que ahora dirige la empresa de pronóstico estratégico Cassi AI, dice que las leyes existentes son más que suficientes: “Uno se asegura de que no haya nada en los datos de entrenamiento que pueda causar que el sistema se vuelva deshonesto… cuando está seguro de que lo implementará, y usted, el comandante humano, es responsable de cualquier cosa que puedan hacer y que salga mal”.
Es intrigante pensar que parte del miedo y la conmoción por el uso de la IA en la guerra puedan provenir de aquellos que no están familiarizados con normas militares brutales pero realistas. ¿Qué opinas, James? ¿Alguna oposición a la IA en la guerra tiene menos que ver con el uso de sistemas autónomos y realmente es un argumento contra la guerra misma?
James O’Donnell responde:
Hola helen,
Una cosa que he notado es que ha habido un cambio drástico en las actitudes de las empresas de inteligencia artificial con respecto a las aplicaciones militares de sus productos. A principios de 2024, OpenAI prohibió claramente el uso de sus herramientas para la guerra, pero a finales de año había firmado un acuerdo con Anduril para ayudarle a derribar drones en el campo de batalla.
Este paso (no un arma totalmente autónoma, sin duda, sino más bien una aplicación de la IA en el campo de batalla) marcó un cambio drástico en la medida en que las empresas de tecnología podían vincularse públicamente con la defensa.
¿Qué pasó en el camino? Por un lado, es la exageración. Se nos dice que la IA no sólo aportará superinteligencia y descubrimientos científicos, sino que también hará que la guerra sea más aguda, más precisa y calculada, menos propensa a la falibilidad humana. Por ejemplo, hablé con marines estadounidenses que probaron un tipo de IA mientras patrullaban el Pacífico Sur que se anunciaba para analizar inteligencia extranjera más rápido de lo que podría hacerlo un humano.
Pregúntale a AI ¿Por qué te importa? BETA He aquí por qué esta historia podría importarte, según AI. Esta es una función beta y la IA alucina; puede resultar extraño. Dime por qué es importante.
En segundo lugar, el dinero habla. OpenAI y otros necesitan comenzar a recuperar algunas de las inimaginables cantidades de dinero que gastan en entrenar y ejecutar estos modelos. Y pocos tienen bolsillos más profundos que el Pentágono. Y los jefes de defensa de Europa también parecen dispuestos a gastar dinero. Mientras tanto, la cantidad de financiación de capital de riesgo para tecnología de defensa este año ya ha aumentado. duplicado el total para todo 2024, ya que los capitalistas de riesgo esperan sacar provecho de la nueva disposición de los militares a comprar a nuevas empresas.
Creo que la oposición a la guerra con IA se divide en unos pocos bandos, uno de los cuales simplemente rechaza la idea de que una selección de objetivos más precisa (si es que es realmente más precisa) significará menos víctimas en lugar de simplemente más guerra. Consideremos la primera era de guerra con drones en Afganistán. A medida que los ataques con drones se volvieron más baratos de implementar, ¿podemos realmente decir que redujeron la matanza? Más bien, ¿simplemente permitió más destrucción por dólar?
Pero el segundo grupo de críticas (y ahora finalmente voy a responder a su pregunta) proviene de personas que conocen bien las realidades de la guerra pero que tienen quejas muy específicas sobre las limitaciones fundamentales de la tecnología. Missy Cummings, por ejemplo, es una ex piloto de combate de la Marina de los EE. UU. que ahora es profesora de ingeniería e informática en la Universidad George Mason. Ha expresado abiertamente su creencia de que los grandes modelos lingüísticos, específicamente, son propensos a cometer grandes errores en entornos militares.
La respuesta típica a esta queja es que los resultados de la IA son controlados por humanos. Pero si un modelo de IA se basa en miles de datos para llegar a su conclusión, ¿puede realmente esa conclusión ser comprobada por una sola persona?
Las empresas tecnológicas están haciendo promesas extraordinariamente grandes sobre lo que la IA puede hacer en estas aplicaciones de alto riesgo, todo mientras presión implementarlos está por las nubes. Para mí, esto significa que es hora de tener más escepticismo, no menos.
Helena responde:
Hola James,
Definitivamente deberíamos seguir cuestionando la seguridad de los sistemas de guerra de IA y la supervisión a la que están sujetos, y exigir responsabilidades a los líderes políticos en esta área. Sugiero que también apliquemos cierto escepticismo a lo que usted describe correctamente como las “promesas extraordinariamente grandes” hechas por algunas empresas sobre lo que la IA podría lograr en el campo de batalla.
Habrá tanto oportunidades como peligros en lo que ofrece a los militares una escena tecnológica de defensa relativamente incipiente (aunque en auge). El peligro es que, en la velocidad y el secreto de una carrera armamentista en materia de inteligencia artificial, estas capacidades emergentes tal vez no reciban el escrutinio y el debate que necesitan desesperadamente.
Lectura adicional:
Publicado originalmente en technologyreview.com el 17 de noviembre de 2025.
Ver fuente original
