El uso de IA en el ámbito militar es una realidad palpable. Por ejemplo, la guerra de Ucrania nos está mostrando que los drones se han convertido en un arma de guerra precisa, relativamente barata y mortífera.
Ésta es sólo una de las aplicaciones de esta tecnología en escenarios bélicos, aunque hay muchas más.
Sin embargo, antes de lanzarnos a desarrollar aplicaciones militares de la IA, convendría que nos detuviésemos a reflexionar. Y esto fue lo que hizo Google hace algunos años.
“En 2018, tras la polémica con el Proyecto Maven, un programa del Pentágono que usaba IA de Google para analizar imágenes de drones, la empresa anunció que no desarrollaría IA para aplicaciones militares”, explica Hervé Lambert, Global Consumer Operations Manager de Panda Security.
Pero la compañía parece haber cambiado su postura, ya que hace apenas unas semanas que eliminó de sus principios la referencia expresa a la promesa de no usar la IA en aplicaciones militares, que había introducido en 2018.
“Google se autoimponía el límite de no usar la IA con fines militares. En particular, se prohibía a sí misma el uso de tecnologías que causaran daño general y el uso de IA para armas cuyo propósito principal fuera causar o facilitar directamente lesiones a las personas. En su nueva versión de principios éticos habla de implementar mecanismos de supervisión humana para alinearse con los principios del derecho internacional y los derechos humanos. Hemos pasado de hechos concretos a buenas palabras genéricas”, afirma Juan Ignacio Rouyet, profesor de la Escuela Superior de Ingeniería y Tecnología de la Universidad Internacional de La Rioja (UNIR).
¿Qué significa esto? ¿Se ha abierto la veda? ¿Vamos a asistir a una carrera armamentística apoyada en la IA?
“Aún es pronto para adelantar cuáles serán las consecuencias que tendrá esa decisión. Por parte de Google, sólo sabemos que se ha realizado argumentando la necesidad de que los países democráticos lideren el desarrollo de la IA y colaboren con gobiernos que compartan valores democráticos. Obviamente, esta decisión ha generado preocupaciones entre grupos de activistas por los derechos humanos y expertos en ética”, declara Josep Albors, director de investigación y concienciación de ESET España.
“Esto no significa que Google esté desarrollando armas autónomas, pero sí indica un cambio de enfoque, que podría traer consecuencias. Las grandes tecnológicas, incluidas Microsoft y Amazon, han firmado contratos con el Departamento de Defensa de Estados Unidos, y la línea entre lo ‘civil’ y lo ‘militar’ en IA es cada vez más difusa”, añade Lambert.
Igualmente, Rouyet considera que “la veda ya estaba abierta”. “Detrás hay un mercado suculento del cual todos quieren su parte. El presupuesto de 2025 de Estados Unidos para armamento es de 310.000 millones de dólares, de los cuales 17.200 millones son para ciencia y tecnología”, apunta.
Cuando hablamos de IA, hay que tener en cuenta que se trata de un concepto que engloba una amplia variedad de técnicas y tecnologías, desde aprendizaje automático y redes neuronales hasta procesamiento del lenguaje natural y visión por computadora, como explica Joaquín David Rodríguez Álvarez, profesor asociado de Derecho Administrativo de la Universidad Autónoma de Barcelona (UAB).
“Si nos ceñimos a sus usos actuales en el ámbito militar, observamos que existen multiplicidad de usos, que pueden ir desde el desarrollo de sistemas de armamento autónomos (LAWS, por sus siglas en inglés: Lethal Autonomous Weapons System), así como sistemas semiautónomos, existiendo hoy en día multiplicidad de sistemas que entrarían dentro de esta categorización, desde los drones de tipo Predator de Estados Unidos a los STM Kargu-2 drone de Turquía, pasando por un largo listado de sistemas en posesión de un número muy variado de países”, especifica.
Igualmente, señala que algunos medios de comunicación han informado acerca del uso de programas de IA por parte de Israel para planificar asesinatos selectivos en Gaza y bombardear a las personas identificadas como objetivos de ataque cuando estaban en sus hogares.
Asimismo, el profesor de la UNIR indica que la IA se puede emplear en múltiples aplicaciones. “Cualquier aspecto de defensa que podamos pensar hace uso de la IA: reconocimiento facial para la identificación de objetivos; machine learning para el vuelo asistido de aviones de combate; analítica de datos para la detección de amenazas; inteligencia de enjambre para el vuelo conjunto de drones; perros-robots como soporte a infantería; redes neuronales para cualquier sistema no tripulado. La IA en el ámbito militar se viene utilizando desde hace años para cálculos operativos en la retaguardia. Ahora ha pasado a la primera línea de combate. En un futuro no muy lejano, las máquinas lucharán contra las máquinas. Espero que no sea contra nosotros”, sentencia.
Ahondando en ese lado menos visible de la IA en el campo de combate, Albors habla del apoyo a los sistemas de defensa automatizados para responder a amenazas sin necesidad de intervención humana, el análisis de grandes cantidades de datos para identificar posibles riesgos que mejoren la toma de decisiones o su uso en simulaciones que permiten entrenar a las tropas replicando entornos reales con alta fidelidad.
Por otro lado, reseña que “la IA también aporta, desde hace tiempo, mucho valor al apartado de ciberseguridad, relacionado con operaciones militares en el ciberespacio, tanto en su vertiente ofensiva como defensiva”. “Esto facilita tanto la detección y bloqueo de ciberataques de forma más rápida y efectiva como mayor facilidad a la hora de generar código que luego puede ser usado en operaciones dentro del ámbito del ciberespacio”, añade.
El experto de Panda también apunta que “se está usando en el análisis de datos de inteligencia, en la detección de amenazas, en la optimización logística y en el desarrollo de sistemas autónomos, como drones y vehículos de combate sin tripulación”. Y señala que la IA asiste en la toma de decisiones estratégicas en contextos de guerra y en el desarrollo de armas autónomas, además de desempeñar un papel crucial en la guerra electrónica y en el análisis de inteligencia.
“Estados Unidos, China, Rusia y la Unión Europea llevan años invirtiendo en estas tecnologías, con aplicaciones que van desde la defensa cibernética hasta la toma de decisiones en tiempo real en el campo de batalla”, concluye.
La utilización de esta tecnología en el ámbito militar presenta considerables dilemas éticos. “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños”, reza la primera de las tres leyes de la robótica que enunció Isaac Asimov.
Así pues, de entrada, cualquier aplicación de la IA destinada a matar chocaría frontalmente con el principio más básico de esta ley.
El profesor de la UAB afirma que la inclusión de sistemas de IA en el campo de batalla conlleva “la deshumanización intrínseca a la delegación de procesos letales sobre entes no humanos, capaces de matar personas sin control humano significativo”. Incluso cree que podría dar lugar a “la facilitación y proliferación de ejecuciones extrajudiciales”.
“La idea de ‘robots asesinos’ no es ciencia ficción. Naciones Unidas lleva años debatiendo sobre los sistemas LAWS, que podrían seleccionar y atacar objetivos sin supervisión humana”, añade Lambert.
Además, el representante de Panda alerta acerca de la falta de transparencia en los algoritmos militares. “Si un sistema de IA toma una decisión errónea que provoca víctimas civiles, ¿quién es responsable? ¿Los desarrolladores? ¿Los militares que lo usaron? ¿El fabricante del software?”, anota.
“El límite ético infranqueable es que nunca esa responsabilidad debe estar fuera de un ser humano. En la guerra tradicional, esa responsabilidad está en quien aprieta el gatillo. En la guerra moderna, ese gatillo se encuentra en el algoritmo de una red neuronal, pero sigue existiendo ‘gatillo’ y una persona que decide cuándo apretarlo y cuándo no, aunque se encuentre a miles de kilómetros en un laboratorio de machine learning”, declara Rouyet.
Además, Lambert señala que “el riesgo de sesgos en la IA también es una preocupación”, puesto que “un algoritmo mal entrenado podría identificar erróneamente a un objetivo y lanzar un ataque equivocado. Igualmente, el profesor de la UAB reseña que el uso de IA debilita las capacidades humanas de juicio, “debido a sesgos inherentes asociados al uso de estos sistemas”.
También advierte de que la autonomía sin comunicación que permiten algunos de los sistemas que emplean IA supone un riesgo elevado de pérdida de control, ya que están diseñados para volar a velocidades o navegar a profundidades superiores a las que resisten nuestros sistemas de comunicación.
Por otro lado, el experto de ESET recalca que “no podemos olvidar que estamos ante un sistema que puede sufrir ciberataques, permitiendo que actores enemigos lleguen a tomar el control de aquellos sistemas gobernados por una IA para usarlos en nuestra contra”.
Finalmente, Lambert plantea cómo se equilibra la seguridad con el derecho a la privacidad. “La capacidad de la IA para analizar grandes volúmenes de datos y realizar vigilancia masiva puede infringir la privacidad de individuos y grupos, tanto en tiempos de paz como de conflicto”, especifica.
Si no queremos que la situación se nos vaya de las manos, debemos establecer límites. “Existen numerosos pasos a seguir para tratar de evitar estos conflictos que implican la utilización de IA en entornos militares, empezando por establecer mediante regulaciones internacionales un uso adecuado y limitado de la IA. Sería como una especie de actualización de la Convención de Ginebra adaptada a los conflictos bélicos actuales y la introducción de la IA”, comenta Albors.
“Obviamente, estas regulaciones se deben de realizar teniendo en cuenta valores éticos a la hora de programar las IA que se utilizarán en entornos militares, incluyendo a expertos de diversos campos y contando con el mayor consenso internacional posible para que ningún país o región tenga ninguna ventaja sobre el resto. Además, esta regulación se debería hacer de forma transparente para que pueda ser consultada libremente y revisada por organismos independientes”, agrega.
Igualmente, el profesor de la UNIR recalca que “los Convenios de Ginebra, los principios de crímenes de guerra o la convención sobre ciertas armas convencionales deberán ser actualizados con esta nueva tecnología”. Todo ello, sin olvidarnos de que “el poder militar, que se ejerce a través de los gobiernos, nunca debe escapar a un cierto control”, que en las democracias se ejerce a través de los parlamentos.
Sin embargo, no parece que vayamos por buen camino, puesto que los últimos conflictos internacionales nos están mostrando que todos estos acuerdos internacionales se convierten en papel mojado cuando estalla la guerra.
Además, el responsable de Panda alerta de que “la carrera armamentística en IA avanza más rápido que los tratados internacionales”. “Grupos como el Campaign to Stop Killer Robots piden una prohibición total de los sistemas de armas autónomos, pero grandes potencias como Estados Unidos y Rusia se oponen a restricciones que limiten su desarrollo militar”, puntualiza.
“Lo mínimo que se debería hacer es garantizar la supervisión humana en cualquier uso letal de la IA, establecer estándares de transparencia en el desarrollo de estos sistemas y promover acuerdos multilaterales que prohíban ciertos usos. Pero con la competencia entre países por la supremacía tecnológica, la viabilidad de estas medidas es incierta”, apostilla.
De hecho, recuerda que todavía no existe un tratado global que regule específicamente el uso de la IA en el ámbito militar, aunque hay algunas iniciativas. “En el marco de la ONU, la Convención sobre Ciertas Armas Convencionales (CCW) ha discutido el tema desde 2013, pero no ha logrado establecer restricciones vinculantes. La Unión Europea ha impulsado regulaciones sobre IA con criterios éticos, pero su impacto en el ámbito militar es limitado. China y Estados Unidos han expresado su apoyo a ciertos principios éticos, pero en la práctica ambos países están invirtiendo enormes recursos en desarrollar IA militar avanzada. En 2023, la Casa Blanca publicó la Declaración Política sobre la Responsabilidad en el Uso Militar de la IA, pero sin compromisos concretos”, desgrana.
Además, Albors indica que “existen varios acuerdos que abordan este tema, entre los que destacan la declaración de la OTAN sobre IA en 2021, la Declaración política sobre el uso militar responsable de la IA durante una cumbre internacional en La Haya en 2023 y el Reglamento de IA de la Unión Europea”.
Asimismo, Rouyer indica que “el Future of Life Institute promulgó en 2017 los llamados Principios de Asilomar de la IA como iniciativa para restringir su uso, considerando también el ámbito militar”, aunque no son principios vinculantes y cualquiera puede fírmalos. Y destaca que Elon Musk aparece entre quienes los suscribe.
Por último, Rodríguez Álvarez señala que la última iniciativa en esta dirección es la Declaración de París sobre el mantenimiento del control humano en los sistemas de armas basados en IA.
Como decíamos antes, el uso de la IA en el ámbito militar supone una suculenta tarta de la que muchas empresas quieren su bocado.
“En algunos casos, estaríamos hablando de empresas que llevan ya tiempo en la industria militar y que ahora entran de lleno en la carrera para potenciar sus ventas dentro de esta industria con la ayuda e integración de la IA”, apunta el experto de ESET.
Por ejemplo, Lambert señala que “el sector de la IA para defensa está dominado por empresas como Palantir, especializada en análisis de datos para inteligencia militar; Lockheed Martin, que desarrolla sistemas autónomos y IA para aviones de combate; Northrop Grumman, que trabaja en drones autónomos y sistemas de guerra electrónica; BAE Systems: que desarrolla IA para vehículos no tripulados; y Anduril Industries, startup enfocada en defensa autónoma y vigilancia con IA.
Albors añade otras compañías como Raytheon Technologies — especializada en sistemas autónomos, mantenimiento predictivo, soluciones de ciberseguridad y guiado de misiles—, Helsing —análisis en tiempo real del campo de batalla, guerra electrónica y ciberdefensa…— o Mistral AI —Visión-Lenguaje-Acción (VLA) combinando percepción visual, comprensión del lenguaje y automatización de respuestas en plataformas de defensa—.
Asimismo, el profesor de UNIR añade a esta lista otras compañías, como L3Harris — sistemas de comunicación, guerra electrónica, vigilancia y soluciones espaciales—, General Dynamics — vehículos blindados, sistemas de combate, submarinos, tecnología de aviación y ciberseguridad—
Además, reseña que empresas como Meta, OpenAI o Anthropic “ponen sus sistemas de IA al servicio de fines militares”. Y se detiene particularmente en Clearview, “cuyo sistema de reconocimiento facial es utilizado por fuerzas de seguridad gubernamentales, que estuvo rodeada de polémica al entrenar su IA con fotos públicas en redes sociales sin ningún tipo de control”, menoscabando el principio de la privacidad “en aras del principio de la seguridad”, recalca.
La irrupción de Donald Trump en el escenario internacional podría insuflar energía a una posible carrera armamentística de la IA. “Trump ha lanzado el proyecto Stargate con una inversión de 500.000 millones de dólares en IA en 5 años. Participan las empresas OpenAI, SoftBank, Microsoft, Nvidia, Arm y Oracle. El siglo XX estuvo marcado por la carrera a la Luna. En este siglo XXI, la Luna es la IA. Los avances tecnológicos de dicha carrera han terminado en lo militar y en lo social, por ese orden. Todo hace suponer que ahora también será así”, valora Rouyet.
Pero China no le irá a la zaga. “Ha integrado la IA en su estrategia militar con un enfoque de ‘fusión civil-militar’, donde la tecnología desarrollada por empresas privadas como Huawei o Baidu también se usa en defensa. En 2017, Pekín anunció su objetivo de liderar la IA mundial en 2030. Y su inversión en IA militar es opaca, pero masiva”, advierte.
Zscaler alerta sobre los riesgos de seguridad por el aumento exponencial del uso empresarial de…
Durante la campaña de la renta, aumentan los intentos de fraude por suplantación de Hacienda.…
HP Renew Solutions se presenta como una oferta integral de soluciones de reacondicionamiento, reciclaje y…
Pure Storage y CERN Openlab colaboran para evaluar el uso del almacenamiento flash en la…
La facturación electrónica creció un 21,18 % en nuestro país durante 2024 hasta alcanzar los…
Una encuesta de Western Digital sitúa en tercer lugar la protección contra las ciberamenazas.