Cómo la IA está remodelando el futuro de la guerra: lo que necesitas saber ahora

Desde enjambres de drones impulsados por IA hasta defensores cibernéticos autónomos, la inteligencia artificial está transformando el campo de batalla a un ritmo sorprendente. Las potencias militares de todo el mundo compiten por desplegar máquinas más inteligentes que puedan pensar, aprender e incluso tomar decisiones al instante, prometiendo redefinir cómo se libran las guerras. ¿Estamos al borde de una revolución bélica impulsada por la IA, y qué significa esto para la seguridad global? Sigue leyendo para descubrir las aplicaciones más novedosas de la IA en la defensa, las ambiciones de superpotencias como EE. UU. y China, las minas éticas de los “robots asesinos” y cómo la próxima década podría consolidar el papel de la IA como el arma suprema —o la mayor amenaza— en el combate moderno.
Resumen de los sistemas actuales de IA y autonomía en la defensa
Un dron militar utilizado en un ejercicio de seguridad de base, mostrando las capacidades de vigilancia con IA. Los drones equipados con IA pueden realizar reconocimientos e incluso identificar amenazas de manera autónoma.
Las fuerzas armadas actuales ya están aprovechando la inteligencia artificial en una variedad de aplicaciones. Estos usos actuales de la IA y los sistemas autónomos incluyen desde vehículos no tripulados hasta herramientas de análisis de datos. Las principales áreas donde la IA se emplea actualmente en defensa son:
- Drones autónomos y vehículos no tripulados: Los vehículos aéreos no tripulados (UAV) y robots terrestres habilitados con IA se usan para reconocimiento, ataques aéreos y protección de fuerzas. Por ejemplo, los drones autónomos o semiautónomos pueden patrullar campos de batalla o zonas en disputa, identificando objetivos mediante sistemas de visión artificial a bordo. En el actual conflicto de Ucrania, pequeños drones (algunos de apenas unos cientos de dólares) se han utilizado para atacar objetivos de alto valor como tanques, demostrando la rentabilidad de las armas guiadas por IA armyupress.army.mil. La investigación y las pruebas de tecnología de enjambres —grupos de drones que coordinan sus acciones de manera autónoma— están en marcha en países como Estados Unidos y China armyupress.army.mil. De hecho, los drones que no necesitan un operador y pueden trabajar juntos como un enjambre coordinado ya son una realidad post.parliament.uk, planteando nuevos desafíos a las defensas convencionales.
- Inteligencia, vigilancia y reconocimiento (ISR): La IA es un multiplicador de fuerzas para la inteligencia militar. Los algoritmos analizan la enorme avalancha de datos de sensores —incluyendo las transmisiones de video de drones, imágenes satelitales e inteligencia de señales— mucho más rápido que los analistas humanos. Un proyecto destacado en EE. UU., Project Maven, se lanzó en 2017 para utilizar visión artificial con IA para identificar insurgentes y objetos en las grabaciones de vigilancia de drones, aliviando a los analistas humanos saturados defense.gov. Dicho análisis con IA fue probado en combate contra ISIS, acelerando la detección de posiciones enemigas. En Ucrania, se informa que los analistas están usando herramientas de IA para fusionar datos de drones, satélites e incluso redes sociales, localizando posiciones enemigas mucho más rápido que los métodos tradicionales post.parliament.uk. Los sistemas ISR basados en IA pueden acortar de manera sustancial el tiempo entre el sensor y el disparo (“sensor-to-shooter”) —un informe señaló que el ciclo de ataque, desde localizar el objetivo hasta disparar la artillería, puede tardar tan solo 3–4 minutos con asistencia de IA post.parliament.uk.
- Logística y mantenimiento militar: Igual de importantes, pero menos visibles, son las aplicaciones de la IA en la logística, la “línea vital” de las fuerzas armadas. El análisis predictivo y el aprendizaje automático se emplean para prever necesidades de suministros y detectar fallas de mantenimiento antes de que ocurran. Por ejemplo, el Ejército estadounidense utiliza mantenimiento predictivo impulsado por IA para determinar cuándo es probable que fallen los componentes de vehículos y así reemplazarlos preventivamente army.mil. Esto reduce averías y tiempos muertos, asegurando una mayor disponibilidad de vehículos y aeronaves. La optimización de cadenas de suministro mediante IA ayuda a que los suministros lleguen en el momento y lugar correctos, mejorando la eficiencia en la entrega de combustible, municiones y repuestos. En síntesis, la IA está ayudando a los ejércitos a automatizar sus almacenes y talleres, gestionar convoyes (cada vez más con camiones semiautónomos) y controlar inventarios con mínima intervención humana army.mil army.mil. Estos avances se traducen en reabastecimientos más rápidos, ahorro de costos y una logística más resiliente ante la presión.
- Guerra cibernética y ciberseguridad: El ciberespacio es otro campo de batalla donde la IA juega un papel crucial. Algoritmos de IA defienden redes detectando actividades y accesos anómalos en tiempo real, mucho más rápido que los operadores humanos. Pueden identificar automáticamente nuevos patrones de malware o phishing y lanzar contramedidas, una ventaja esencial conforme los ciberataques aumentan en rapidez y complejidad. En el lado ofensivo, la IA puede ayudar a explorar redes enemigas en busca de vulnerabilidades o automatizar la producción de falsos señuelos (por ejemplo, deepfakes y desinformación). Notablemente, los ejércitos exploran el uso de la IA para interferir o evadir interferencias en guerra electrónica; por ejemplo, los drones equipados con IA pueden navegar mediante datos del terreno si se les niega el GPS post.parliament.uk. La integración de la IA en unidades cibernéticas supone ciclos de decisión mucho más rápidos en la guerra electrónica e informativa, con la posibilidad de automatizar ataques cibernéticos a velocidad de máquina. Sin embargo, esto también eleva el riesgo: un arma cibernética impulsada por IA podría escalar un conflicto en milisegundos, y defenderse contra tales amenazas requiere contar con IA igual de veloz.
- Soporte a la toma de decisiones y sistemas de mando: Tal vez uno de los usos más impactantes de la IA es asistir a los comandantes humanos en la toma de decisiones. Los campos de batalla modernos generan enormes volúmenes de datos (de sensores, informes de inteligencia, estados de unidades, etc.), y los sistemas de IA ayudan a agregar y analizar esta información para ofrecer opciones más claras. El Departamento de Defensa de EE. UU. ha enfatizado la integración de IA en mando y control con programas como Joint All-Domain Command and Control (JADC2), cuyo objetivo es conectar sensores y armas a través de redes gestionadas por IA. La meta es dar a los comandantes una “ventaja decisional” —como señaló la subsecretaria de Defensa Kathleen Hicks, el uso de IA implica decisiones más rápidas y precisas, algo crítico para disuadir y derrotar agresiones defense.gov. Ejemplos incluyen software de gestión de combate con IA capaz de recomendar respuestas óptimas ante amenazas entrantes o simular rápidamente distintos cursos de acción. En entrenamiento y simulación, adversarios gestionados por IA (por ejemplo, en software de juegos de guerra) ofrecen escenarios más realistas para los planificadores militares. Estos sistemas inteligentes de soporte a la decisión actúan como socios incansables, calculando escenarios y probabilidades en segundos para ayudar al juicio humano.
En resumen, la IA ya está integrada en todas las funciones militares: pilotando drones, analizando inteligencia, asegurando redes, gestionando logística y asistiendo a comandantes. Estas implementaciones actuales permanecen en gran medida con humanos en el ciclo; la IA provee recomendaciones o automatiza tareas específicas mientras los humanos mantienen la supervisión. No obstante, demuestran el valor sustancial de la IA en la guerra actual: aumentando eficiencia, velocidad y precisión en todos los ámbitos.
Proyecciones a futuro: la IA en la guerra en los próximos 5 a 15 años
Durante los próximos 5 a 15 años, los expertos anticipan que la inteligencia artificial y la autonomía estarán aún más arraigadas en las operaciones militares —transformando potencialmente el propio carácter de la guerra. Esto es lo que podría deparar el futuro de la IA en el ámbito militar:
- Fuerzas armadas “robóticas”: Se espera que el equilibrio entre participantes humanos y máquinas en los conflictos cambie drásticamente. El ex presidente del Estado Mayor Conjunto de EE. UU. predijo que hasta un tercio de las fuerzas armadas avanzadas podrían consistir en robots o sistemas no tripulados en los próximos 10–15 años post.parliament.uk. Esto implica soldados luchando junto a —o incluso siendo reemplazados por— drones autónomos, vehículos y unidades robóticas de combate en muchos roles. Pequeños vehículos terrestres autónomos podrían encargarse de logística y reconocimiento, mientras tanques robóticos armados o armas automáticas reforzarían a las tropas humanas en primera línea. Algunos ejércitos ya lo están planificando: los conceptos del Ejército británico, por ejemplo, prevén unidades completas de “guerreros robóticos” bajo mando humano para la década de 2030.
- “Loyal Wingmen” y aeronaves de combate autónomas: Las fuerzas aéreas probablemente desplegarán drones de combate pilotados por IA que acompañarán a cazas tripulados. Estados Unidos ha anunciado un ambicioso plan para desplegar más de 1,000 Collaborative Combat Aircraft (CCA) —esencialmente drones autónomos compañeros— que volarán junto a sus cazas de nueva generación como el F-35 y el futuro NGAD airforce-technology.com airforce-technology.com. Estos compañeros robóticos están diseñados para portar armas, explorar, interferir radares enemigos o absorber fuego enemigo, usando IA para reaccionar ante amenazas de forma independiente. Ya han volado prototipos (como el XQ-58A Valkyrie y el MQ-28 Ghost Bat australiano). Para finales de la década de 2020 se espera que los primeros escuadrones de drones compañeros con IA estén operativos, y con plena capacidad hacia 2030 airforce-technology.com. China y Rusia desarrollan conceptos similares (por ejemplo, el UCAV “Dark Sword” de China y el S-70 Okhotnik ruso) buscando potenciar el poder aéreo con sistemas autónomos. El combate aéreo en los 2030s podría incluir formaciones mixtas de pilotos humanos y drones controlados por IA en red —concepto conocido como manned-unmanned teaming.
- Guerra de enjambres y autonomía masiva: La próxima década verá la maduración de los enjambres de armas autónomas. Un enjambre puede ser decenas o cientos de pequeños drones que coordinan ataques de forma autónoma, desbordando defensas por número e inteligencia colectiva. En junio de 2024, por ejemplo, el Ejército Popular de Liberación de China realizó ejercicios con enjambres de drones practicando asaltos a islas —una preparación nada sutil para escenarios potenciales como una invasión de Taiwán armyupress.army.mil. Los enjambres futuros podrían incluir drones aéreos, robots terrestres e incluso buques navales autónomos actuando en conjunto. Estos enjambres contarán con avances en comunicación máquina a máquina y IA distribuida, permitiéndoles adaptarse y reaccionar en grupo sin esperar órdenes humanas. Analistas militares advierten que enjambres a gran escala podrían atacar objetivos con una velocidad y alcance sin precedentes, incapacitando defensas clave en minutos armyupress.army.mil. Para contrarrestarlo, se requerirán nuevos sistemas defensivos de IA, posiblemente IA antiswarms que gestionen enjambres aliados o coordinen respuestas rápidas (como microondas de alta potencia o defensas láser) contra enjambres enemigos. La carrera ha comenzado: EE. UU., China, Israel y otros invierten masivamente en autonomía de enjambres, conscientes de que quien la domine primero puede obtener una ventaja decisiva.
- Gestión de combate y toma de decisiones impulsada por IA: A medida que la IA madura, jugará un papel mayor en el mando y la estrategia. En 15 años, podemos esperar “copilotos” de IA en centros de mando —asistentes avanzados que analizarán continuamente el escenario táctico y estratégico y sugerirán cursos de acción óptimos. Esto va más allá de las herramientas de apoyo actuales; los sistemas futuros, potenciados por aprendizaje automático avanzado y posiblemente computación cuántica, podrían coordinar operaciones multidominio (tierra, mar, aire, ciberespacio y espacio) al instante. La iniciativa JADC2 de EE. UU. es un primer paso hacia esto, buscando un sistema de mando totalmente integrado con IA. Para los años 2030, un comandante podría apoyarse en un sistema de IA para orquestar una operación compleja: la IA recomendaría cuándo maniobrar unidades, interferir sensores enemigos, lanzar ciberataques o solicitar ataques de drones, todo en una sinfonía sincronizada que ningún estado mayor humano podría gestionar en tiempo real. Tales IAs aprovecharán entrenamiento masivo con datos de juegos de guerra y datos operativos reales para volverse expertas en razonamiento táctico y estratégico. Ya vemos precursores —por ejemplo, pruebas recientes de DARPA donde un piloto de IA derrotó a un piloto humano de F-16 en un combate simulado por 5-0 armyupress.army.mil, y en 2023 una IA voló un F-16 real en pruebas, demostrando que la IA puede manejar tareas tácticas a alta velocidad darpa.mil. Estos hitos indican que la IA no solo aconsejará sino que potencialmente tomará el control en ciertas tareas de combate. Aun así, los ejércitos insisten en que los comandantes humanos establecerán los objetivos y reglas, usando la IA como herramienta poderosa y no cediéndole el control total.
- Uso expandido de la IA en guerra cibernética y electrónica: En los próximos años, el papel de la IA en el ámbito cibernético se intensificará tanto en la defensa como en el ataque. Se prevén sistemas de IA que lancen automáticamente represalias cibernéticas o interferencias electrónicas contra ataques entrantes en milisegundos. La guerra electrónica cognitiva es un campo emergente donde sistemas impulsados por IA cambian frecuencias, modulan señales y adaptan las técnicas de interferencia al instante para confundir radares y comunicaciones enemigas. Para 2030, tales módulos de guerra electrónica gestionados por IA podrían ser estándar en aviones y drones de combate, reaccionando más rápido de lo que los sistemas enemigos puedan responder. Además, la IA generativa (tecnología tras chatbots avanzados y deepfakes) será armada para operaciones psicológicas y engaño. Hay evidencia de que China, por ejemplo, ha usado IA generativa para crear perfiles falsos y propaganda visual en redes sociales para influir en la opinión pública armyupress.army.mil armyupress.army.mil, tendencia que probablemente se expandirá a medida que el contenido creado por IA sea indistinguible de la realidad. Los ejércitos tendrán que combatir la desinformación generada por IA y desarrollar sus propios “infoguerra IA” para dominar la narrativa y confundir a los adversarios. En suma, la infosfera de la guerra —desde hackeo hasta campañas informativas— estará saturada de algoritmos autónomos enfrentándose mutuamente.
- Armas de IA más pequeñas, inteligentes y baratas: El avance tecnológico suele hacer los dispositivos más pequeños y económicos, e IA no es la excepción. En la próxima década podríamos ver misiles inteligentes y municiones que usen IA para seleccionar objetivos y corregir trayectorias, haciéndolos más efectivos contra blancos móviles o en entornos saturados. Drones pequeños y autónomos —incluso “slaughterbots” del tamaño de una mano— podrían emerger como nueva clase de arma de infantería, usando reconocimiento facial para cazar personas o vehículos específicos (un concepto inquietante popularizado por un video viral de 2017, pero cada vez más cercano a la realidad). Mientras tanto, los satélites con IA mejorarán la vigilancia y selección de objetivos en tiempo real desde el espacio. Muchos países invierten en pequeños satélites en red capaces de coordinar tareas de imagen de manera autónoma o incluso ejecutar maniobras defensivas en órbita. Para 2035, una fuerza militar avanzada podría desplegar constelaciones de mini-drones autónomos, minas inteligentes y sensores inteligentes cubriendo el campo de batalla, todos comunicándose y ajustándose a través de IA. Esta computación ubicua generará enormes cantidades de datos —que a su vez alimentarán los sistemas de IA, creando un ciclo auto-reforzado de conciencia y acción impulsadas por IA.
Mirando hacia los próximos 5 a 15 años, una cosa es segura: se desarrolla una carrera armamentista de IA, y su resultado dará forma al futuro de la guerra. Las naciones se apresuran a aprovechar la IA en el ámbito militar, viéndola como clave para la superioridad estratégica. Como señaló el presidente ruso Vladimir Putin, el líder en IA “gobernará el mundo”, un sentimiento que impulsa la gran inversión de China y la modernización tecnológica urgente de EE. UU. rusi.org. Aunque la guerra completamente autónoma aún no ha llegado, la tendencia indica que para los años 2030 los ejércitos operarán con una autonomía y velocidad sin precedentes. Esto podría revolucionar el combate, pero también exigirá nuevas estrategias para mantener el control humano y prevenir conflictos involuntarios. La próxima década será decisiva mientras las fuerzas armadas del mundo llevan los límites de la IA al campo de batalla —y al espacio aéreo—.
Jugadores globales y sus estrategias de IA militar
La carrera por la dominación de la IA militar es global, liderada por algunos actores clave. Cada potencia principal —Estados Unidos, China, Rusia— y alianzas como la OTAN poseen enfoques distintos para integrar la IA y los sistemas autónomos en sus fuerzas armadas. A continuación se desglosa cómo estos actores están diseñando su estrategia para la revolución de la IA en defensa.
Estados Unidos
Estados Unidos considera la inteligencia artificial como piedra angular del poder militar futuro y está invirtiendo fuertemente para mantener su liderazgo. La estrategia oficial de IA del Pentágono (publicada por primera vez en 2019) exige la adopción rápida de la IA “a gran escala” en todo el Departamento de Defensa, desde apoyo logístico hasta la primera línea. Este impulso se respalda con presupuestos en aumento: el Departamento de Defensa solicitó alrededor de $1.8 mil millones para proyectos de IA en el año fiscal 2024 (y una cantidad similar para 2025) defensescoop.com, frente a un estimado de $800 millones en 2020. Además, EE. UU. gasta miles de millones en sistemas autónomos como drones no tripulados, que a menudo incorporan IA nationaldefensemagazine.org. Las iniciativas clave que ilustran el enfoque estadounidense incluyen:
- Unidades y programas de IA dedicados: El Departamento de Defensa estableció el Centro Conjunto de Inteligencia Artificial (JAIC) en 2018 (ahora reorganizado bajo la Oficina Principal de Digitalización e IA) para unificar los esfuerzos de I+D en IA. Programas iniciales como el Project Maven demostraron el valor de la IA al desplegar algoritmos que asistieron a analistas de inteligencia en Medio Oriente defense.gov. El portafolio de IA militar estadounidense abarca ahora decenas de proyectos: más de 600 iniciativas de IA recibían fondos en 2021 nationaldefensemagazine.org, que van desde herramientas predictivas de mantenimiento hasta sistemas de combate semi-autónomos.
- Estrategia del tercer contrapeso y JADC2: Estratégicamente, EE. UU. impulsa lo que a veces se llama el “tercer contrapeso”: el uso de IA y tecnologías avanzadas para contrarrestar la creciente capacidad de los adversarios. Un pilar fundamental es el Comando y Control Conjunto en Todos los Dominios (JADC2), una visión de conectividad fluida entre todas las fuerzas. La IA es esencial para JADC2, ya que debe vincular sensores, decisores y atacantes en tiempo real. Esto implica que una red impulsada por IA podría recibir datos de un satélite o dron, identificar una amenaza y activar el sistema de armas apropiado (sea un caza o una batería de artillería) casi instantáneamente. Esfuerzos como el Sistema Avanzado de Gestión de Batalla (ABMS) de la Fuerza Aérea y el Project Convergence del Ejército sirven como bancos de pruebas para esta red de mando habilitada por IA.
- Cooperación entre tripulados y no tripulados: El ejército de EE. UU. visualiza a los equipos humano-máquina como el uso óptimo de la IA: mantener a los humanos al mando mientras los sistemas autónomos amplifican la eficacia en combate. Un ejemplo destacado es el plan de la Fuerza Aérea para Aeronaves de Combate Colaborativas, esencialmente drones compañeros que volarán junto a cazas tripulados. Estos drones aprovecharán la IA para llevar a cabo tareas como reconocimiento, guerra electrónica o incluso atacar aviones enemigos por sí mismos. El objetivo es disponer de una flota operacional de drones CCA para finales de esta década airforce-technology.com. De modo similar, el Ejército experimenta con soldados acompañados de compañeros robóticos de batalla —ya sea un robot terrestre portando equipo o un vehículo autónomo que explora en busca de emboscadas.
- Marco ético y normativo: EE. UU. también ha sido activo en establecer directrices para el uso de la IA en la guerra. En 2020, el Pentágono adoptó cinco principios éticos para la IA (responsable, equitativo, trazable, confiable, gobernable) como guía para el desarrollo. Además, la directiva 3000.09 del Departamento de Defensa establece que cualquier arma autónoma debe permitir que los comandantes ejerzan “niveles apropiados de juicio humano” sobre el uso de la fuerza en.wikipedia.org. Esta política, actualizada en enero de 2023, no prohíbe las armas letales autónomas, pero exige una revisión rigurosa y autorización para cualquier sistema de IA que pueda tomar decisiones de vida o muerte. En la práctica, EE. UU. ha mantenido hasta ahora un humano “en el circuito” para la fuerza letal: por ejemplo, los ataques con drones y los sistemas de defensa aérea incluyen confirmación humana. Los funcionarios estadounidenses suelen enfatizar que la IA servirá para aumentar la eficacia de los combatientes humanos, sin sustituir su juicio, en línea tanto con preocupaciones de fiabilidad práctica como con valores democráticos.
- Colaboración con la industria y aliados: La industria tecnológica estadounidense desempeña un papel fundamental en el impulso militar de la IA. Empresas como Microsoft, Palantir y Anduril han obtenido contratos de defensa para suministrar soluciones de IA, desde computación en la nube hasta análisis de campo de batalla. (Cabe señalar que, pese a ciertas controversias —por ejemplo, la retirada de Google en 2018 de Project Maven por protestas de empleados— las alianzas entre industria y ejército han vuelto a crecer conforme se reconoce la importancia estratégica de la IA). EE. UU. también coopera estrechamente con aliados en IA —a través de foros como la sociedad de IA conjunta dentro de Five Eyes y las iniciativas de innovación de la OTAN— para asegurar la interoperabilidad y el avance colectivo.
En términos generales, el enfoque estadounidense combina grandes inversiones con una implantación cautelosa. Busca explotar al máximo la IA para retener la superioridad militar, pero con medidas deliberadas para asegurar el control y el respeto de las leyes de la guerra. Washington se ha opuesto a prohibiciones internacionales a las armas autónomas, prefiriendo desarrollar normas y “mejores prácticas”. Al mantener tanto una ventaja tecnológica como una posición moral (mediante principios de uso responsable), EE. UU. espera establecer el estándar global para la IA militar.
China
China ha apostado estratégicamente por la IA como clave de su modernización militar y como forma de rebasar el poder militar estadounidense. El Ejército Popular de Liberación (EPL) se refiere a esta transformación como lograr la “guerra inteligentizada”, un concepto impulsado oficialmente en el libro blanco de defensa nacional de China de 2019 carnegieendowment.org. Si bien la “informatización” (integración de tecnologías de la información) guió las reformas previas del EPL, la inteligentización va más allá: integrar la IA en todos los dominios de combate para obtener una ventaja cognitiva y operativa decisiva.
Estrategia e inversión: El liderazgo chino considera la IA una prioridad nacional con dimensiones militares, económicas y geopolíticas. En 2017, Pekín presentó el Plan de Desarrollo de IA de Nueva Generación, que fija el objetivo de que China sea líder mundial en IA en 2030. Según una estimación, la industria china de IA valía cerca de 150 mil millones de yuanes (≈$23 mil millones) en 2021, y se prevé que supere los 400 mil millones de yuanes ($55 mil millones) para 2025 armyupress.army.mil (aunque esto incluye IA civil). El gasto militar específico en IA es difícil de precisar, ya que los presupuestos chinos no son transparentes. Sin embargo, un estudio de 2022 del CSET de la Universidad de Georgetown concluyó que el EPL probablemente gasta “pocos miles de millones” de dólares anuales en IA, más o menos a la par de EE. UU. nationaldefensemagazine.org. Estos fondos se distribuyen entre adquisición de sistemas con IA y una significativa I+D en laboratorios militares y empresas privadas (bajo la política de fusión civil-militar de China). Es importante destacar que China puede aprovechar su pujante sector tecnológico comercial —empresas como Baidu, Alibaba, Tencent, iFlytek— que son pioneras en investigación de IA y pueden aplicar innovaciones de doble uso a necesidades militares.
Áreas clave de enfoque: El EPL impulsa agresivamente aplicaciones de IA en ámbitos que percibe como multiplicadores de fuerza frente a adversarios tecnológicamente superiores (como EE. UU.). Según investigaciones, China se enfoca en IA para análisis de inteligencia, mantenimiento predictivo, guerra de la información, navegación y reconocimiento de objetivos nationaldefensemagazine.org. Concretamente:
- El EPL desarrolla herramientas de IA para analizar datos de reconocimiento (imágenes satelitales, comunicaciones interceptadas) e identificar objetivos y patrones más rápido que los analistas humanos.
- En mantenimiento y logística, unidades chinas emplean IA para anticipar fallas de equipos y gestionar cadenas de suministro, algo clave para un ejército que busca desplegarse lejos de su territorio.
- Vehículos y drones autónomos son un enfoque principal. China ha presentado numerosos drones autónomos o semi-autónomos: desde drones stealth de alta gama (como el Sharp Sword UCAV) hasta enjambres de micro-drones. En 2020 se mostró un dron acompañante, estilo loyal-wingman (FH-97), similar al concepto Skyborg de EE. UU., y en 2022 investigadores chinos lograron un récord mundial al volar un enjambre de 10 drones por un entorno con obstáculos complejos usando IA, señalando avances en tecnología de enjambres. La Fuerza de Cohetes del EPL también explora IA para mejorar el reconocimiento y la guía de objetivos de misiles.
- Armas letales autónomas: Las autoridades chinas han sido ambiguas en foros internacionales sobre la prohibición de armas autónomas, y existen indicios de que China desarrolla tales sistemas. Investigadores del EPL trabajan en reconocimiento de objetivos y control de tiro basado en IA para armas que eventualmente podrían atacar sin intervención humana nationaldefensemagazine.org. Por ejemplo, China ha comercializado para exportación vehículos robóticos armados impulsados por IA (como el dron helicóptero Blowfish A2). Aun así, Pekín afirma preferir un acuerdo global contra el uso de armas totalmente autónomas— una posición que algunos analistas interpretan como táctica, mientras continúa su I+D.
- Automatización de mando: En línea con la guerra inteligentizada, el EPL experimenta con IA en juegos de guerra y toma de decisiones de mando. Publicaciones chinas recientes discuten algoritmos de IA para planificación bélica e incluso para mando operacional en simulaciones. El EPL ha creado laboratorios de batalla donde sistemas de IA simulan escenarios de invasión de Taiwán y sugieren estrategias. Aunque no hay indicios de que China confiaría una operación real a una IA hoy, claramente buscan reducir el peso de las limitaciones humanas en los bucles de decisión de mando.
Fusión civil-militar y ventaja tecno-autoritara: El ejército chino obtiene ventaja de las fronteras difusas entre tecnología civil y defensa. A través de la fusión civil-militar, los avances en reconocimiento facial, vigilancia masiva y fintech pueden reutilizarse con fines militares. Por ejemplo, los sistemas de vigilancia masiva perfeccionados para la seguridad interna (cámaras ubicuas con IA de reconocimiento facial, monitoreo de redes sociales) aportan experiencia en análisis de datos y visión por computadora aplicable a inteligencia militar y ciber-guerra. De hecho, se ha acusado a China de emplear la IA para operaciones de hacking e influencia: un informe de Microsoft de 2023 señala campañas chinas de influencia usando imágenes y videos generados por IA para influir en la opinión pública de plataformas occidentales armyupress.army.mil armyupress.army.mil. Esta capacidad de aprovechar la IA tanto para el poder duro como el blando —de drones autónomos a propaganda deepfake— es un aspecto único del enfoque chino.
Postura global y ética: A nivel internacional, China se posiciona hasta cierto punto como defensora del control de armas en IA. Ha pedido la prohibición del uso de armas autónomas contra civiles y el uso “responsable” de la IA. Sin embargo, China no se ha unido a quienes presionan por una prohibición total de las armas letales autónomas; probablemente quiere libertad para desarrollar tecnología militar de IA mientras evita el descrédito internacional. Las declaraciones chinas suelen enfatizar que debe haber siempre control humano en algún nivel, pero los funcionarios chinos también argumentan que prohibir tecnologías específicas de plano podría obstaculizar el progreso. En la práctica, los avances militares chinos sugieren que desplegarán la IA tan pronto como consideren que los sistemas son lo suficientemente confiables, especialmente en un escenario de conflicto donde puedan obtener ventaja. Por ejemplo, surgieron informes de que drones autónomos y robots terrestres chinos han sido probados en escaramuzas fronterizas (por ejemplo, con la India en el Tíbet, utilizando vehículos robóticos para logística en alta altitud).
En resumen, el enfoque de China es centralmente dirigido y ambiciosamente integral: incorporar la IA en toda la EPL para mejorar todo, desde la logística hasta los ataques letales, aprovechar la innovación tecnológica civil y esforzarse por igualar o superar las capacidades estadounidenses para 2030. El rápido progreso del ejército chino –y su disposición a experimentar audazmente con nuevos conceptos como ataques de enjambre– subraya por qué muchos ven a China como el principal rival en la “carrera armamentística de la IA”. El objetivo final de Beijing es lograr una ventaja estratégica: la habilidad de disuadir o ganar conflictos superando en pensamiento, maniobra y resistencia al enemigo gracias a fuerzas habilitadas por IA superior.
Rusia
Rusia aborda la IA militar tanto como una oportunidad para acortar su brecha con los ejércitos occidentales como una necesidad nacida de lecciones recientes en el campo de batalla. A pesar de los desafíos económicos y un sector tecnológico menor comparado con EE. UU. o China, el liderazgo ruso –incluido el presidente Putin– ha recalcado vocalmente la importancia existencial de no quedarse atrás en la IA rusi.org. La estrategia de Moscú es invertir en capacidades selectivas de IA que jueguen a favor de sus fortalezas o necesidades urgentes, incluso mientras el país lidia con sanciones y limitaciones de recursos.
Enfoque estratégico y doctrina: La doctrina militar rusa ha valorado durante mucho tiempo las soluciones asimétricas y tecnológicas para compensar debilidades convencionales. Con la IA, Rusia ve la oportunidad de una “capacidad de salto adelante”. La estrategia nacional de IA del Kremlin (publicada en 2019) y los posteriores documentos políticos destacan la defensa como un sector clave del desarrollo de IA. En 2024, Rusia presentó un nuevo plan estatal de armamento a 10 años que, por primera vez, incluye una sección dedicada a inteligencia artificial, señal de un alto compromiso con el desarrollo de armas autónomas y sistemas habilitados por IA defensenews.com. Este impulso está motivado parcialmente por la guerra en curso en Ucrania: el conflicto se ha convertido en una especie de “laboratorio de guerra de IA”, con ambos bandos utilizando drones y guerra electrónica extensivamente defensenews.com. Dolidos por reveses, los estrategas militares rusos piden acelerar la IA para modernizar sus fuerzas.
Principales programas y desarrollos de IA: Los esfuerzos de Rusia en IA, aunque no tan generosamente financiados como los de EE. UU. o China, son notables en varias áreas:
- Sistemas autónomos y no tripulados: La industria rusa ha desarrollado una serie de vehículos terrestres no tripulados (UGV) –por ejemplo, el Uran-9, robot armado, y el Marker UGV– y ha hecho experimentos con ellos en Siria y Ucrania. Los resultados han sido mixtos (el Uran-9 tuvo muchos problemas en Siria), pero las mejoras continúan. La guerra en Ucrania vio a Rusia desplegar municiones merodeadoras (drones kamikazes) y una variedad de drones de reconocimiento. Algunos de estos, como el dron merodeador Lancet, supuestamente tienen capacidad de selección semiautónoma de objetivos (p. ej., reconocimiento de señales de radar o tipos de vehículos). Rusia también está invirtiendo en drones submarinos para su marina y en IA para plataformas existentes (como modos autónomos rumoreados para el tanque T-14 Armata).
- Sistemas de misiles y defensa aérea: El ejército ruso tiene tradición de automatización en sistemas estratégicos; por ejemplo, el sistema de represalia nuclear “Perimeter” (Mano Muerta) de la era de la Guerra Fría tenía algoritmos automatizados de decisión defensenews.com. Basándose en eso, Rusia está integrando la IA en nuevos sistemas. Un ejemplo es el sistema de defensa aérea S-500, para el cual se desarrolla un módulo de control habilitado por IA capaz de realizar evaluaciones de amenazas y predecir trayectorias de misiles entrantes defensenews.com. Los expertos rusos señalan que la IA puede ayudar mucho en sistemas de alta velocidad (como defensa antimisiles o guerra electrónica) donde los tiempos de reacción son demasiado cortos para los humanos defensenews.com. De forma similar, se está buscando el reconocimiento de objetivos basado en IA para control de fuego en tanques y artillería, lo que podría mejorar la precisión y los tiempos de respuesta.
- Actualización del arsenal existente: Más que desarrollar armas nuevas basadas en IA desde cero, Rusia suele reacondicionar plataformas probadas incorporando IA. Por ejemplo, funcionarios han mencionado añadir navegación autónoma y reconocimiento de objetivos a vehículos blindados antiguos, u operar versiones no tripuladas de vehículos para misiones peligrosas (como entrega de suministros bajo fuego). En Ucrania, las tropas rusas han comenzado a recibir actualizaciones de software que incluyen funciones impulsadas por IA, como seguimiento automático de objetivos en algunos visores y torretas de control remoto en vehículos blindados recién salidos de reparación defensenews.com. Este enfoque incremental permite a Rusia desplegar capacidades de IA antes y a menor costo –aunque quizá de manera menos impresionante que armas nuevas creadas para IA.
- Base de investigación e industria: El gobierno de Rusia impulsa I+D en IA a través de conglomerados estatales de defensa e iniciativas nuevas. Rostec, el gigante de la industria de defensa, fundó en 2022 un laboratorio de Inteligencia Artificial para investigar aplicaciones militares del aprendizaje automático defensenews.com. El gobierno también estableció la “Era” Technópolis de Innovación Militar, un campus de investigación en el Mar Negro donde jóvenes ingenieros y científicos trabajan en startups de tecnología de defensa, incluidos proyectos de IA. A pesar de estos esfuerzos, Rusia enfrenta obstáculos: escasez de microelectrónica avanzada (agravada por sanciones en chips), fuga de cerebros de talento tecnológico y un ecosistema de startups menos vibrante. Para compensar, Rusia intenta aprovechar tecnología civil–por ejemplo, Sberbank (el mayor banco ruso) tiene una sólida área de investigación en IA, y su CEO ha destacado el potencial de la IA para impulsar tanto el PIB como el poder militar ruso rusi.org. Esto refleja, a menor escala, la sinergia civil-militar vista en China.
- En el campo de batalla – Lecciones de Ucrania: La guerra en curso ha sido un campo de pruebas que obliga a Rusia a adaptarse. Las fuerzas ucranianas –ayudadas por tecnología e inteligencia occidental– han empleado herramientas potenciadas con IA (como cartografía satelital asistida por IA para dirigir artillería). En respuesta, las unidades rusas están aprendiendo a interferir o engañar la vigilancia por IA y a desplegar municiones merodeadoras con mayor autonomía para atacar la artillería ucraniana. Es importante resaltar que las altas bajas y pérdidas de equipo en Ucrania han hecho notar a Rusia el atractivo de los sistemas autónomos que puedan reducir la dependencia de soldados. Los redactores militares rusos mencionan con frecuencia el uso de la IA para disminuir la exposición del personal–por ejemplo, convoyes logísticos autónomos para abastecimiento bajo fuego, o robots para evacuar heridos defensenews.com. Podemos esperar que Rusia priorice aquellas aplicaciones que aligeren sus males militares (drones, guerra electrónica, automatización de la defensa de activos cruciales) mientras reconstruye sus fuerzas.
Ética y política: Rusia generalmente se ha opuesto a una prohibición preventiva de las armas letales autónomas en foros internacionales, alineándose con EE. UU. y China en preferir no poner restricciones estrictas. Los funcionarios rusos enfatizan que la ley internacional existente es suficiente y que “el ser humano debe seguir siendo responsable”, pero rehúsan cualquier acuerdo que limite el desarrollo de nuevas armas. En la práctica, Rusia parece dispuesta a desplegar sistemas con niveles crecientes de autonomía siempre que tengan utilidad táctica. Por ejemplo, aunque no se ha confirmado públicamente un ataque completamente autónomo de un dron merodeador ruso, es probable que Rusia no dude en emplearlo si resulta eficaz. A nivel nacional, el régimen de Putin enmarca el desarrollo de IA como un asunto de supervivencia nacional–Putin incluso equiparó la importancia de la IA a la invención de las armas nucleares rusi.org. Esta retórica sugiere que Rusia considera inaceptable quedarse atrás en IA. Dicho esto, la cultura militar rusa es además bastante conservadora y jerárquica; puede haber resistencia interna a confiar excesivamente en sistemas de IA. La lenta adopción de conceptos avanzados (como la guerra centrada en redes) en el pasado insinúa que integrar la IA de forma amplia puede ser un reto.
En resumen, el enfoque de Rusia respecto a la IA militar es oportunista y focalizado. Su objetivo es incorporar la IA en áreas críticas —drones, misiles, guerra electrónica— para superar sus limitaciones, especialmente frente a la OTAN. La guerra en Ucrania está acelerando estos esfuerzos por necesidad. Aunque existen restricciones económicas y tecnológicas, la determinación de Rusia de mantenerse en la carrera de la IA es evidente. Queda por ver si esto se traducirá en algunas soluciones milagrosas o en una transformación más amplia, pero Moscú está resuelto a no quedarse atrás en la era de la guerra autónoma.
La OTAN y las Naciones Aliadas
La OTAN y sus Estados miembros reconocen colectivamente que la IA será fundamental para la defensa futura, y trabajan tanto conjunta como individualmente para integrar la IA de formas que respeten sus valores. A diferencia de una nación individual, el papel de la OTAN es coordinar y guiar el desarrollo de la IA para que los ejércitos aliados sigan siendo interoperables y estén a la vanguardia. Así es como la OTAN y sus principales aliados están abordando el desafío de la IA militar:
Estrategia de IA de la OTAN: En octubre de 2021, la OTAN publicó su primera Estrategia de Inteligencia Artificial, señalando el compromiso de la Alianza de adoptar y proteger la IA en defensa armyupress.army.mil. Esta estrategia establecía los Principios de Uso Responsable de la IA en el contexto militar: legalidad, responsabilidad y rendición de cuentas, explicabilidad y trazabilidad, fiabilidad y gobernabilidad. Estos principios reflejan los de naciones líderes como EE.UU. y buscan asegurar que, a medida que los aliados implementen la IA, lo hagan respetando el derecho internacional y las normas éticas. En la Cumbre de la OTAN de 2022, los líderes aliados también crearon un Fondo de Innovación de la OTAN de mil millones de euros para invertir en tecnologías emergentes de doble uso (la IA como objetivo principal). Para julio de 2024, la OTAN ya había actualizado su estrategia de IA para enfatizar la seguridad e interoperabilidad de la IA, reflejando el entorno tecnológico en rápida evolución armyupress.army.mil. La OTAN es clara: debe mantener el ritmo de los adversarios en IA; el Secretario General Jens Stoltenberg ha señalado que no hacerlo pondría en peligro el principio básico de defensa colectiva de la OTAN.
Colaboración Aliada – DIANA: Una de las iniciativas emblemáticas de la OTAN es el Acelerador de Innovación en Defensa para el Atlántico Norte (DIANA). Lanzado en 2023, DIANA es una red que conecta centros de innovación gubernamentales, del sector privado y académicos de los países de la OTAN para acelerar el desarrollo de tecnologías emergentes, incluida la IA armyupress.army.mil armyupress.army.mil. DIANA organiza programas de “retos” donde startups e investigadores abordan problemas de defensa específicos (por ejemplo, resiliencia energética, comunicaciones seguras o vigilancia) —muchos de los cuales implican sistemas autónomos o de IA armyupress.army.mil. Al dar acceso a centros de pruebas y financiación a nivel de la OTAN, DIANA pretende generar soluciones innovadoras útiles para todos los aliados. En esencia, la OTAN intenta aprovechar los ecosistemas de innovación combinados de 31 naciones para competir con los grandes esfuerzos centralizados de rivales como China. Además, la OTAN ha creado centros de excelencia y grupos enfocados en IA, datos y ciberdefensa para compartir mejores prácticas entre fuerzas militares.
Esfuerzos de Principales Estados Miembros: Entre los aliados principales, países como el Reino Unido, Francia y Alemania tienen sus propios programas de IA militar:
- El Reino Unido publicó una Estrategia de IA para la Defensa en 2022 y creó una “Unidad de IA y Autonomía en Defensa” para impulsar la adopción. El Reino Unido está invirtiendo en proyectos como iLauncher (IA para el reconocimiento de objetivos en armas de infantería) y ha probado vehículos logísticos autónomos. Las fuerzas británicas también han experimentado con enjambres (una prueba notable involucró 20 drones controlados por un solo operador). El Ministerio de Defensa del Reino Unido gastó £2.1 mil millones en I+D en 2022-23 en áreas que incluyen robótica, sistemas autónomos e IA post.parliament.uk, lo que refleja un fuerte compromiso con la tecnología emergente.
- Francia cuenta con un programa robusto de IA, con su Ministerio de Defensa financiando la investigación en IA para vigilancia, mantenimiento predictivo y planificación de misiones. El enfoque francés enfatiza lo que denominan “soldados aumentados”: mantener a los humanos en el centro de las operaciones pero equipados con herramientas de IA. Por ejemplo, los cazas Rafale franceses están recibiendo mejoras de IA para la identificación de amenazas, y el ejército utiliza IA para procesar imágenes de drones de operaciones antiterroristas en la región del Sahel africano.
- Alemania ha invertido en la IA para la fusión de datos en sus sistemas de mando y es cautelosa con las armas autónomas, alineándose con una ética de mantener el control humano significativo. Alemania codirige, junto con los Países Bajos, un proyecto de prueba y evaluación de IA dentro de la OTAN para garantizar que los sistemas de IA cumplan con los estándares de fiabilidad.
- Las naciones más pequeñas de la OTAN también aportan experiencia de nicho: por ejemplo, Estonia sobresale en robótica militar y ha desplegado robots terrestres autónomos en ejercicios; los Países Bajos albergan investigaciones sobre IA para misiones de paz y la ONU; y Canadá explora la IA para la vigilancia del Ártico.
Interoperabilidad e Intercambio de Datos: El reto (y la ventaja) de la OTAN es coordinar a muchas naciones. Un aspecto clave de los esfuerzos de la OTAN en IA es garantizar la interoperabilidad: que los sistemas habilitados con IA de distintos aliados puedan trabajar juntos sin problemas. Esto implica acordar estándares de datos, protocolos de comunicación e incluso compartir conjuntos de datos de entrenamiento para el aprendizaje automático. Las bases de datos federadas de la OTAN y los ejercicios multinacionales ayudan en este sentido. Por ejemplo, las fuerzas aéreas aliadas podrían compartir datos de radar para mejorar la capacidad de un algoritmo de IA para distinguir entre drones y aves, o la inteligencia de la OTAN podría crear un conjunto de datos de imágenes conjunto para entrenar IA en el reconocimiento de objetivos. Al combinar datos y recursos, los aliados esperan superar colectivamente la IA de cualquier adversario individual.
Liderazgo Ético: La OTAN se posiciona como líder normativo en la ética de la IA militar. En los foros de la OTAN, los funcionarios suelen subrayar que el respeto al derecho internacional y los valores democráticos es lo que diferencia a los aliados de los adversarios autoritarios. En octubre de 2021, junto con su estrategia de IA, la OTAN articuló que cualquier uso de la IA en la guerra debe ser gobernable y trazable, es decir, que un comandante humano pueda desactivar o anular decisiones de la IA y que las decisiones tomadas por la IA puedan ser auditadas armyupress.army.mil. La OTAN ha establecido expresamente que todas las aplicaciones de IA en la guerra por parte de aliados deben contar con responsabilidad humana. Esta postura busca tranquilizar al público y a la comunidad internacional de que la IA de la OTAN no estará fuera de control, y a la vez fomentar la confianza entre aliados respecto a la seguridad de sus sistemas. (No sería conveniente, por ejemplo, que un aliado dudara de la seguridad del sistema de defensa antimisiles controlado por IA de otro aliado durante una operación integrada).
La Guerra de Rusia en Ucrania: un catalizador para la OTAN: La reciente guerra en Ucrania ha influenciado significativamente la urgencia de la OTAN respecto a la IA. Ucrania, aunque no es miembro de la OTAN, ha recibido tecnología occidental y ha mostrado cómo pequeños drones, enlaces satelitales y análisis de IA (para identificar objetivos o priorizar reparaciones) pueden frenar a un enemigo mayor. Los ejércitos de la OTAN han observado a fuerzas rusas usar drones merodeadores de fabricación iraní y dispositivos de interferencia por IA —una llamada de atención de que la amenaza de la IA es real y actual. Esto ha acelerado programas como el Fondo de Innovación de la OTAN y probablemente impulso proyectos clasificados para contrarrestar armas autónomas (por ejemplo, sistemas para detectar y desactivar drones o proteger vehículos blindados de municiones de ataque superior guiadas por IA). El apoyo de la OTAN a Ucrania también se ha convertido en algunos casos en un terreno de prueba para la tecnología occidental: algunos sistemas anti-drones basados en IA proporcionados a Ucrania están siendo evaluados para un uso más amplio.
En conclusión, la OTAN y sus aliados abordan la IA con una mezcla de entusiasmo y cautela. Están decididos a no ceder ninguna ventaja tecnológica a sus rivales, de ahí la oleada de inversiones y proyectos colaborativos para fomentar la innovación. Al mismo tiempo, buscan incrustar los valores de la OTAN en el uso de la IA: mantener al ser humano responsable, respetar la ley y defenderse contra usos indebidos. El marco colectivo de la OTAN podría, si tiene éxito, convertirse en un modelo de normas internacionales sobre la IA militar. La capacidad de la Alianza para unificar los esfuerzos de muchas naciones también podría ser una fortaleza para superar la innovación de competidores más monolíticos. Los próximos años pondrán a prueba si la coordinación democrática puede superar a los programas militares de IA más centralizados pero dirigidos unilateralmente.
Consideraciones Éticas, Legales y de Política
La llegada de la IA y la autonomía al ámbito bélico plantea profundas cuestiones éticas y legales. ¿Cómo nos aseguramos de que las máquinas que toman decisiones de vida o muerte respeten los valores humanos y el derecho internacional? ¿Quién es responsable si un sistema autónomo comete un error? Estas preocupaciones han generado un intenso debate entre responsables políticos, activistas y líderes militares. A continuación, se describen algunos de los principales aspectos éticos, legales y de política que rodean la IA militar:
- Armas Autónomas Letales (LAWS) – Debate sobre los “robots asesinos”: Quizás la controversia más urgente es en torno a las armas que podrían seleccionar y atacar objetivos sin intervención humana. Grupos de la sociedad civil y muchos países advierten que delegar las decisiones de matar a algoritmos es inaceptable. Para 2019, 30 países habían pedido una prohibición preventiva de las armas autónomas letales por motivos éticos post.parliament.uk. Esto no incluía a grandes potencias como EE UU, Rusia o China, que se oponen a la prohibición. Los debates en las Naciones Unidas se han canalizado en gran medida a través de las reuniones de la Convención sobre Ciertas Armas Convencionales (CCW), donde un Grupo de Expertos Gubernamentales ha discutido las LAWS desde 2014. Un punto de enfoque es la necesidad de un “control humano significativo” sobre cualquier arma que pueda aplicar fuerza letal carnegieendowment.org. Esencialmente, aunque un arma utilice IA para identificar o rastrear objetivos, muchos argumentan que un humano debe deliberar y confirmar el ataque. Las naciones tienen puntos de vista divergentes: por ejemplo, el Parlamento Europeo y el Secretario General de la ONU han pedido prohibiciones totales, mientras que EE UU y Rusia prefieren códigos de conducta no vinculantes. Hasta 2025, no existe un tratado internacional que regule específicamente las armas autónomas, pero está creciendo el impulso para establecer algunas normas. A finales de 2023, ocurrió un hito cuando se presentó la primera resolución sobre armas autónomas en la Asamblea General de la ONU, acompañada de un llamado conjunto del Secretario General de la ONU y el Comité Internacional de la Cruz Roja para que los estados negocien un tratado para 2026 autonomousweapons.org.
- Responsabilidad y cumplimiento del derecho internacional: La imprevisibilidad y complejidad de la IA hacen de la responsabilidad un problema importante. Según las leyes de la guerra (Derecho Internacional Humanitario), las partes deben distinguir entre objetivos civiles y militares y usar fuerza proporcional. ¿Puede un sistema autónomo cumplir de manera fiable con estos principios? Muchos expertos y funcionarios temen que la IA actual no pueda captar por completo el contexto o las sutilezas, aumentando el riesgo de daños ilegales. Si un dron guiado por IA ataca a un civil pensando que era un combatiente, ¿quién es responsable? ¿El comandante que lo desplegó, el desarrollador que lo programó, o la propia máquina (que no es una entidad legal)? Estas preguntas no tienen resolución. Lo que sí está claro es que los ejércitos no pueden evadir la responsabilidad culpando al algoritmo; las doctrinas de responsabilidad de mando probablemente seguirán aplicándose. Para minimizar problemas, algunos ejércitos (por ejemplo, EE UU y la OTAN) exigen pruebas rigurosas y mecanismos de anulación humana en los sistemas de IA. No obstante, la posibilidad de decisiones de IA como “caja negra” es problemática: las redes neuronales avanzadas pueden ser tan complejas que ni siquiera sus creadores pueden explicar una decisión específica. Esta falta de transparencia complica las revisiones legales y la confianza en el campo de batalla. El cumplimiento con el DIH es otro punto conflictivo: en reuniones de la ONU, muchos estados afirman que sin juicio humano, un arma totalmente autónoma podría no distinguir de manera eficaz civiles o decidir la proporcionalidad de un ataque post.parliament.uk. Los partidarios responden que las IAs correctamente diseñadas podrían ser más precisas y reducir daños colaterales. Por el momento, no hay consenso, por lo que los ejércitos avanzan con cautela, manteniendo a los humanos dentro o sobre el ciclo de decisiones letales hasta que/si se convenzan de que la IA puede cumplir perfectamente con la ley.
- Esfuerzos emergentes de gobernanza: Ante la ausencia de un tratado específico, existen varios esfuerzos más suaves de gobernanza. Las discusiones de la CCW en la ONU han generado principios orientadores no vinculantes (por ejemplo, afirmando que el DIH se aplica plenamente a las armas autónomas y que los humanos siguen siendo responsables). Sin embargo, el progreso allí ha sido lento, por lo que emergen foros alternativos. Notablemente, una coalición de ONGs (Campaña para Detener los Robots Asesinos) y naciones afines han estado impulsando un proceso de tratado independiente fuera de la ONU si es necesario. En febrero de 2023, por ejemplo, una conferencia en Costa Rica reunió a países de América Latina y el Caribe para declarar su apoyo a un instrumento legal sobre armas autónomas autonomousweapons.org. El CICR (guardián del DIH) en 2021 emitió recomendaciones: instó a prohibir los sistemas autónomos que apunten a humanos o sean impredecibles y regular los demás exigiendo control humano autonomousweapons.org autonomousweapons.org. Regionalmente, la UE ha dado pasos—aunque la histórica Ley de IA de la UE (la primera gran regulación sobre IA) excluye aplicaciones militares, el Parlamento Europeo ha llamado repetidamente a reglas globales sobre “robots asesinos” carnegieendowment.org. Otra idea que gana fuerza es un organismo de supervisión similar al Organismo Internacional de Energía Atómica, pero para la IA—una “OIEA para la IA”. Incluso el CEO de OpenAI propuso este concepto a mediados de 2023 carnegieendowment.org. Sin embargo, muchos reconocen que la IA es fundamentalmente diferente a las armas nucleares: es de uso dual, está ampliamente distribuida y evoluciona rápido carnegieendowment.org, haciendo difícil imponer un régimen clásico de control de armamentos. Aun así, el hecho de que algunos líderes consideren la IA una tecnología potencialmente de “nivel de extinción” carnegieendowment.org está impulsando serias conversaciones sobre alguna forma de gobernanza internacional, sea tratado formal o normas informales. El panorama podría cambiar rápidamente si, por ejemplo, ocurre un incidente importante con un arma autónoma—lo que probablemente generaría llamados urgentes a la acción.
- Autorregulación militar e industrial: En paralelo a la diplomacia internacional, hay un impulso por políticas internas para gestionar los riesgos de la IA. Como se mencionó, el Departamento de Defensa de EE UU actualizó su directiva sobre autonomía en armas (3000.09) en 2023, reafirmando básicamente que los sistemas autónomos deben permitir juicio humano y estableciendo procedimientos de aprobación en.wikipedia.org. Los principios de IA responsable de la OTAN guían a las fuerzas aliadas. Países como Francia y Reino Unido han prometido públicamente mantener a un humano en el ciclo de decisiones de fuerza letal (con el ministro de defensa de Francia declarando en 2019 que Francia “se niega a confiar la decisión de vida o muerte a una máquina que actúe totalmente autónoma”). Estas garantías buscan un equilibrio: desarrollar armas de IA, pero no sin control. En el lado industrial, las grandes tecnológicas tienen sus propias guías de ética en IA y a veces han mostrado cautela ante el uso militar. Sin embargo, hay un cambio en marcha: en enero de 2024, OpenAI (creadora de ChatGPT) revirtió silenciosamente una política previa que prohibía el uso de su tecnología para “armas o guerra”. Eliminó esa restricción total, señalando una nueva disposición a aceptar contratos militares carnegieendowment.org. Esto refleja una tendencia más amplia—empresas como Microsoft y Google han publicado principios de IA, pero van aumentando su colaboración con la defensa en proyectos (por ejemplo, el sistema HoloLens para el Ejército por parte de Microsoft, pequeños contratos de Google sobre IA en la nube para el Pentágono). Muchas firmas justifican su involucramiento diciendo que ayudarán al ejército a usar la IA de forma responsable y que las democracias occidentales deben tener la mejor tecnología. La cuerda floja ética para la industria es asegurar que su IA no sea mal utilizada ni cause daños a civiles—algunas lo abordan exigiendo cláusulas de supervisión humana en los contratos o rechazando proyectos de alto riesgo. Sin embargo, la frontera entre la IA civil y militar es porosa, y las preocupaciones sobre doble uso abundan. Un algoritmo de reconocimiento facial creado para el comercio puede ser adaptado para selección de blancos; una IA para autos autónomos puede ser reutilizada en un vehículo no tripulado. Por eso, incluso algunos líderes tecnológicos abogan por estándares globales o al menos “líneas rojas” (por ejemplo, no sistemas nucleares de lanzamiento totalmente autónomos).
- Riesgo de proliferación y mal uso: Éticamente, también preocupa quién obtiene estas avanzadas capacidades de IA. Si EE UU, China y Rusia desarrollan armas de IA, inevitablemente la tecnología podría proliferar hacia regímenes menos responsables o actores no estatales (terroristas, insurgentes). Un dron autónomo rudimentario o software letal de IA podrían copiarse y usarse sin respeto al derecho de la guerra. Este es un argumento de quienes buscan regulación preventiva—para evitar un “lejano oeste” de armas de IA. Ya vimos un ejemplo en Libia en 2020 donde un dron Kargu-2 (fabricado en Turquía) puede haber cazado autónomamente a combatientes en retirada autonomousweapons.org. Si se confirma, ese incidente demuestra que incluso potencias de nivel medio o apoderados podrían usar fuerza letal autónoma. El dilema ético y de seguridad es que, una vez que un estado emplea tales sistemas, otros sienten la necesidad de seguir el ritmo o arriesgarse a quedar en desventaja. Es la dinámica clásica de carrera armamentista, pero acelerada. El potencial de la IA para bajar el umbral de conflicto es real: los líderes podrían estar más dispuestos a iniciar hostilidades si sus soldados no están en riesgo y la IA puede hacer el trabajo sucio. Esto plantea profundas preguntas morales sobre la naturaleza de la guerra y la paz—si la guerra se vuelve “más fácil” (menos costo humano para el agresor), ¿podría volverse más frecuente? Voces humanitarias internacionales advierten que debemos evitar quitar la conciencia humana de las decisiones de guerra.
En resumen, el mundo está lidiando con cómo controlar y contener la IA militar para aprovechar sus beneficios sin socavar la ética y la estabilidad. Aún no se ha acordado un marco único, pero la conversación se está intensificando. Abarca medidas técnicas (como sistemas de seguridad integrados y regímenes de prueba), principios normativos (como exigir supervisión humana) e instrumentos legales (políticas nacionales y potencialmente tratados). Los próximos años—hasta 2030—pueden ser decisivos para establecer las reglas básicas del uso de IA en la guerra. Hacerlo bien es crucial, ya que puede significar la diferencia entre que la IA sea una herramienta que salve vidas al reducir daños colaterales frente a una que arrebate vidas con eficiencia inhumana. El reto de la comunidad global es asegurar que la humanidad permanezca en control de la fuerza letal, incluso mientras las máquinas se vuelven cada vez más capaces.
Beneficios y Riesgos de la IA Militar
La inteligencia artificial indudablemente ofrece importantes beneficios para las operaciones militares, pero también conlleva riesgos significativos. Aquí resumimos las principales ventajas potenciales que la IA aporta a la defensa, así como los peligros y consecuencias no deseadas correspondientes que deben ser gestionados.
Principales beneficios de la IA en el ámbito militar y de defensa:
- Mayor velocidad y precisión en la toma de decisiones: La IA puede analizar datos del campo de batalla y presentar opciones mucho más rápido que el personal humano, acelerando eficazmente el ciclo OODA (observar–orientar–decidir–actuar). Esta velocidad puede brindar una ventaja crucial. Como señaló la subsecretaria de Defensa de EE. UU., Kathleen Hicks, la integración de la IA ayuda a los comandantes a tomar decisiones con mayor rapidez y precisión, proporcionándoles una “ventaja decisiva” sobre los adversarios defense.gov. Por ejemplo, un sistema de mando impulsado por IA podría fusionar entradas de docenas de sensores y recomendar la maniobra defensiva óptima en segundos tras detectar un misil entrante, una velocidad de reacción imposible para los humanos sin asistencia.
- Multiplicación de fuerzas y eficiencia operativa: La IA permite que los ejércitos hagan más con menos. Los sistemas autónomos pueden operar continuamente sin fatiga, realizar tareas tediosas o peligrosas y abarcar más territorio (tierra, aire o mar) con menos personal. Esto puede mejorar drásticamente la eficiencia operativa. Tareas como la vigilancia aérea constante o rondas logísticas repetitivas, que requerirían muchos efectivos, pueden delegarse a drones y vehículos dirigidos por IA. La IA también optimiza la asignación de recursos —desde calendarios de mantenimiento hasta despliegues de tropas—, reduciendo el desperdicio. Un estudio en la logística del Ejército concluyó que aplicar IA a la gestión de la cadena de suministro podría mejorar la eficiencia en más de un 20%, lo que se traduce en entregas más rápidas de repuestos y prevención de problemas de mantenimiento army.mil army.mil.
- Reducción del riesgo para los soldados: Una de las ventajas más humanitarias de la IA militar es su potencial para sacar a los humanos de los roles más peligrosos. Los sistemas no tripulados pueden explorar posibles emboscadas, limpiar campos minados o absorber fuego enemigo en lugar de los soldados. En entornos de alto riesgo (por ejemplo, zonas contaminadas por radiación nuclear), los robots pueden realizar reconocimientos donde enviar tropas sería una amenaza para la vida. Incluso en combate activo, utilizar sistemas autónomos o controlados a distancia para las “3D” (tareas aburridas, sucias o peligrosas) puede salvar vidas. Un objetivo conocido es que el “primero en entrar por la puerta” en una redada sea un robot, no un soldado. De forma similar, la evacuación de heridos o el reabastecimiento bajo fuego podrían realizarse con vehículos autónomos, protegiendo a médicos y conductores. Con el tiempo, a medida que la IA mejore, misiones enteras (como una incursión peligrosa o la búsqueda de submarinos) podrían asignarse a unidades no tripuladas, lo que supondría menos bolsas mortuorias regresando a casa.
- Rentabilidad y escalabilidad: Aunque los sistemas avanzados de IA requieren inversiones iniciales, muchas plataformas habilitadas con IA (especialmente drones pequeños y software) son relativamente económicas y escalables en grandes cantidades. Esto supone una ventaja asimétrica en costes. Por ejemplo, en conflictos recientes se han visto drones muy baratos destruyendo equipos mucho más caros —un dron comercial de $2,000 puede inutilizar un sistema antiaéreo de $2 millones armyupress.army.mil. Enjambres de drones autónomos de bajo coste podrían saturar defensas sofisticadas por pura cantidad. Si los ejércitos pueden desplegar 100 drones con IA por el coste de un solo caza, la relación coste-efectividad favorece el enfoque con IA. Además, la automatización puede reducir costes de personal (un operador podría supervisar una flota de 10 robots). Entrenar a la IA (mediante datos y simulaciones) a veces es más barato y rápido que entrenar a humanos equivalentes. A largo plazo, usar IA para tareas como el mantenimiento predictivo también genera ahorros al prolongar la vida útil de los equipos y evitar averías.
- Mejora de la precisión y reducción de daños colaterales: Los sistemas de puntería con IA bien diseñados pueden aumentar la precisión de los ataques y la identificación de amenazas. Por ejemplo, el reconocimiento de imágenes mediante IA puede detectar un vehículo camuflado en imágenes satelitales que un analista humano podría pasar por alto, asegurando que se ataque el objetivo correcto. Las municiones guiadas por IA podrían tener mayor capacidad de acierto e incluso abortar si no se cumplen los parámetros, evitando disparos erróneos. Una IA que controle la defensa aérea podría reaccionar más rápido ante un cohete entrante y calcular una intercepción que minimice el riesgo de que los restos caigan sobre zonas pobladas. Los defensores argumentan que, a medida que la IA madure, podría cumplir los criterios de enfrentamiento de manera más estricta que un humano bajo adrenalina, reduciendo así las bajas civiles en la guerra. (Este beneficio depende, por supuesto, de una validación rigurosa de la IA, pero es una ventaja potencial clave).
- Beneficios estratégicos y de disuasión: A un nivel superior, disponer de capacidades superiores de IA puede ser, en sí mismo, un disuasivo frente a adversarios. Si las fuerzas armadas de una nación pueden responder a cualquier agresión de manera rápida y eficaz gracias a la IA, los enemigos pueden pensárselo dos veces antes de provocar un conflicto. La IA también puede ayudar a mantener la estabilidad de la disuasión nuclear al mejorar la alerta temprana y el soporte para la toma de decisiones de los dirigentes, evitando potencialmente errores de cálculo. Además, la IA puede ser útil en simulaciones de guerra y desarrollo de estrategias, simulando innumerables escenarios hipotéticos para informar a los planificadores sobre las mejores opciones —esta ventaja intelectual puede traducirse en una ventaja estratégica en conflictos reales. Como ejemplo, antes de una gran operación, los comandantes podrían usar simulaciones de IA para anticipar los movimientos enemigos y optimizar su propio plan, superando al adversario desde el principio.
Principales riesgos y desventajas de la IA militar:
- Escalada inadvertida y pérdida de control humano: Una de las preocupaciones principales es que los sistemas de IA, actuando a velocidades de máquina, puedan escalar un conflicto más allá de la intención humana. Si armas autónomas en lados opuestos empiezan a interactuar (por ejemplo, enfrentamientos de drones o ciberdefensas con IA contraatacando en tiempo real), la situación podría salirse de control más rápido de lo que los comandantes pueden intervenir. Un estudio de guerra de la RAND Corporation en 2020 demostró que la velocidad de los sistemas autónomos condujo realmente a una escalada involuntaria en el escenario autonomousweapons.org. En esencia, las crisis pueden descontrolarse porque los algoritmos, a diferencia de los humanos, carecen de juicio y prudencia amplios —una IA podría interpretar un destello electrónico como un acto hostil y disparar, iniciando un intercambio letal no deseado por ninguna de las partes. Este riesgo de “guerra relámpago” es especialmente preocupante en contextos nucleares: basta imaginar que un sistema de alerta temprana por IA confunda una bandada de aves con misiles entrantes. Si respondiera automáticamente, el resultado sería catastrófico. Por ello, mantener un control humano significativo es vital, pero a medida que la IA acelera los combates a milisegundos, mantener a los humanos en el ciclo de decisiones se vuelve más difícil.
- Vulnerabilidades de ciberseguridad y hackeo de la IA: Irónicamente, si bien la IA se usa para fortalecer las defensas cibernéticas, también se convierte en objetivo de ataques cibernéticos. Los adversarios pueden intentar hackear o suplantar sistemas de IA militar, con efectos potencialmente devastadores. Por ejemplo, introduciendo datos maliciosos, un enemigo podría engañar al sistema de puntería de IA para que clasifique erróneamente unidades amigas como enemigas o viceversa. Existe también el riesgo de que el enemigo inserte malware para secuestrar un dron autónomo o vehículo —volviéndolo en nuestra contra o simplemente inutilizándolo en un momento crítico. A medida que los sistemas de IA se vuelven parte integral del mando y control militar, un hackeo exitoso podría paralizar un ejército. Garantizar una ciberseguridad robusta para la IA (incluida la protección de datos de entrenamiento y algoritmos) es extremadamente difícil. Adicionalmente, los sistemas de IA podrían ser vulnerables a ataques adversarios novedosos, entradas especialmente diseñadas para explotar los patrones del sistema (por ejemplo, un patrón de píxeles que haga que una IA de reconocimiento de imágenes vea un tanque donde no lo hay). Si un enemigo descubre tales fallos, literalmente puede engañar los «ojos» de la IA. En definitiva, toda IA es software, y el software puede ser hackeado o subvertido —un riesgo aterrador cuando esa IA puede estar controlando armas reales. Los sistemas militares se refuerzan, pero ninguna defensa es infalible, y las consecuencias de que una IA sea “secuestrada” podrían ser letales.
- Compromisos no deseados y daño a civiles: El mal reconocimiento es un riesgo omnipresente. Los sistemas de IA actuales, especialmente los basados en aprendizaje profundo, pueden cometer errores inusuales —como confundir la foto de una tortuga con la de un fusil, debido a peculiaridades en el reconocimiento de patrones. En la guerra, tales errores pueden significar atacar un objetivo equivocado. Por ejemplo, un dron autónomo podría confundir un vehículo civil con uno militar si no está perfectamente entrenado para un entorno complejo. O un sistema de vigilancia con IA podría reaccionar de forma excesiva ante lo que percibe como una acción hostil y disparar contra civiles. A diferencia de un humano, la IA no tiene intuición ni sentido común para doble verificar un resultado extraño; hace lo que fue programada para hacer. Si la programación o los datos de entrenamiento no cubren un escenario concreto, la IA puede comportarse de forma impredecible. De hecho, los sistemas de IA suelen describirse como cajas negras y su tendencia a fallar de formas imprevistas es un problema. El incidente de Libia en 2020 (donde un dron autónomo pudo haber atacado sin una orden directa) es una advertencia —por suerte, no fue una masacre, pero muestra el potencial. El riesgo ético aquí es la pérdida de vidas por un fallo técnico o un punto ciego. Cada incidente así podría tener enormes repercusiones morales y estratégicas (imagínese un sistema autónomo atacando por error a una unidad aliada o a una parte neutral —podría desencadenar crisis políticas). Este riesgo es la razón por la que muchos líderes militares insisten en que un humano supervise y pueda intervenir o abortar —pero si los sistemas de IA proliferan y actúan en enjambres, la supervisión humana podría verse superada.
- Prejuicio algorítmico y uso indebido: Los sistemas de IA aprenden de los datos, y si estos portan sesgos o errores, la IA puede comportarse de manera discriminatoria o indeseada. En el contexto militar, esto podría traducirse en que la IA favorezca o perjudique sistemáticamente ciertos objetivos de manera incorrecta. Por ejemplo, si un sistema de vigilancia con IA se entrena mayormente con imágenes de combatientes masculinos, podría no reconocer a combatientes o civiles femeninos, generando lapsos o sospechas indebidas. Existen también temores sobre el uso autoritario indebido: un régimen podría emplear IA militar en el ámbito interno para reprimir poblaciones (p.ej., drones autónomos para el control de protestas o vigilancia persistente para cazar disidentes). La línea entre defensa externa y uso interno puede difuminarse —generando preocupaciones sobre derechos humanos. Y una vez que la tecnología de IA letal es desarrollada, existe el riesgo de que se emplee en violación de la ley (por ejemplo, un líder inescrupuloso que despliegue asesinos autónomos contra rivales políticos, argumentando que la máquina actuó sola). Son riesgos más especulativos, pero relevantes en la elaboración de políticas.
- Carrera armamentista e inestabilidad estratégica: El riesgo estratégico de la IA es una carrera armamentista descontrolada en la que los países se sientan obligados a desplegar armas con IA rápidamente por temor a quedarse rezagados. Esto puede llevar a desarrollos precipitados, pruebas insuficientes y mayor posibilidad de accidentes. También puede ser desestabilizador: si los países no pueden evaluar las capacidades de los demás (la IA es software, difícil de detectar vía satélite en comparación con tanques o misiles), las suposiciones pesimistas pueden agravar las tensiones. Además, existe el escenario de la desconfianza automática mutua: las IA de cada bando podrían malinterpretar los movimientos del contrario, como se mencionó previamente, generando crisis de la nada. Algunos analistas trazan paralelos con la postura de «gatillo fácil» de la Guerra Fría temprana —pero ahora con algoritmos en lugar de humanos en ese gatillo. Si bien la IA puede reforzar la disuasión por fuerza, también puede erosionar los canales de comunicación humana que ayudaron a evitar una guerra nuclear en el pasado (piense en la Crisis de los Misiles en Cuba: si las decisiones las hubieran tomado IA, ¿habría existido la misma moderación?). Por ello, algunos expertos advierten que una competencia militar desenfrenada en IA podría aumentar la probabilidad de guerra, incluso de manera involuntaria carnegieendowment.org. También hay una visión opuesta: si se gestiona, la IA podría reforzar la estabilidad eliminando la ambigüedad (por ejemplo, vigilancia perfecta que reduzca ataques sorpresa). Pero esto es un enfoque optimista. El riesgo persiste: la probabilidad de errores de cálculo aumenta cuando sistemas autónomos están involucrados, a menos que se implementen rigurosas medidas de confianza y quizás controles de armamento.
Al sopesar estos beneficios y riesgos, queda claro que la IA militar es una espada de doble filo: con frecuencia, el mismo atributo que le otorga ventaja (velocidad, autonomía, capacidad de decisión) tiene un reverso oscuro (escalada repentina, pérdida de control, rigidez). Militares y responsables políticos buscan maximizar los aspectos positivos (mediante pruebas rigurosas, despliegue incremental, equipos colaborativos hombre-máquina en vez de autonomía absoluta) y mitigar los negativos (a través de salvaguardas, supervisión y diálogo internacional sobre normas). La esperanza es que con una gobernanza adecuada, la IA logre que la guerra sea más precisa, menos costosa y más corta, evitando las matanzas masivas del siglo XX. El temor es que sin cuidado, la IA haga la guerra aún más devastadora e incontrolable. Los próximos años serán cruciales para lograr el equilibrio adecuado: cosechar los beneficios de la IA para la defensa y la disuasión, pero limitando los riesgos para que la humanidad sea más segura, no más vulnerable, en el mundo impulsado por la IA.
Capacidades y Inversión Comparativa en IA Militar por Nación
Para entender el panorama global de la IA militar, es útil comparar cómo diferentes naciones están invirtiendo y desarrollando estas tecnologías. La siguiente tabla proporciona una instantánea de países/actores clave, su gasto estimado en IA de defensa y ejemplos de capacidades o iniciativas militares notables impulsadas por IA:
País/Bloque | Inversión Estimada en IA de Defensa | Capacidades e Iniciativas Notables en IA |
---|---|---|
Estados Unidos | ~$1.8 mil millones por año (presupuesto de IA del Pentágono FY2024) defensescoop.com, más miles de millones adicionales en I+D de sistemas autónomos nationaldefensemagazine.org. | – Project Maven (IA para análisis de imágenes) probado en contraterrorismo defense.gov. – Joint All-Domain Command & Control (JADC2) conectando fuerzas con IA; el programa ACE de DARPA voló un F-16 en 2023 darpa.mil. – Drones Loyal Wingman: la USAF planea más de 1,000 CCA autónomos para 2030 airforce-technology.com. – JAIC/CDAO del Pentágono centraliza el desarrollo de IA; existe una directiva ética de IA (se requiere juicio humano en letalidad) en.wikipedia.org. |
China | En «miles de millones bajos» de USD anualmente (comparable a los niveles de EE. UU.) en IA militar, según analistas nationaldefensemagazine.org. La industria total de IA china fue de ~$23 mil millones en 2021, con objetivo de $150 mil millones para 2030 armyupress.army.mil. | – Doctrina de «guerra inteligentizada»: el EPL invierte en vigilancia, drones autónomos y apoyo a la toma de decisiones carnegieendowment.org. – Enfoque en IA para análisis de inteligencia, mantenimiento predictivo, reconocimiento de objetivos nationaldefensemagazine.org. – Múltiples programas de UAV (drones furtivos, enjambres); prueba en 2024 de un gran enjambre de drones para asalto a islas armyupress.army.mil. – Fusión civil-militar que aprovecha la IA de grandes tecnológicas; desarrollo de misiles y drones navales habilitados con IA. |
Rusia | Gasto exacto desconocido; la IA es parte del plan de defensa 2024–2033 pese a sanciones. Una cifra oficial: valor del “mercado de IA” ruso ~$7.3 mil millones en 2023 (civil y militar) defensenews.com. | – Enfoque en armas autónomas: nuevo departamento de IA en el Ministerio de Defensa, IA en el S-500 para respuesta rápida ante amenazas defensenews.com. – Robots de combate (p.ej. Uran-9 UGV) y municiones merodeadoras usados en Siria/Ucrania; actualización de sistemas antiguos con IA defensenews.com. – Énfasis en IA para guerra electrónica y ciberataques (interferencia, hackeo) para contrarrestar adversarios de alta tecnología. – Limitaciones: depende de laboratorios estatales (laboratorio de IA de Rostec) y tecnología de doble uso; la escasez de talento y microchips limita el alcance. |
OTAN (Aliados) | Financiamiento común de la OTAN: €1 mil millones Fondo de Innovación de la OTAN (2022) para tecnología emergente. Gasto de miembros principales: p.ej. Reino Unido ~£2.1 mil millones en I+D de defensa 2022 (incl. IA y autonomía) post.parliament.uk. | – Estrategia de IA de la OTAN adoptada en 2021, actualizada en 2024 enfatizando el uso responsable armyupress.army.mil. – DIANA acelera soluciones emergentes de IA, datos, etc., en la Alianza armyupress.army.mil. – Capacidades aliadas: EE. UU. lidera (ver arriba); Reino Unido prueba enjambres y logística autónoma; Francia desarrolla UAV potenciados por IA; Alemania se centra en IA para apoyo al mando. – Ejercicios de interoperabilidad de la OTAN garantizan que los sistemas de IA de distintos países trabajen juntos; principios conjuntos mitigan riesgos éticos. |
Notas: Las cifras de inversión son aproximadas y las metodologías varían (algunas incluyen solo programas de IA, otras incluyen autonomía y robótica en general). “Capacidades notables” son ejemplos y no exhaustivos. Todos estos actores están expandiendo continuamente su desarrollo de IA, por lo que es un objetivo en constante movimiento.
De la comparación anterior, Estados Unidos y China destacan claramente como los mayores actores en términos de financiación y amplitud de la IA militar, encabezando esencialmente la carrera armamentista de la IA. EE. UU. aprovecha enormes presupuestos de defensa e innovación tecnológica privada, mientras que China moviliza objetivos estatales y fusión civil-militar. Rusia, aunque con menos recursos, destaca en áreas como sistemas de combate no tripulados y guerra electrónica, impulsada por la necesidad estratégica. Mientras tanto, el enfoque colectivo de la OTAN se refleja en recursos agrupados y normas compartidas: la OTAN busca asegurar que los países occidentales no se queden rezagados tecnológicamente, aunque individualmente sus presupuestos sean menores que los de EE. UU. o China, y que cualquier IA utilizada esté alineada con valores democráticos.
Vale la pena señalar que otros países no detallados en la tabla también son activos: Israel, por ejemplo, es un líder en el desarrollo de drones autónomos e IA para defensa fronteriza (a menudo exportando estas soluciones a nivel global), y países como Corea del Sur, Japón, India y Turquía tienen programas militares de IA en auge (Corea del Sur con sistemas robóticos de guardia, India con un grupo de trabajo en IA de defensa, Turquía con enjambres de drones y municiones merodeadoras como se ha visto en conflictos recientes). El panorama es cada vez más global, pero las estrategias y el nivel de inversión de EE. UU., China, Rusia y la OTAN marcan el tono de cómo la IA está moldeando el equilibrio del poder militar.
Cronología de desarrollos notables en IA militar
Para poner en perspectiva la evolución de la IA en defensa, a continuación se muestra una línea de tiempo con hitos, eventos y despliegues clave que han marcado el ascenso de la inteligencia artificial y la autonomía en la guerra:
- 2017 – Lanzamiento de Project Maven y Estrategia de IA: En abril, el Departamento de Defensa de EE. UU. lanza Project Maven, el Equipo Transfuncional de Guerra Algorítmica, con el objetivo de integrar IA en el análisis de imágenes de vigilancia de drones defense.gov. Al finalizar el año, los algoritmos de visión por computadora de Maven son desplegados en Medio Oriente para identificar insurgentes en videos de drones, demostrando la utilidad de la IA en el campo de batalla. En septiembre, Vladimir Putin declara que quien lidere en IA “gobernará el mundo”, subrayando el interés estratégico a alto nivel. China anuncia su Plan de Desarrollo de IA de Nueva Generación, incluyendo metas para ser líder mundial en IA para 2030 – un plan que explícitamente impulsa avances militares en IA.
- 2019 – “Guerra Inteligentizada” e Iniciativas Éticas: El Libro Blanco de Defensa Nacional de China enfatiza avanzar hacia la “guerra inteligentizada”, integrando la IA en la modernización del EPL carnegieendowment.org. El Departamento de Defensa de EE. UU. publica su primera Estrategia de IA (resumen no clasificado), priorizando la adopción de IA para la competencia entre grandes potencias. También crea el Joint AI Center (JAIC) para coordinar proyectos IA. En ética, el Defense Innovation Board de EE. UU. propone los Principios Éticos de IA, adoptados en 2020 posteriormente, y crece la presión internacional para regular armas autónomas.
- 2020 – Primeros pasos de autonomía en combate: Armas autónomas ven combate según reportes. Un informe de la ONU revela que durante la guerra civil de Libia en marzo de 2020, un dron Kargu-2 turco atacó autónomamente a combatientes en retirada sin órdenes humanas autonomousweapons.org – posiblemente el primer caso registrado de un sistema de armas basado en IA “cazando” humanos. En agosto, las AlphaDogfight Trials de DARPA logran notoriedad cuando una IA vence 5-0 a un piloto experimentado de la Fuerza Aérea en un combate simulado en F-16 armyupress.army.mil, demostrando el avance de la IA en tareas complejas de combate aéreo. En la guerra de Nagorno-Karabakh (Azerbaiyán vs. Armenia) se ven municiones merodeadoras y drones asistidos por IA (muchos de ellos israelíes) destruyendo blindados y defensas antiaéreas, anticipando el cambio en la guerra.
- 2021 – Estrategia de IA de la OTAN y demostraciones de enjambres: La OTAN adopta su primera estrategia de IA en octubre, incluyendo principios de uso responsable e iniciativas para la innovación aliada armyupress.army.mil. El ejército estadounidense activa su primer Centro de Integración de IA y el Pentágono formaliza los Principios Éticos de IA (p. ej., exige IA rastreable, gobernable). En Oriente Medio, se reporta que Israel emplea enjambres de drones impulsados por IA en combate en Gaza – uno de los primeros usos coordinados de enjambres autónomos militares. Las negociaciones de la ONU sobre armas autónomas quedan estancadas, ya que un bloque significativo de países pide prohibición mientras los poderes con IA se resisten; el año finaliza sin consenso para negociar formalmente.
- 2022 – IA en guerra a gran escala (Ucrania) y respuestas globales: La invasión de Ucrania por Rusia (febrero 2022) se convierte en vitrina de tecnología militar: Ucrania usa IA para inteligencia (identifica soldados rusos por reconocimiento facial, emplea IA en imágenes satelitales para artillería), mientras Rusia emplea drones Shahed-136 de Irán y sus propias municiones merodeadoras – misiles IA “dispara y olvida” – para atacar infraestructura ucraniana. El conflicto es calificado de “laboratorio de IA en guerra”, compañías privadas como Palantir proveen plataformas IA a Ucrania para objetivos y logística carnegieendowment.org. La OTAN, motivada por esto, lanza el acelerador DIANA y aprueba el Fondo de Innovación de $1 mil millones para startups de IA de defensa. En octubre, el Pentágono eleva el JAIC a nueva Oficina de IA y Digital (CDAO) para impacto más directo en operaciones. En el mundo, viendo el impacto dronístico en Ucrania, países de Europa a Asia se apresuran a invertir en IA militar y sistemas autónomos.
- 2023 – Avances y cambios de políticas: En enero, el Departamento de Defensa de EE. UU. actualiza la Directiva 3000.09 sobre Autonomía en Sistemas de Armas, mantiene el requisito de juicio humano pero aclara el desarrollo de sistemas letales IA en.wikipedia.org. El programa ACE de DARPA logra un hito histórico en diciembre 2022 (revelado en 2023): una IA pilota exitosamente un F-16 real (el X-62 VISTA) en varios vuelos, incluyendo maniobras de combate, sin piloto humano al mando darpa.mil. Ese avance difumina la línea entre simulación y operación real. En primavera, el Secretario de la Fuerza Aérea de EE. UU. anuncia la compra de 1,000 “wingmen” de dron IA, marcando el comienzo de la adquisición a gran escala de aviones de combate autónomos airforce-technology.com. En política corporativa: OpenAI elimina la prohibición de usos militares de su tecnología, un giro notable de apertura a defensa por parte de las grandes tecnológicas carnegieendowment.org. A nivel internacional, la frustración con la lentitud de la ONU lleva a la primera resolución de la Asamblea General sobre armas autónomas, y el Secretario General respalda el llamado a un tratado, elevando el problema a nivel diplomático autonomousweapons.org.
- 2024 – Ejercicios con enjambres y llamados a tratados: A mediados de 2024, China lleva a cabo un destacado ejercicio de enjambre de drones lanzados desde mar y aire para una supuesta operación de “asalto a isla” – interpretada como práctica para Taiwán armyupress.army.mil. La OTAN, en su Cumbre de Washington en julio, publica una estrategia revisada de IA que destaca seguridad, pruebas y compartición de datos a nivel OTAN armyupress.army.mil. Para el otoño, varios países del Sur Global y Europa se unen en la Primera Comisión de la ONU para exigir negociaciones formales sobre regulación de armas autónomas. Mientras tanto, el Ejército de EE. UU. despliega prototipos de vehículos de combate autónomos en maniobras y la Marina prueba autonomía de buques de guerra en ejercicios de flota. Viendo la tendencia global, el Secretario General de la ONU a fines de 2024 llama “gran riesgo para la humanidad” al posible uso de IA en guerra y urge acordar nuevas reglas para 2026. Este año también ve el despliegue de las primeras constelaciones de satélites militares con IA (IA a bordo para mejorar observación terrestre y detección de amenazas).
En 2025, el panorama de la IA militar es dinámico y evoluciona rápidamente. En pocos años, hemos pasado de proyectos piloto a uso operativo real de sistemas autónomos en conflictos y a la inminente integración de aviones “wingman” IA. La cronología revela un patrón: los avances tecnológicos (como IA venciendo a pilotos o enjambres autónomos) son rápidamente seguidos por esfuerzos regulatorios y de política (como estrategias de la OTAN y debates en la ONU), pero a menudo la tecnología supera a la diplomacia. Los próximos hitos podrían incluir misiones completamente autónomas, despliegues masivos de enjambres o, desafortunadamente, algún incidente grave con IA que sacuda al mundo y acelere la regulación.
Lo que está claro es que la inteligencia artificial en la guerra ya no es hipotética: está aquí. El reto y la responsabilidad que enfrenta la comunidad global es gestionar estos avances de una manera que mejore la seguridad y respete nuestro compás ético, antes de que el genio salga completamente de la botella.