Como a IA Está Remodelando o Futuro da Guerra – O Que Você Precisa Saber Agora

De enxames de drones com IA a defensores cibernéticos autônomos, a inteligência artificial está transformando o campo de batalha a uma velocidade surpreendente. Potências militares de todo o mundo correm para implementar máquinas mais inteligentes, capazes de pensar, aprender e até mesmo tomar decisões em tempo real – prometendo redefinir a forma como as guerras são travadas. Estaríamos à beira de uma revolução nas guerras impulsionada por IA? E o que isso significa para a segurança global? Continue lendo para descobrir as aplicações de ponta da IA na defesa, as ambições de superpotências como EUA e China, as questões éticas dos “robôs assassinos” e como a próxima década pode consolidar o papel da IA como arma definitiva – ou a maior ameaça – no combate moderno.
Visão Geral dos Sistemas de IA e Autonomia Atuais na Defesa
Um drone militar utilizado em simulação de segurança de base, demonstrando as capacidades de vigilância por IA. Drones equipados com IA podem realizar reconhecimento e até identificar ameaças de forma autônoma.
Atualmente, as forças armadas já utilizam inteligência artificial em uma variedade de aplicações. Esses usos atuais de IA e sistemas autônomos incluem desde veículos não tripulados até ferramentas de análise de dados. Principais áreas onde a IA está presente na defesa hoje:
- Drones Autônomos e Veículos Não Tripulados: Veículos aéreos não tripulados (VANTs) e robôs terrestres com IA são usados para reconhecimento, ataques aéreos e proteção de forças. Por exemplo, drones autônomos ou semiautônomos podem patrulhar campos de batalha ou áreas contestadas, identificando alvos graças a sistemas de visão com IA a bordo. No conflito em andamento na Ucrânia, pequenos drones (alguns custando apenas algumas centenas de dólares) foram usados para atacar alvos valiosos como tanques, demonstrando a relação custo-benefício das armas guiadas por IA armyupress.army.mil. Pesquisas e testes com tecnologia de enxame – grupos de drones coordenando suas ações de forma autônoma – estão em andamento em países como Estados Unidos e China armyupress.army.mil. De fato, drones que não precisam de operador humano e podem atuar juntos como um enxame coordenado já são realidade post.parliament.uk, apresentando novos desafios para as defesas convencionais.
- Inteligência, Vigilância e Reconhecimento (ISR): A IA é um multiplicador de força para inteligência militar. Algoritmos analisam o grande volume de dados de sensores – incluindo vídeos de drones, imagens de satélite e inteligência de sinais – muito mais rápido que analistas humanos. Um projeto notável dos EUA, o Project Maven, foi lançado em 2017 para usar IA de visão computacional na identificação de insurgentes e objetos em imagens de vigilância, aliviando o trabalho de analistas defense.gov. Esse tipo de análise por IA foi testado em combate contra o ISIS, acelerando a detecção de posições inimigas. Na Ucrânia, analistas utilizam ferramentas com IA para unir dados de drones, satélites e até redes sociais, localizando possíveis inimigos muito mais rápido que métodos tradicionais post.parliament.uk. Sistemas ISR baseados em IA conseguem reduzir drasticamente o tempo “do sensor ao atirador” – um relatório afirmou que o ciclo de ataque, do reconhecimento ao disparo da artilharia, pode hoje levar apenas 3–4 minutos com ajuda da IA post.parliament.uk.
- Logística Militar e Manutenção: Menos visíveis, mas igualmente importantes, são as aplicações da IA em logística – o “fio de sustentação” das forças armadas. Análises preditivas e aprendizado de máquina são usados para prever necessidades de suprimentos e detectar problemas de manutenção antes que causem falhas. Por exemplo, o Exército dos EUA emprega manutenção preditiva com IA para prever quando peças de veículos podem falhar, permitindo a substituição proativa army.mil. Isso reduz quebras e tempo parado, garantindo maior prontidão de veículos e aeronaves. A otimização dos estoques por IA ajuda a levar suprimentos certos ao local e momento certos, aumentando eficiência em combustível, munição e peças de reposição. Ou seja, a IA está ajudando militares a automatizar armazéns e frotas, roteando comboios (cada vez mais com caminhões semiautônomos) e gerenciando estoques quase sem intervenção humana army.mil army.mil. Esses avanços se traduzem em reabastecimento mais rápido, economia de custos e logística mais resiliente sob pressão.
- Guerra Cibernética e Cibersegurança: O ciberespaço é mais um campo de batalha em que a IA tem papel essencial. Algoritmos de IA defendem redes detectando atividades anômalas e invasões em tempo real – muito mais rápido que operadores humanos. Podem reconhecer instantaneamente novos tipos de malware ou ataques de phishing e lançar contra-medidas, vantagem crucial diante do aumento na velocidade e complexidade dos ciberataques. No lado ofensivo, a IA pode ajudar a sondar redes inimigas por vulnerabilidades ou automatizar a produção de sinais falsos (p. ex., deepfakes e desinformação). Destaca-se também o uso militar de IA para bloquear ou contornar bloqueios eletrônicos; drones equipados com IA podem navegar usando dados do terreno caso o GPS esteja indisponível post.parliament.uk. A integração da IA em unidades cibernéticas representa decisões ainda mais rápidas em guerras eletrônicas e informacionais – potencialmente automatizando ciberataques na velocidade das máquinas. Por outro lado, isso eleva os riscos: uma arma cibernética guiada por IA pode escalar conflitos em milissegundos, exigindo defesas também baseadas em IA, igualmente velozes.
- Apoio à Tomada de Decisão e Sistemas de Comando: Talvez uma das funções mais impactantes da IA seja ajudar comandantes na tomada de decisão. Os campos de batalha modernos geram volumes enormes de dados (de sensores, relatórios de inteligência, status de unidades, etc.), e sistemas com IA possibilitam agregar e analisar essas informações, oferecendo opções mais claras. O Departamento de Defesa dos EUA enfatiza a integração de IA ao comando-controle em programas como o Joint All-Domain Command and Control (JADC2), que visa conectar sensores e atiradores por redes guiadas por IA. O objetivo é entregar ao comandante uma “vantagem decisória” – como notou a vice-secretária de Defesa Kathleen Hicks, usar IA significa decisões mais rápidas e precisas, essenciais para deter e derrotar agressão defense.gov. Exemplos incluem softwares de gerenciamento de batalha com IA, capazes de recomendar respostas ótimas frente a ameaças ou simular rapidamente diferentes cursos de ação. No treinamento e simulação, adversários impulsionados por IA (em wargames, por exemplo) oferecem cenários muito mais realistas para planejadores militares. Esses assistentes de decisão atuam como parceiros incansáveis, calculando cenários e probabilidades em segundos para subsidiar o julgamento humano.
Em resumo, a IA já está presente em diversas funções militares: pilotando drones, analisando inteligência, protegendo redes, gerenciando logística e apoiando comandantes. Essas implementações ainda têm, em geral, humano-no-ciclo – a IA oferece recomendações ou automação de tarefas específicas, mas a supervisão permanece humana. Ainda assim, mostram o valor da IA hoje na guerra: promovendo eficiência, agilidade e precisão em todas as áreas.
Projeções Futuras: IA na Guerra nos Próximos 5 a 15 Anos
Nos próximos 5 a 15 anos, especialistas preveem que inteligência artificial e autonomia se tornarão ainda mais imersos nas operações militares – potencialmente transformando o próprio caráter da guerra. Veja o que o futuro pode reservar para a IA nas Forças Armadas:
- Forças Armadas “Robóticas”: Espera-se uma mudança drástica no equilíbrio entre participantes humanos e máquinas no conflito. O ex-presidente do Estado-Maior Conjunto dos EUA previu que até um terço dos Exércitos avançados será composto por robôs ou sistemas não tripulados nos próximos 10–15 anos post.parliament.uk. Isso implica soldados atuando ao lado – ou sendo substituídos – por drones autônomos, veículos e robôs de combate em diversas funções. Pequenos veículos terrestres autônomos podem cuidar da logística e do reconhecimento, enquanto tanques-robôs armados ou metralhadoras automáticas poderiam reforçar as tropas humanas na linha de frente. Algumas forças já planejam isso: o Exército Britânico, por exemplo, prevê unidades inteiras de “combatentes robóticos” sob comando humano até a década de 2030.
- “Companheiros Leais” e Caças Autônomos: Forças aéreas devem empregar drones de combate pilotados por IA que voem junto a caças tripulados. Os EUA anunciaram um plano ambicioso para operar mais de 1.000 Collaborative Combat Aircraft (CCA) – basicamente drones autônomos companheiros – ao lado dos caças de próxima geração, como o F-35 e o futuro NGAD airforce-technology.com airforce-technology.com. Esses “companheiros leais” transportam armas, fazem reconhecimento, bloqueiam radares inimigos ou absorvem fogo, reagindo sozinhos pelo uso de IA. Protótipos iniciais (como o XQ-58A Valkyrie e o MQ-28 Ghost Bat da Austrália) já voaram. Até o final da década de 2020, espera-se que os primeiros esquadrões de drones com IA estejam operacionais, com plena capacidade por volta de 2030 airforce-technology.com. China e Rússia desenvolvem conceitos similares (ex.: o UCAV “Dark Sword” chinês e o drone russo S-70 Okhotnik) como forma de impulsionar o poder aéreo com sistemas autônomos. O combate aéreo nos anos 2030 pode contar com formações mistas de pilotos humanos e drones IA em rede – o chamado manned-unmanned teaming.
- Guerra em Enxame e Autonomia em Massa: A próxima década verá enxames de armas autônomas atingirem maturidade. Um enxame pode ser dezenas ou centenas de drones pequenos, coordenados para atacar juntos, sobrecarregando defesas com número e inteligência coletiva. Em junho de 2024, por exemplo, o Exército Chinês conduziu exercícios com enxames de drones simulando ataques a ilhas – um claro preparo para cenários como uma invasão de Taiwan armyupress.army.mil. Enxames futuros podem incluir drones aéreos, robôs terrestres e até veículos navais autônomos atuando em conjunto. Eles serão possíveis graças a avanços em comunicação máquina-a-máquina e IA distribuída, permitindo que se adaptem e reajam em grupo sem esperar ordens humanas. Analistas militares alertam que enxames podem atacar alvos em velocidade e escala sem precedentes, derrubando defesas em minutos armyupress.army.mil. Para contrapor, serão necessários novos sistemas defensivos com IA, incluindo “anti-enxames” que possam controlar enxames aliados ou coordenar respostas rápidas (com micro-ondas de alta potência, lasers defensivos, etc.). A corrida está em andamento: EUA, China, Israel e outros investem pesado em pesquisa de autonomia em enxame, sabendo que quem dominar primeiro ganha enorme vantagem.
- Gerenciamento de Batalha e Tomada de Decisão por IA: A evolução da IA ampliará sua participação no comando e na estratégia. Em até 15 anos, espera-se que “copilotos” de IA estejam presentes em centros de comando – sistemas avançados de suporte decisório que analisam continuamente o quadro tático e estratégico, sugerindo opções ótimas. Vai além dos atuais assistentes; sistemas do futuro, com machine learning avançado e potencialmente computação quântica, poderão coordenar instantaneamente operações em terra, mar, ar, ciberespaço e espaço. O programa JADC2 do Pentágono já trilha esse caminho, buscando uma rede de comando totalmente integrada e guiada por IA. Até 2030, um comandante pode depender desses sistemas para orquestrar toda a operação: a IA pode recomendar manobras, bloquear sensores inimigos, lançar ciberataques ou chamar ataques de drones, tudo sincronizado – algo impossível para uma equipe só de humanos decidir em tempo real. Tais sistemas se beneficiarão de grande treinamento com dados de simulação militar e operações reais, tornando-se hábeis em raciocínio tático e estratégico. Já há precedentes: um agente de IA da DARPA derrotou um piloto humano de F-16 por 5×0 em simulação armyupress.army.mil, e no fim de 2023 uma IA voou um F-16 real em testes, provando que ela pode operar taticamente em alta velocidade darpa.mil. Esses marcos indicam que a IA não só aconselhará, mas poderá assumir tarefas de combate. Ainda assim, militares insistem que os comandantes humanos estabelecerão metas e regras, utilizando a IA como ferramenta poderosa e não como única responsável.
- Aumento do Uso de IA em Guerra Cibernética e Eletrônica: Nos próximos anos, o papel da IA no domínio cibernético se intensificará em ataque e defesa. Espera-se sistemas que lançam contra-ataques cibernéticos ou bloqueios eletrônicos automaticamente em milissegundos. Guerra eletrônica cognitiva é um campo emergente, no qual sistemas IA pulam frequências, modulam sinais e adaptam bloqueios em tempo real para confundir radares e comunicações inimigas. Até 2030, cápsulas de guerra eletrônica geridas por IA poderão ser padrão em aeronaves e drones, respondendo mais rápido que o inimigo. Além disso, a IA generativa (por trás de chatbots avançados e deepfakes) será armada para operações psicológicas e de engano. Há evidências de que a China, por exemplo, usa IA generativa para criar personalidades falsas e imagens de propaganda para influenciar opinião pública armyupress.army.mil armyupress.army.mil – tendência que deve crescer à medida que o conteúdo artificial torna-se indistinguível do real. Militares terão de combater desinformação produzida por IA e desenvolver suas próprias IAs para “infoguerras”, dominando narrativas e confundindo adversários. Em suma, o infosfera da guerra – de ataques cibernéticos a campanhas de informação – será saturada de algoritmos autônomos em disputa.
- Armas de IA Menores, Mais Inteligentes e Baratas: O avanço tecnológico tende a tornar dispositivos menores e mais acessíveis, e com IA não é diferente. Na próxima década, podem surgir mísseis inteligentes e munições capazes de selecionar alvos e corrigir rota com IA, sendo mais eficazes contra alvos móveis ou em ambientes complexos. Pequenos drones autônomos – até “slaughterbots” do tamanho da palma da mão – podem surgir como nova classe de armas para infantaria, usando reconhecimento facial para caçar indivíduos ou veículos específicos (um conceito assustador popularizado por um vídeo viral de 2017, mas cada vez mais próximo da realidade). Enquanto isso, satélites com IA aprimorarão a vigilância e o ataque em tempo real a partir do espaço. Muitos países investem em satélites pequenos em rede, capazes de coordenar autonomamente tarefas de imagem ou realizar manobras defensivas em órbita. Até 2035, uma força militar de alta tecnologia poderá empregar constelações de mini-drones autônomos, minas inteligentes e sensores inteligentes cobrindo um campo de batalha, todos comunicando-se e ajustando-se por IA. Essa computação ubíqua gerará enormes volumes de dados – realimentando os sistemas de IA para criar um ciclo de consciência e ação cada vez mais acelerado.
Olhando para 5 a 15 anos à frente, uma coisa é certa: está em curso uma corrida armamentista em IA, cujo resultado determinará o futuro dos conflitos. Diversos países correm para dominar a IA militar, enxergando nela a chave da superioridade estratégica. Como afirmou o presidente russo Vladimir Putin, quem liderar a IA “dominará o mundo” – sentimento que impulsiona os investimentos massivos da China e a modernização tecnológica acelerada dos EUA rusi.org. Embora o combate totalmente autônomo ainda não exista, a tendência indica que até 2030 as forças armadas operarão com autonomia e velocidade sem precedentes. Isso pode revolucionar o combate – mas também exigirá novas estratégias para garantir controle humano e evitar conflitos indesejados. A próxima década será decisiva à medida que as forças armadas do mundo testam, no campo de batalha e além, os limites da IA.
Atores Globais e suas Estratégias para IA Militar
A corrida pela dominância em IA militar é global, liderada por alguns poucos atores principais. Cada potência — Estados Unidos, China, Rússia — e alianças como a OTAN têm abordagens distintas para integrar IA e sistemas autônomos às suas forças. Abaixo está uma análise de como esses atores estão estrategizando a revolução da IA na defesa.
Estados Unidos
Os Estados Unidos veem a inteligência artificial como a pedra angular do poder militar futuro e estão investindo fortemente para manter a liderança. A estratégia oficial de IA do Pentágono (lançada pela primeira vez em 2019) prevê a adoção rápida de IA “em escala” em todo o Departamento de Defesa, do escritório administrativo à linha de frente. Isso tem sido sustentado por orçamentos crescentes: o Departamento de Defesa solicitou cerca de US$ 1,8 bilhão para projetos de IA no ano fiscal de 2024 (e um valor semelhante para 2025) defensescoop.com, contra cerca de US$ 800 milhões estimados em 2020. Além disso, os EUA gastam bilhões em sistemas autônomos, como drones não tripulados, que frequentemente incorporam IA nationaldefensemagazine.org. Iniciativas-chave que ilustram a abordagem americana incluem:
- Unidades e Programas de IA Dedicados: O Departamento de Defesa criou o Joint Artificial Intelligence Center (JAIC) em 2018 (agora reorganizado sob o Chief Digital and AI Office) para unificar esforços de P&D em IA. Programas iniciais como o Project Maven comprovaram o valor da IA ao implantar algoritmos para ajudar analistas de inteligência no Oriente Médio defense.gov. O portfólio militar atual de IA abrange dezenas de projetos — mais de 600 esforços de IA estavam sendo financiados em 2021 nationaldefensemagazine.org — indo de ferramentas preditivas de manutenção a sistemas de combate semi-autônomos.
- Third Offset Strategy e JADC2: Estrategicamente, os EUA perseguem o que se chama de “terceira compensação” — usar IA e tecnologias avançadas para compensar o aumento das capacidades dos adversários. O carro-chefe é o Joint All-Domain Command and Control (JADC2), uma visão de conectividade sem falhas entre todas as forças. A IA é crítica para o JADC2, pois deve conectar sensores, decisores e atiradores em tempo real. Isso significa que uma rede baseada em IA poderia pegar dados de um satélite ou drone, identificar uma ameaça e acionar o sistema de armas apropriado (como um caça ou uma bateria de artilharia) quase instantaneamente. Esforços como o Advanced Battle Management System (ABMS) da Força Aérea e o Project Convergence do Exército são bancadas de testes dessa rede de comando habilitada por IA.
- Equipe Homem-Máquina: O exército americano visualiza equipes humano-máquina como o uso ótimo da IA — mantendo humanos no comando, mas usando sistemas autônomos para ampliar a efetividade do combate. Um exemplo emblemático é o plano da Força Aérea para a Collaborative Combat Aircraft, essencialmente drones ala que voarão junto de aeronaves tripuladas. Esses drones utilizarão IA para tarefas como reconhecimento, guerra eletrônica ou até engajar caças inimigos autonomamente. O objetivo é ter uma frota operacional de drones CCA até o final desta década airforce-technology.com. No Exército, de modo semelhante, estão em andamento experimentos que emparelham soldados a robôs parceiros de batalha — seja um robô terrestre carregando equipamentos ou um veículo autônomo fazendo reconhecimento avançado contra emboscadas.
- Marco Ético e Político: Os EUA também atuam de forma ativa na definição de diretrizes para o uso de IA na guerra. Em 2020, o Pentágono adotou cinco princípios para IA ética (responsável, equitativa, rastreável, confiável, governável) como norte para o desenvolvimento. Além disso, a Diretiva 3000.09 do Departamento de Defesa afirma que toda arma autônoma deve permitir que comandantes exerçam “níveis apropriados de julgamento humano” sobre o uso da força en.wikipedia.org. Essa política — atualizada em janeiro de 2023 — para aquém de banir armas letais autônomas, mas exige análise rigorosa e autorização para qualquer sistema de IA que possa tomar decisões de vida ou morte. Na prática, os EUA até agora mantêm um humano “no circuito” para uso de força letal: por exemplo, ataques com drones e sistemas de defesa aérea envolvem confirmação humana. Autoridades americanas costumam enfatizar que a IA será usada para apoiar combatentes humanos, não para substituir seus julgamentos, alinhando-se tanto a preocupações de confiabilidade quanto a valores democráticos.
- Colaboração com Indústria e Aliados: A indústria de tecnologia americana desempenha grande papel no avanço militar em IA. Empresas como Microsoft, Palantir e Anduril garantiram contratos de defesa para fornecer soluções de IA, desde computação em nuvem a análises de campo de batalha. (Notadamente, após alguma controvérsia — por exemplo, a saída do Google do Project Maven em 2018 devido a protestos de funcionários —, as parcerias indústria-militar voltaram a crescer com o reconhecimento estratégico da importância da IA.) Os EUA também atuam de perto com aliados em IA — por meio de fóruns como a Joint AI Partnership entre os Five Eyes, e iniciativas de inovação da OTAN — para garantir interoperabilidade e avanço coletivo.
Em geral, a abordagem dos EUA combina grandes investimentos com implementação cautelosa. Busca extrair o máximo da IA para manter a superioridade militar, mas com medidas deliberadas para garantir controle e adesão às leis de guerra. Washington se opõe a proibições internacionais de armas autônomas, preferindo desenvolver normas e “melhores práticas”. Ao manter vantagem tecnológica e integridade moral (através de princípios de uso responsável), os EUA esperam definir o padrão global para IA militar.
China
A China fez uma aposta estratégica na IA como chave para sua modernização militar e como meio de saltar à frente do poderio militar dos EUA. O Exército de Libertação Popular (PLA) denomina essa transformação de “guerra intelligentizada” — conceito oficialmente promovido no livro branco de defesa nacional da China de 2019 carnegieendowment.org. Enquanto a “informatização” (integração tecnológica da informação) guiou reformas anteriores das Forças Armadas, a intelligentização vai além: integra a IA em todos os domínios do combate para obter vantagem cognitiva e operacional.
Estratégia e Investimento: A liderança chinesa vê a IA como prioridade nacional nos âmbitos militar, econômico e geopolítico. Em 2017, Pequim lançou o Plano de Desenvolvimento de IA de Nova Geração, estabelecendo como meta tornar a China líder mundial em IA até 2030. Conforme estimativas, a indústria chinesa de IA valia cerca de 150 bilhões de yuans (≈US$ 23 bilhões) em 2021 e deve superar 400 bilhões de yuans (US$ 55 bilhões) até 2025 armyupress.army.mil (embora isso inclua também o setor civil). Os gastos militares exatos em IA são difíceis de apurar, já que os orçamentos da China não são transparentes. Um estudo de 2022 do CSET de Georgetown apontou que o PLA provavelmente investe “alguns bilhões” de dólares por ano em IA — aproximadamente no mesmo patamar dos EUA nationaldefensemagazine.org. Esse financiamento se distribui entre aquisição de sistemas habilitados por IA e extensiva P&D em laboratórios militares e empresas privadas (política de fusão civil-militar da China). Importante ressaltar que a China pode aproveitar seu setor tecnológico comercial dinâmico — empresas como Baidu, Alibaba, Tencent, iFlytek — pioneiras em pesquisa de IA com potencial de atender demandas militares.
Áreas de Foco: O PLA persegue de forma agressiva aplicativos de IA em áreas vistas como multiplicadores de força contra adversários tecnologicamente superiores (como os EUA). Segundo estudos, a China foca sua IA em análise de inteligência, manutenção preditiva, guerra da informação, navegação e reconhecimento de alvos nationaldefensemagazine.org. Na prática:
- O PLA desenvolve ferramentas de IA para vasculhar dados de reconhecimento (imagens de satélite, comunicações interceptadas), identificando alvos e padrões mais rapidamente do que analistas humanos.
- Na manutenção e logística, unidades chinesas usam IA para prever falhas em equipamentos e gerir cadeias de suprimentos — crítico para um exército que pretende operar mais longe de casa.
- Veículos autônomos e drones são foco central. A China lançou vários drones autônomos ou semiautônomos: desde modelos stealth de alta tecnologia (como o Sharp Sword UCAV) a microdrones em enxame. Em 2020, um drone ao estilo “ala leal” (FH-97), similar ao conceito americano Skyborg, foi apresentado e, em 2022, pesquisadores chineses alegaram recorde mundial ao conduzirem um enxame de 10 drones através de ambiente obstaculizado usando IA — sinalizando avanços em tecnologia de enxames. A Força de Foguetes do PLA também explora o uso de IA para aprimorar reconhecimento e guiagem de mísseis.
- Armas Letais Autônomas: Autoridades chinesas se mostram ambíguas em fóruns internacionais sobre banir armas autônomas, e há indícios de que a China desenvolve tais sistemas. Pesquisadores do PLA trabalham em reconhecimento de alvos baseado em IA e controle de fogo para armas que poderão engajar alvos sem intervenção humana nationaldefensemagazine.org. Por exemplo, a China já comercializa veículos robóticos armados com IA (como o drone helicóptero Blowfish A2) para exportação. Apesar disso, Pequim costuma afirmar preferência por um acordo global sobre o uso de armas totalmente autônomas — posição que alguns analistas interpretam como tática, enquanto continua a própria P&D.
- Automação de comando: Em sintonia com a guerra intelligentizada, o PLA experimenta IA em simulações de combate e decisões de comando. Publicações recentes chinesas discutem algoritmos para planejamento de guerra e até para comando operacional em simulações. O PLA mantém laboratórios de batalha onde sistemas de IA simulam cenários de invasão a Taiwan e sugerem estratégias. Ainda não há indicação de que a China confiaria a um IA a liderança de uma operação real hoje, mas está claro o objetivo de reduzir limitações humanas nas decisões de comando.
Fusão Civil-Militar e Vantagem Tecnoautoritária: O avanço militar chinês se beneficia da linha tênue entre setor civil e defesa. Por meio da fusão civil-militar, inovações em reconhecimento facial, vigilância com big data e IA em fintech podem ser adaptadas para uso militar. Por exemplo, sistemas massivos de vigilância usados na segurança interna (câmeras onipresentes com IA de reconhecimento facial, monitoramento de redes sociais) geram expertise em análise de dados e visão computacional replicável em inteligência militar e guerra cibernética. De fato, há acusações de que a China emprega operações de hacking e influência com IA: um relatório da Microsoft em 2023 apontou campanhas chinesas de influência usando imagens e vídeos gerados por IA para moldar opiniões em redes sociais ocidentais armyupress.army.mil armyupress.army.mil. Essa capacidade de usar IA tanto para hard quanto para soft power — de drones autônomos a propaganda deepfake — é um diferencial marcante da abordagem chinesa.
Postura Global e Ética: Internationalmente, a China se posiciona, até certo ponto, como defensora do controle de armas em IA. O país já pediu a proibição do uso de armas autônomas contra civis e defende o uso “responsável” de IA. No entanto, a China não se juntou aos que defendem uma proibição total das armas letais autônomas; provavelmente deseja manter liberdade para desenvolver tecnologias militares de IA enquanto evita a condenação internacional. As declarações chinesas frequentemente destacam que deve sempre haver controle humano em algum nível, mas autoridades também argumentam que banir determinadas tecnologias pode prejudicar o progresso. Na prática, os avanços militares da China sugerem que o país irá empregar IA assim que julgar os sistemas suficientemente confiáveis, especialmente em um cenário de conflito onde isso pode trazer vantagem. Por exemplo, há relatos de que drones e robôs terrestres autônomos chineses foram testados em escaramuças de fronteira (por exemplo, com a Índia no Tibete, usando veículos robóticos para logística em alta altitude).
Em resumo, a abordagem da China é centralizada e ambiciosamente abrangente: incorporar IA em todo o PLA para aprimorar desde logística até ataques letais, aproveitar a inovação tecnológica civil e buscar igualar ou superar as capacidades dos EUA até 2030. O rápido progresso militar chinês – e sua disposição para experimentar ousadamente conceitos como ataques de enxame – reforça por que muitos veem a China como a principal rival na “corrida armamentista da IA”. O objetivo final de Pequim é obter uma vantagem estratégica: a capacidade de dissuadir ou vencer conflitos superando e resistindo ao inimigo por meio de forças superiores habilitadas por IA.
Rússia
A Rússia vê a IA militar tanto como uma oportunidade de reduzir sua distância em relação aos exércitos ocidentais quanto como uma necessidade decorrente das lições recentes de campo de batalha. Apesar dos desafios econômicos e de um setor tecnológico menor em comparação aos EUA ou à China, a liderança russa – incluindo o presidente Putin – tem destacado publicamente a importância existencial de não ficar para trás em IA rusi.org. A estratégia de Moscou é investir em capacidades selecionadas de IA que correspondam a suas forças ou necessidades urgentes, mesmo que o país enfrente sanções e limitações de recursos.
Foco Estratégico e Doutrina: A doutrina militar russa há muito valoriza soluções assimétricas e tecnológicas para compensar fraquezas convencionais. Com a IA, a Rússia enxerga uma oportunidade de obter uma “capacidade de salto tecnológico”. A estratégia nacional de IA do Kremlin (publicada em 2019) e documentos posteriores destacam a defesa como setor-chave para o desenvolvimento em IA. Em 2024, a Rússia anunciou um novo plano estatal de armamentos de 10 anos que, pela primeira vez, inclui uma seção dedicada à inteligência artificial – sinalizando um compromisso de alto nível com o desenvolvimento de armas autônomas e sistemas habilitados por IA defensenews.com. Esse impulso é impulsionado, em parte, pela guerra em curso na Ucrânia: o conflito se tornou um tipo de “laboratório de IA”, com ambos os lados usando drones e guerra eletrônica extensivamente defensenews.com. Impactados por reveses, pensadores militares russos defendem a aceleração do uso de IA para modernizar suas forças.
Principais Programas e Desenvolvimentos em IA: Os esforços russos em IA, embora não tão generosamente financiados quanto nos EUA ou China, se destacam em várias áreas:
- Sistemas Autônomos e Não Tripulados: A indústria russa desenvolveu uma série de veículos terrestres não tripulados (UGVs) – por exemplo, o robô armado Uran-9, o UGV Marker – e experimentou com eles na Síria e Ucrânia. Os resultados foram mistos (o Uran-9 teve muitos problemas na Síria), mas as melhorias continuam. A guerra na Ucrânia viu a Rússia usar munições vagantes (drones “kamikaze”) e diversos drones de reconhecimento. Alguns desses, como o drone Lancet, teriam capacidade de seleção semiautônoma de alvos (por exemplo, reconhecendo sinais de radar ou tipos de veículos). A Rússia também está investindo em drones submarinos para sua marinha e em IA para plataformas existentes (como os supostos modos autônomos do tanque T-14 Armata).
- Sistemas de Mísseis e Defesa Aérea: O exército russo tem histórico de automação em sistemas estratégicos – por exemplo, o sistema retaliatório nuclear “Perimeter” da era soviética (Dead Hand) já utilizava algoritmos de decisão automatizada defensenews.com. A partir disso, a Rússia está integrando IA em novos sistemas. Um exemplo é o supersistema de defesa aérea S-500, cujo módulo de controle habilitado por IA está em desenvolvimento para avaliar ameaças e prever trajetórias de mísseis defensenews.com. Especialistas russos observam que a IA pode ajudar muito em sistemas de alta velocidade (como defesa antimísseis ou guerra eletrônica), onde o tempo de reação é curto demais para os humanos defensenews.com. Da mesma forma, o reconhecimento de alvos baseado em IA está sendo desenvolvido para controle de fogo em tanques e artilharia, o que pode melhorar precisão e tempos de resposta.
- Atualizações ao Arsenal Existente: Em vez de criar armas totalmente novas de IA do zero, a Rússia costuma retrofitar IA em plataformas já testadas. Por exemplo, autoridades discutem adicionar navegação autônoma e reconhecimento de alvos a veículos blindados antigos ou adaptar versões não tripuladas desses veículos para missões perigosas (como entregas de suprimentos sob fogo). Na Ucrânia, tropas russas começaram a receber atualizações de software que incluem recursos baseados em IA, como rastreamento automático de alvos em algumas ópticas e torres de metralhadora controladas remotamente em veículos blindados após manutenção defensenews.com. Essa abordagem incremental permite que a Rússia coloque capacidades de IA em campo mais cedo e de forma mais econômica – embora talvez menos impressionante do que armas de IA criadas do zero.
- Base de Pesquisa e Indústria: O governo russo impulsiona P&D em IA através de conglomerados estatais de defesa e novas iniciativas. A Rostec, gigante de defesa-industrial, criou um laboratório de Inteligência Artificial em 2022 para pesquisar aplicações militares de aprendizado de máquina defensenews.com. O governo também fundou a Tecnópolis de Inovação Militar “Era”, um campus de pesquisa no Mar Negro onde jovens engenheiros e cientistas trabalham em startups de tecnologia de defesa, inclusive em projetos de IA. Apesar desses esforços, a Rússia enfrenta obstáculos: escassez de microeletrônica avançada (agravada por sanções a chips), evasão de talentos e um ecossistema de startups menos dinâmico. Para compensar, a Rússia tenta acessar tecnologia civil – por exemplo, o Sberbank (maior banco russo) tem uma forte área de pesquisa em IA, e seu CEO destacou o potencial da IA para impulsionar tanto o PIB quanto o setor militar da Rússia rusi.org. Esse movimento lembra, em menor escala, a sinergia civil-militar vista na China.
- No Campo de Batalha – Lições da Ucrânia: A guerra em curso tem sido um campo de testes forçando a adaptação russa. As forças ucranianas – apoiadas por inteligência e tecnologia ocidentais – têm utilizado ferramentas aprimoradas por IA (como mapeamento via satélite auxiliado por IA para direcionamento de artilharia). Em resposta, unidades russas estão aprendendo a bloquear ou enganar a vigilância baseada em IA e empregando munições vagantes com maior autonomia para atingir artilharia ucraniana. Importante destacar que as altas baixas e perdas de equipamentos na Ucrânia ressaltaram para a Rússia o apelo dos sistemas autônomos para reduzir a dependência de soldados. Escritores militares russos mencionam frequentemente o uso de IA para reduzir a exposição do pessoal – por exemplo, comboios logísticos autônomos para reabastecimento sob fogo, ou robôs para evacuação de feridos defensenews.com. Podemos esperar que a Rússia priorize essas aplicações que aliviam imediatamente seus problemas militares (drones, guerra eletrônica, automação de defesa de ativos importantes) enquanto reconstrói suas forças.
Ética e Política: A Rússia geralmente se opõe a uma proibição preventiva de armas letais autônomas em discussões internacionais, alinhando-se com EUA e China na rejeição de restrições rígidas. Autoridades russas enfatizam que o direito internacional existente já é suficiente e que “um humano deve permanecer responsável”, mas resistem a qualquer acordo que limite o desenvolvimento de novas armas. Na prática, a Rússia parece disposta a empregar sistemas com níveis crescentes de autonomia contanto que sirvam a um propósito tático. Por exemplo, não há confirmação pública de ataque totalmente autônomo de drone russo, mas o país provavelmente não hesitaria em usar um, caso seja eficaz. No âmbito doméstico, o regime de Putin enquadra o desenvolvimento de IA como uma questão de sobrevivência nacional – Putin chegou a comparar a importância da IA à invenção das armas nucleares rusi.org. Essa retórica sugere que a Rússia vê como inaceitável ficar para trás em IA. Ainda assim, a cultura militar russa é bastante conservadora e hierárquica; pode haver resistência interna para confiar demais em sistemas de IA. A adoção lenta de conceitos avançados (como guerra centrada em rede) no passado indica que uma integração ampla da IA pode ser desafiadora.
Em resumo, a abordagem da Rússia em relação à IA militar é oportunista e focada. O objetivo é inserir a IA em áreas críticas – drones, mísseis, guerra eletrônica – para aumentar seu poder, especialmente frente à OTAN. A guerra na Ucrânia está acelerando esses esforços por necessidade. Embora limitados por restrições econômicas e tecnológicas, a determinação da Rússia em se manter na corrida da IA é evidente. Resta saber se isso resultará em algumas “balas de prata” ou em uma transformação mais ampla, mas Moscou está decidida a não ficar para trás na era da guerra autônoma.OTAN e nações aliadas
A OTAN e seus estados-membros reconhecem coletivamente que a IA será fundamental para a defesa do futuro e estão trabalhando, de forma conjunta e individual, para integrar a IA de maneiras que respeitem seus valores. Diferente de uma nação única, o papel da OTAN é coordenar e orientar a adoção da IA para que as forças armadas aliadas permaneçam interoperáveis e na vanguarda. Veja como a OTAN e os principais aliados estão enfrentando o desafio da IA militar:
Estratégia de IA da OTAN: Em outubro de 2021, a OTAN lançou sua primeira Estratégia de Inteligência Artificial, sinalizando o compromisso da Aliança em adotar e proteger a IA na defesa armyupress.army.mil. Essa estratégia estabeleceu Princípios de Uso Responsável da IA no contexto militar – incluindo legalidade, responsabilidade e prestação de contas, explicabilidade e rastreabilidade, confiabilidade e governança. Esses princípios ecoam os de nações líderes como os EUA e pretendem garantir que, à medida que os aliados implementem a IA, isso ocorra em conformidade com a lei internacional e normas éticas. Na Cúpula da OTAN em 2022, líderes aliados também instituíram um Fundo de Inovação da OTAN de um bilhão de euros para investir em tecnologias emergentes de uso dual (com a IA como grande prioridade). Em julho de 2024, a OTAN já havia atualizado sua estratégia de IA para enfatizar a segurança e interoperabilidade da IA, refletindo a rápida evolução do cenário tecnológico armyupress.army.mil. A OTAN deixa claro que deve acompanhar o ritmo dos adversários em IA – o Secretário-Geral Jens Stoltenberg ressaltou que falhar nisso colocaria em risco o princípio básico de defesa coletiva da organização.
Colaboração Aliada – DIANA: Uma iniciativa emblemática da OTAN é o Defense Innovation Accelerator for the North Atlantic (DIANA). Lançado em 2023, o DIANA é uma rede que conecta núcleos de inovação governamentais, do setor privado e acadêmicos em países da OTAN para acelerar o desenvolvimento de tecnologias emergentes, incluindo IA armyupress.army.mil armyupress.army.mil. O DIANA promove programas de “desafio”, nos quais startups e pesquisadores enfrentam problemas específicos de defesa (por exemplo, resiliência energética, comunicações seguras ou vigilância) – muitos deles envolvendo IA ou sistemas autônomos armyupress.army.mil. Ao oferecer acesso a centros de testes em toda a OTAN e financiamento, o DIANA busca gerar soluções de ponta que beneficiem todos os aliados. Em essência, a OTAN tenta aproveitar o ecossistema de inovação conjunto de 31 nações para competir com os grandes esforços centralizados de rivais como a China. Além disso, a OTAN criou centros de excelência e grupos focados em IA, dados e defesa cibernética para compartilhar melhores práticas entre as forças armadas.
Esforços dos Principais Estados-Membros: Dentro da OTAN, países líderes como Reino Unido, França e Alemanha desenvolveram seus próprios programas militares de IA:
- O Reino Unido publicou uma Estratégia de Defesa para IA em 2022 e criou uma “Unidade de IA e Autonomia em Defesa” para impulsionar a adoção. O Reino Unido investe em projetos como o iLauncher (IA para reconhecimento de alvos em armamentos de infantaria) e já testou veículos logísticos autônomos. As forças britânicas também experimentaram enxames (num teste notável, 20 drones foram controlados por um operador). O Ministério da Defesa britânico gastou £2,1 bilhões em P&D em 2022-23 em áreas como robótica, sistemas autônomos e IA post.parliament.uk, refletindo um forte compromisso com tecnologias emergentes.
- França conta com um robusto programa de IA, com o ministério da defesa financiando pesquisas em IA para vigilância, manutenção preditiva e planejamento de missões. A abordagem francesa enfatiza o conceito de “soldados aumentados” – mantendo o ser humano no centro das operações, mas equipado com ferramentas de IA. Por exemplo, caças Rafale franceses receberão melhorias de IA para identificação de ameaças, e o exército usa IA para processar imagens de drones de operações antiterrorismo na região do Sahel africano.
- A Alemanha investiu em IA para fusão de dados em seus sistemas de comando e adota cautela quanto a armas autônomas, alinhando-se a uma ética de manter controle humano significativo. A Alemanha lidera, junto aos Países Baixos, um projeto de teste e avaliação de IA dentro da OTAN para garantir que os sistemas de IA atendam a padrões de confiabilidade.
- Nações menores da OTAN também contribuem com expertise de nicho – por exemplo, a Estônia se destaca em robótica militar e já utilizou robôs terrestres autônomos em exercícios; os Países Baixos sediaram pesquisas sobre IA para missões de paz e da ONU; e o Canadá está explorando IA para vigilância no Ártico.
Interoperabilidade e Compartilhamento de Dados: O desafio (e vantagem) da OTAN é coordenar diversas nações. Um aspecto-chave do esforço de IA da OTAN é garantir a interoperabilidade – ou seja, que sistemas habilitados por IA de diferentes aliados funcionem juntos sem problemas. Isso envolve a concordância em padrões de dados, protocolos de comunicação e até o compartilhamento de conjuntos de treinamento para aprendizado de máquina. As bases de dados federadas da OTAN e exercícios multinacionais auxiliam nesse sentido. Por exemplo, forças aéreas aliadas podem compartilhar dados de radar para aprimorar algoritmos de IA na distinção entre drones e pássaros, ou inteligência da OTAN pode organizar um dataset conjunto de imagens para treinar IA em reconhecimento de alvos. Ao reunir dados e recursos, os aliados esperam superar coletivamente qualquer IA adversária individual.
Liderança Ética: A OTAN se posiciona como líder normativa em ética de IA militar. Em fóruns da OTAN, autoridades ressaltam que a aderência à lei internacional e aos valores democráticos são o que diferenciam os aliados dos adversários autoritários. Em outubro de 2021, junto com sua estratégia de IA, a OTAN declarou que qualquer uso de IA em combate deve ser governável e rastreável, ou seja, um comandante humano pode desativar ou sobrescrever decisões da IA, e tais decisões podem ser auditadas armyupress.army.mil. A OTAN declarou explicitamente que toda aplicação de IA em combate por aliados deve ter responsabilidade humana. Essa postura serve em parte para tranquilizar o público e a comunidade internacional de que a IA aliada não ficará fora de controle e, em parte, para fortalecer a confiança entre aliados nos sistemas uns dos outros. (Por exemplo, não seria aceitável se um aliado desconfiasse da segurança do sistema de defesa antimísseis controlado por IA de outro durante operações integradas.)
Guerra da Rússia na Ucrânia – Um Catalisador para a OTAN: A guerra recente na Ucrânia influenciou significativamente a urgência da OTAN quanto à IA. A Ucrânia, embora não seja membro da OTAN, recebeu tecnologia ocidental e demonstrou como pequenos drones, links via satélite e análises de IA (para identificação de alvos ou priorização de reparos) podem conter um inimigo muito maior. Os militares da OTAN observaram forças russas utilizando drones kamikaze iranianos e dispositivos de interferência baseados em IA – um alerta de que a ameaça da IA já chegou. Isso acelerou programas como o Fundo de Inovação da OTAN e provavelmente impulsionou projetos classificados sobre o combate a armas autônomas (por exemplo, sistemas para detectar e neutralizar drones ou proteger veículos blindados de munições de ataque superior guiadas por IA). O apoio da OTAN à Ucrânia se tornou, em alguns casos, um campo de testes para tecnologia ocidental – alguns sistemas anti-drone baseados em IA fornecidos à Ucrânia estão sendo avaliados para adoção mais ampla em serviço.
Em conclusão, a OTAN e seus aliados abordam a IA com uma mistura de entusiasmo e cautela. Eles estão decididos a não ceder nenhuma vantagem tecnológica aos rivais, por isso o volume de investimentos e projetos colaborativos para estimular a inovação. Ao mesmo tempo, desejam incorporar os valores da OTAN ao uso da IA – mantendo a responsabilidade humana, obedecendo a lei e prevenindo usos indevidos. O arcabouço coletivo da OTAN pode, se bem-sucedido, servir de modelo para normas internacionais sobre IA militar. A capacidade da aliança de unificar esforços de muitas nações pode ser uma força para superar rivais de estrutura mais centralizada. Os próximos anos mostrarão se a coordenação democrática pode superar programas militares centralizados e guiados unilateralmente.
Considerações Éticas, Jurídicas e de Políticas Públicas
O advento da IA e da autonomia na guerra levanta profundas questões éticas e jurídicas. Como garantir que máquinas que tomam decisões de vida ou morte sigam valores humanos e o direito internacional? Quem é responsável se um sistema autônomo comete um erro? Essas preocupações têm gerado debates intensos entre legisladores, ativistas e líderes militares. Veja abaixo algumas das principais questões éticas, jurídicas e de políticas públicas envolvendo IA militar:
- Armas Autônomas Letais (LAWS) – Debate dos “Robôs Assassinos”: Talvez a controvérsia mais urgente seja sobre armas que poderiam selecionar e engajar alvos sem intervenção humana. Grupos da sociedade civil e muitos países alertam que delegar decisões de matar a algoritmos é inaceitável. Em 2019, 30 países já haviam pedido a proibição preventiva das armas autônomas letais por motivos éticos post.parliament.uk. Isto não incluía grandes potências como EUA, Rússia ou China, que se opõem à proibição. Os debates na ONU vêm sendo realizados, em grande parte, através das reuniões da Convenção sobre Certas Armas Convencionais (CCW), onde um Grupo de Especialistas Governamentais debate as LAWS desde 2014. Um ponto central é a necessidade de “controle humano significativo” sobre qualquer arma capaz de aplicar força letal carnegieendowment.org. Basicamente, mesmo que uma arma use IA para identificar ou rastrear alvos, muitos defendem que um humano deve deliberar e confirmar o ataque. As nações têm pontos de vista divergentes: por exemplo, o Parlamento Europeu e o Secretário-Geral da ONU pediram proibições totais, enquanto EUA e Rússia defendem códigos de conduta não vinculantes. Em 2025, ainda não existe tratado internacional regulando especificamente as armas autônomas, mas o impulso para o estabelecimento de normas cresce. No final de 2023, um marco ocorreu quando uma resolução inédita sobre armas autônomas foi apresentada na Assembleia Geral da ONU, acompanhada pelo pedido conjunto do Secretário-Geral da ONU e do Comitê Internacional da Cruz Vermelha para que os Estados negociem um tratado até 2026 autonomousweapons.org.
- Responsabilização e Conformidade com o Direito Internacional: A imprevisibilidade e complexidade da IA tornam a responsabilização uma grande preocupação. Pelas leis da guerra (Direito Internacional Humanitário), as partes devem distinguir entre alvos civis e militares e usar força proporcional. Um sistema autônomo pode, de fato, respeitar esses princípios? Muitos especialistas e autoridades temem que a IA atual não seja capaz de compreender o contexto ou as nuances — aumentando o risco de danos ilícitos. Se um drone guiado por IA atacar um civil pensando se tratar de um combatente, quem será responsabilizado? O comandante que o implantou, o desenvolvedor que o programou, ou a própria máquina (que não é uma entidade legal)? Essas questões seguem sem resposta. O que é certo é que as forças armadas não podem escapar da responsabilidade atribuindo-a ao algoritmo; doutrinas de responsabilidade de comando provavelmente ainda se aplicam. Para minimizar problemas, algumas forças armadas (como EUA e OTAN) exigem testes rigorosos e mecanismos de intervenção humana em sistemas de IA. Ainda assim, a possibilidade de decisões em “caixa preta” é preocupante – redes neurais avançadas podem ser tão complexas que nem seus criadores conseguem explicar uma decisão em particular. Essa falta de transparência complica revisões legais e a confiança no campo de batalha. Conformidade com o DIH também é uma questão crítica: em reuniões da ONU, muitos Estados alegam que, sem julgamento humano, uma arma totalmente autônoma pode não distinguir civis nem julgar proporcionalidade em um ataque post.parliament.uk. Defensores argumentam que IAs devidamente projetadas podem ser mais precisas e reduzir danos colaterais. Por ora, não há consenso; as forças armadas agem com cautela, mantendo humanos dentro ou sobre o processo decisório letal até que (ou a menos que) haja confiança de que a IA poderá cumprir plenamente a lei.
- Esforços Emergentes de Governança: Na ausência de um tratado dedicado, há diferentes iniciativas menos rigorosas de governança. As discussões da CCW na ONU produziram princípios orientadores não vinculantes (por exemplo, afirmando que o DIH se aplica integralmente às armas autônomas e que humanos seguem responsáveis). No entanto, o progresso é lento — daí o surgimento de fóruns alternativos. Notadamente, uma coalizão de ONGs (Campaign to Stop Killer Robots) e países alinhados vem pressionando para iniciar um processo de tratado independente fora da ONU, se necessário. Em fevereiro de 2023, por exemplo, uma conferência na Costa Rica reuniu Estados latino-americanos e caribenhos para declarar apoio a um instrumento legal sobre armas autônomas autonomousweapons.org. O CICV (guardiã do DIH), em 2021, emitiu recomendações: pediu a proibição de sistemas autônomos que visem humanos ou que sejam imprevisíveis, e a regulação de outros com exigência de controle humano autonomousweapons.org autonomousweapons.org. Regionalmente, a UE tomou algumas medidas – embora a histórica Lei de IA da UE (primeira grande regulação de IA) exclua aplicações militares, o Parlamento Europeu reiteradamente solicita regras globais para “robôs assassinos” carnegieendowment.org. Outra ideia ganhando força é uma agência de supervisão similar à Agência Internacional de Energia Atômica, mas para IA – uma “AIEA da IA”. Até o CEO da OpenAI defendeu essa ideia em meados de 2023 carnegieendowment.org. Porém, muitos reconhecem que a IA é fundamentalmente diferente de armas nucleares: é de uso dual, amplamente distribuída e evolui rapidamente carnegieendowment.org, o que dificulta a imposição de um regime clássico de controle de armamentos. Ainda assim, o fato de alguns líderes já encararem a IA como tecnologia de potencial de “nível de extinção” carnegieendowment.org está impulsionando discussões sérias sobre alguma forma de governança internacional formal ou informal. O cenário pode mudar rapidamente caso ocorra, por exemplo, um grande incidente com uma arma autônoma – o que provavelmente geraria clamor por ação urgente.
- Autorregulação Militar e da Indústria: Paralelamente à diplomacia internacional, há um movimento por políticas internas para gerenciar riscos da IA. Como citado, o Departamento de Defesa dos EUA atualizou, em 2023, sua diretriz sobre autonomia em armas (3000.09), reafirmando que sistemas autônomos devem permitir julgamento humano e estabelecendo procedimentos de aprovação en.wikipedia.org. Os princípios de IA responsável da OTAN orientam as forças aliadas. Países como França e Reino Unido já declararam publicamente que manterão um humano na decisão sobre uso de força letal (com o ministro da Defesa da França, em 2019, afirmando que o país “recusa delegar a decisão de vida ou morte a uma máquina que agiria totalmente de forma autônoma”). Essas garantias buscam o equilíbrio: desenvolver armas com IA, mas sob controle. No setor industrial, grandes empresas de tecnologia têm diretrizes próprias de ética em IA e, por vezes, são cautelosas com uso militar. No entanto, há uma mudança em curso: em janeiro de 2024, a OpenAI (criadora do ChatGPT) discretamente reverteu uma política que proibia o uso de sua tecnologia em “armas ou guerra”. Removeu tal restrição geral, sinalizando nova disposição para contratos militares carnegieendowment.org. Isso reflete uma tendência crescente — empresas como Microsoft e Google publicaram princípios de IA, mas colaboram cada vez mais com a defesa em projetos (ex: Microsoft no sistema HoloLens do Exército; Google com pequenos contratos de IA em nuvem para o Pentágono). Muitas empresas justificam envolvimento dizendo que ajudarão o setor militar a usar IA de forma responsável e que democracias ocidentais devem possuir a melhor tecnologia. O desafio ético da indústria é evitar o uso indevido ou o dano a civis — algumas tratam disso exigindo cláusulas de supervisão humana em contratos ou recusando projetos de alto risco. Ainda assim, a fronteira entre IA civil e militar é porosa, e preocupações de uso dual abundam. Algoritmo de reconhecimento facial criado para o varejo pode ser adaptado para mira; IA para carros autônomos pode ser reaproveitada para veículos não tripulados. Por isso, até líderes tecnológicos defendem padrões globais ou ao menos “linhas vermelhas” (ex: proibição de sistemas de lançamento nuclear totalmente autônomos).
- Risco de Proliferação e Uso Indevido: Eticamente, há também preocupação com quem terá acesso a capacidades avançadas de IA. Se EUA, China e Rússia desenvolverem armas inteligentes, inevitavelmente a tecnologia pode proliferar para regimes menos responsáveis ou atores não-estatais (terroristas, grupos insurgentes). Um drone autônomo básico ou software letal de IA pode ser copiado e usado sem respeito às leis da guerra. Este é um argumento dos que defendem regulação preventiva — para evitar um novo faroeste das armas de IA. Já houve um exemplo na Líbia, em 2020, quando um drone Kargu-2 (feito na Turquia) pode ter caçado combatentes em retirada de forma autônoma autonomousweapons.org. Se confirmado, o episódio mostra que até potências intermediárias ou seus representantes podem usar força letal autônoma. O dilema ético e de segurança é que, uma vez que um Estado usa tais sistemas, outros se sentem compelidos a seguir ou ficam em desvantagem. É uma típica dinâmica de corrida armamentista, porém acelerada. O potencial da IA para reduzir o limiar de conflito é real: líderes podem aceitar iniciar hostilidades se seus soldados não correm risco e a IA pode “fazer o trabalho sujo”. Isso levanta profundas questões morais sobre a natureza da guerra e da paz — se a guerra ficar “mais fácil” (menos custo humano para o agressor), pode se tornar mais frequente? Vozes humanitárias internacionais alertam que não se pode eliminar a consciência humana das decisões de guerra.
Em resumo, o mundo enfrenta o desafio de como controlar e restringir a IA militar para que colhamos os benefícios sem minar a ética e a estabilidade. Ainda não há um único marco normativo acordado, mas o debate se intensifica. Ele envolve medidas técnicas (como dispositivos de segurança embutidos e regimes de teste), princípios normativos (como exigir supervisão humana) e instrumentos legais (políticas nacionais e eventuais tratados). Os próximos anos – até 2030 – podem ser decisivos na definição das regras do jogo para IA na guerra. Acertar é fundamental, pois pode significar a diferença entre a IA ser uma ferramenta que salva vidas ao reduzir danos colaterais versus uma que tira vidas com eficiência desumana. O desafio da comunidade global é garantir que a humanidade permaneça no controle da força letal, mesmo conforme as máquinas se tornam cada vez mais capazes.
Benefícios e Riscos da IA Militar
A inteligência artificial oferece, sem dúvida, substanciais benefícios para operações militares – mas também traz consigo riscos significativos. A seguir, destacamos as principais vantagens potenciais que a IA pode proporcionar à defesa, assim como os perigos e consequências não intencionais que precisam ser devidamente gerenciados.
Principais Benefícios da IA na Área Militar e de Defesa:
- Aumento da Velocidade e Precisão nas Decisões: A IA pode analisar dados do campo de batalha e apresentar opções muito mais rapidamente do que equipes humanas, acelerando de forma eficaz o ciclo OODA (observar–orientar–decidir–agir). Esta velocidade pode gerar uma vantagem crucial. Como observou a vice-secretária de Defesa dos EUA, Kathleen Hicks, integrar IA ajuda os comandantes a tomarem decisões com maior rapidez e precisão – proporcionando uma “vantagem decisória” sobre adversários defense.gov. Por exemplo, um sistema de comando com IA pode unir informações de dezenas de sensores e recomendar a ação defensiva ideal em segundos após detectar um míssil inimigo, uma rapidez impossível para humanos não assistidos.
- Multiplicação de Força e Eficiência Operacional: A IA permite que forças armadas façam mais com menos. Sistemas autônomos podem operar continuamente sem fadiga, executar tarefas entediantes ou perigosas, e cobrir mais área (ou ar, mar) com menos pessoas. Isso pode aumentar drasticamente a eficiência operacional. Tarefas como vigilância aérea constante ou missões logísticas repetitivas, que exigiriam muitos profissionais, podem ser transferidas para drones e veículos movidos por IA. A IA também otimiza a alocação de recursos – desde cronogramas de manutenção até o envio de tropas – reduzindo o desperdício. Um estudo em logística do Exército constatou que o uso de IA na gestão da cadeia de suprimentos pode melhorar a eficiência em mais de 20%, resultando em entregas mais rápidas de peças de reposição e prevenção de problemas de manutenção army.mil army.mil.
- Redução do Risco para Soldados: Uma das vantagens mais humanas da IA militar é o potencial de retirar pessoas dos papéis mais perigosos. Sistemas não tripulados podem fazer reconhecimento de emboscadas, limpar minas ou absorver fogo inimigo no lugar de soldados. Em ambientes de alto risco (como zonas contaminadas por radiação), robôs podem realizar reconhecimento onde o envio de tropas seria mortal. Mesmo em combate ativo, ao usar sistemas autônomos ou de controle remoto para as “3 D’s” (tarefas entediantes, sujas e perigosas), vidas podem ser salvas. Um objetivo bem conhecido é que o “primeiro a entrar pela porta” em uma invasão seja um robô, e não um soldado. Da mesma forma, evacuação de feridos ou reabastecimento sob fogo poderiam ser feitos por veículos autônomos, poupando medicos e motoristas da exposição. Com o avanço da IA, missões inteiras (como ataques de penetração perigosos ou caças a submarinos) poderão ser realizadas por unidades não tripuladas, significando menos sacos mortuários retornando.
- Custo-Benefício e Escalabilidade: Embora sistemas avançados de IA tenham custos iniciais elevados, muitas plataformas movidas por IA (especialmente drones menores e softwares) são relativamente baratas e altamente escaláveis. Isso oferece uma vantagem assimétrica de custo. Por exemplo, em conflitos recentes vimos drones muito baratos destruindo equipamentos muito mais caros – um drone comercial de US$ 2.000 destruindo um sistema de defesa aérea de US$ 2 milhões armyupress.army.mil. Enxames de drones autônomos de baixo custo podem sobrecarregar defesas sofisticadas por pura quantidade. Se forças armadas podem implantar 100 drones com IA pelo custo de um caça, a relação de troca favorece a IA. Além disso, a automação pode reduzir custos de pessoal (um operador pode supervisionar uma frota de 10 robôs). Treinar IA (com dados e simulação) muitas vezes é mais barato e rápido do que treinar equivalentes humanos. No longo prazo, o uso de IA em tarefas como manutenção preditiva também gera economia, ao prolongar a vida útil dos equipamentos e evitar quebras.
- Maior Precisão e Menor Dano Colateral: Sistemas de mira com IA, bem projetados, podem aumentar a precisão de ataques e identificação de ameaças. Por exemplo, o reconhecimento de imagens por IA pode detectar veículos camuflados em imagens de satélite que um analista humano deixaria passar, garantindo que o alvo correto seja atingido. Munições guiadas por IA podem acertar melhor o alvo ou até abortar a missão se certos parâmetros não forem cumpridos, impedindo disparos equivocados. Uma IA controlando defesa aérea pode reagir mais rapidamente a um foguete e calcular uma interceptação que minimize o risco de destroços caírem em áreas povoadas. Defensores da tecnologia argumentam que, conforme a IA amadureça, ela poderá seguir critérios de engajamento com mais rigor do que um ser humano sob estresse, reduzindo baixas civis em guerra. (Esse benefício depende, é claro, de validação rigorosa das IAs, mas é uma promessa importante.)
- Benefícios Estratégicos e de Dissuasão: Em um nível mais alto, ter capacidades superiores de IA pode, por si só, ser um fator de dissuasão contra adversários. Se as forças armadas de um país deixam claro que podem responder com IA a qualquer agressão de forma ultrarrápida e eficaz, o inimigo pode pensar duas vezes antes de provocar conflito. A IA pode ajudar também na manutenção da estabilidade da dissuasão nuclear, melhorando o alerta precoce e o suporte à decisão para líderes, potencialmente evitando erros de cálculo. Além disso, a IA pode auxiliar na simulação de estratégias militares, simulando vários cenários de “e se” para informar planejadores das melhores táticas – essa vantagem intelectual pode se traduzir em superioridade estratégica em conflitos reais. Por exemplo, antes de uma grande operação, comandantes podem usar simulação por IA para antecipar movimentos inimigos e otimizar seus próprios planos, superando o adversário desde o início.
Principais Riscos e Desvantagens da IA Militar:
- Escalada Involuntária e Perda de Controle Humano: Uma preocupação fundamental é que sistemas de IA, agindo na velocidade das máquinas, possam provocar a escalada de conflitos além do que se pretendia por parte de humanos. Se armas autônomas de lados opostos começam a interagir (por exemplo, drones se enfrentando ou IAs de defesa cibernética revidando em tempo real), a situação pode se agravar mais rápido do que os comandantes conseguem intervir. Um estudo de simulação de guerra em 2020 da RAND Corporation comprovou que a velocidade dos sistemas autônomos levou à escalada não intencional no cenário autonomousweapons.org. Essencialmente, crises podem sair de controle porque algoritmos, ao contrário de humanos, não têm julgamento mais amplo nem cautela – uma IA pode interpretar um sinal eletrônico como ato hostil e disparar, iniciando um confronto letal não desejado por nenhum dos lados. Esse risco de “guerra instantânea” preocupa especialmente em contextos nucleares: imagine um sistema de alerta controlado por IA confundindo um bando de pássaros com mísseis em aproximação. Se retaliar automaticamente, o resultado seria catastrófico. Por isso, manter o controle humano significativo é vital, mas conforme a IA torna engajamentos tão rápidos quanto milissegundos, manter humanos na decisão se torna mais difícil.
- Vulnerabilidades em Cibersegurança e Hackeamento de IA: Ironicamente, ao mesmo tempo que se usa IA para proteger sistemas, ela também se torna um alvo de ataques cibernéticos. Adversários podem tentar hackear ou enganar sistemas militares movidos por IA, com efeitos potencialmente devastadores. Por exemplo, ao alimentar dados maliciosos, o inimigo pode fazer o sistema de mira confundir alvos aliados com inimigos (e vice-versa). Existe ainda o risco do adversário inserir malware para sequestrar drones ou veículos autônomos – virando nossas armas contra nós mesmos ou simplesmente inutilizando-as em momento crítico. Conforme a IA se torna central no comando e controle, um ataque bem-sucedido pode paralisar uma força militar. Garantir cibersegurança robusta para IA (protegendo inclusive dados de treinamento e algoritmos) é extremamente desafiador. Além disso, sistemas de IA são vulneráveis a ataques adversariais inéditos – entradas especificamente projetadas para enganar padrões da IA (por exemplo, um conjunto de pixels que faz a IA “ver” um tanque onde não existe). Se o inimigo descobre essas falhas, literalmente pode enganar os “olhos” da IA. Em resumo, toda IA é software, e software pode ser hackeado ou subvertido – um risco alarmante quando a IA pode estar controlando armas reais. Sistemas militares estão sendo reforçados, mas nenhuma defesa é infalível, e as consequências de uma IA “sequestrada” podem ser letais.
- Acidentes e Danos a Civis por Enganos: Erros de identificação são um risco constante. A IA atual, especialmente usando aprendizado profundo, pode cometer erros bizarros – como confundir uma foto de tartaruga com um fuzil, por conta de peculiaridades nos padrões. Em guerra, tais erros podem significar ataques errados. Por exemplo, um drone autônomo pode confundir um veículo civil com militar se não estiver perfeitamente treinado para ambientes complexos. Ou um sistema de proteção pode reagir exageradamente ao perceber uma ação hostil e disparar contra civis. Diferentemente dos humanos, a IA não possui intuição ou senso comum para checar um resultado estranho; ela faz o que foi programada para fazer. Se a programação ou os dados de treinamento não cobrem certo cenário, a IA pode agir de forma imprevisível. De fato, sistemas de IA costumam ser chamados de caixas-pretas, e sua tendência a falhar de formas inesperadas é um problema. O incidente de 2020 na Líbia (onde um drone autônomo pode ter engajado combatentes sem comando direto) serve de alerta – felizmente não foi evento de grande escala, mas mostra o potencial. O risco ético aqui é perda de vidas devido a falhas técnicas ou lacunas no sistema. Cada incidente desses pode ter imensas repercussões morais e estratégicas (imagine atacar uma unidade ou parte neutra acidentalmente – pode gerar crises políticas). Por isso tantos líderes militares insistem que humanos supervisionem e possam intervir – mas, se IAs proliferarem e agirem em enxames, a supervisão humana pode ser insuficiente.
- Viés Algorítmico e Uso Indevido: Sistemas de IA aprendem a partir de dados, e se esses dados contêm vieses ou erros, a IA pode agir de forma discriminatória ou inadequada. No contexto militar, isso poderia significar uma IA favorecendo ou desfavorecendo certos alvos de forma errada. Por exemplo, se um sistema de vigilância for treinado principalmente com imagens de combatentes homens, pode subestimar ou não reconhecer combatentes mulheres ou civis, levando a supervisão ou suspeitas equivocadas. Também há temores quanto ao uso autoritário: um regime pode empregar IA militar contra sua própria população (por exemplo, drones autônomos para controle de protestos ou vigilância movida por IA para caçar dissidentes). A linha entre defesa externa e uso interno pode se confundir – levantando questões de direitos humanos. E, uma vez desenvolvida a IA letal, corre-se o risco de ser usada contra a lei (como um líder inescrupuloso usando assassinos autônomos para eliminar rivais políticos e atribuindo a ação à máquina). São riscos mais especulativos, mas importantes de considerar em políticas públicas.
- Corrida Armamentista e Instabilidade Estratégica: O risco estratégico da IA é uma corrida armamentista fora de controle, em que países se sintam compelidos a implementar armas IA sem o devido cuidado com receio de ficarem para trás. Isso pode levar a desenvolvimentos apressados, testes inadequados e maior risco de acidentes. Pode ser desestabilizador: se países não conseguem medir as capacidades alheias (IA é software, difícil de detectar por satélite, ao contrário de tanques ou mísseis), suposições pessimistas podem aumentar tensões. Também existe o cenário de desconfiança mútua entre autômatos: IA de cada lado pode interpretar mal as ações do adversário e provocar crise por erro de leitura, como já citado antes. Alguns analistas veem paralelos com o início da Guerra Fria e o alerta máximo – mas agora com algoritmos no “gatilho”. Apesar da IA poder fortalecer a dissuasão, pode também corroer os canais de comunicação humano a humano que ajudaram a evitar uma guerra nuclear (pense na Crise dos Mísseis de Cuba – se a IA tomasse decisões, teria havido a mesma contenção?). Assim, especialistas alertam que a competição militar desenfreada em IA pode aumentar o risco de guerra, mesmo que sem intenção carnegieendowment.org. O outro lado: se bem gerida, a IA poderia trazer mais estabilidade ao reduzir ambiguidades (vigilância perfeita diminuindo ataques surpresa, etc.), mas isso é uma visão otimista. O risco permanece de que equívocos se tornem mais prováveis conforme aumente a participação de sistemas autônomos, a menos que haja sérias medidas de confiança e, talvez, controle de armas.
Ao pesar esses benefícios e riscos, fica claro que a IA militar é uma faca de dois gumes – frequentemente, o mesmo atributo que dá vantagem à IA (velocidade, autonomia, decisão) tem seu lado sombrio (escalada instantânea, perda de controle, rigidez). Forças armadas e formuladores de políticas estão tentando maximizar os pontos positivos (com testes rigorosos, implantação incremental, equipes homem-máquina ao invés de pura autonomia) e mitigar os negativos (com salvaguardas, supervisão e diálogo internacional sobre normas). A esperança é que, com boa governança, a IA possa tornar a guerra mais precisa, menos custosa e mais curta, evitando massacres em massa como os do século XX. O temor é que, sem cautela, a IA torne a guerra ainda mais devastadora e incontrolável. Os próximos anos serão críticos para encontrar o equilíbrio certo – aproveitando os benefícios da IA para defesa e dissuasão, ao mesmo tempo que controlamos os riscos para que a humanidade permaneça mais segura, e não ameaçada, em um mundo movido por IA.
Capacidades e Investimentos Comparativos em IA Militar por Nação
Para compreender o cenário global da IA militar, é útil comparar como diferentes nações estão investindo e desenvolvendo essas tecnologias. A tabela abaixo oferece um panorama de países/atores-chave, seus gastos estimados em IA para defesa e exemplos de capacidades ou iniciativas militares notáveis impulsionadas por IA:
País/Bloco | Investimento Estimado em IA de Defesa | Capacidades & Iniciativas Notáveis em IA |
---|---|---|
Estados Unidos | Aproximadamente US$ 1,8 bilhão por ano (orçamento do Pentágono para IA em 2024) defensescoop.com, além de bilhões adicionais em P&D para sistemas autônomos nationaldefensemagazine.org. | – Projeto Maven (IA para análise de imagens) comprovado no contraterrorismo defense.gov. – JADC2 (Comando e Controle Multidomínio Integrado) conecta forças usando IA; ACE AI da DARPA voou um F-16 em 2023 darpa.mil. – Drones Loyal Wingman: USAF planeja mais de 1.000 CCAs autônomos até 2030 airforce-technology.com. – JAIC/CDAO do DoD centraliza o desenvolvimento de IA; diretrizes éticas para IA em vigor (julgamento humano exigido em uso letal) en.wikipedia.org. |
China | Na casa de “baixos bilhões” de dólares anualmente (níveis comparáveis aos dos EUA) em IA militar, segundo analistas nationaldefensemagazine.org. Indústria geral de IA chinesa: ~US$23B em 2021, meta de US$150B até 2030 armyupress.army.mil. | – Doutrina de “guerra intelligentizada”: PLA investindo em vigilância, drones autônomos e suporte à decisão carnegieendowment.org. – Foco em IA para análise de inteligência, manutenção preditiva, reconhecimento de alvos nationaldefensemagazine.org. – Diversos programas de UAV (drones furtivos, enxames); teste de um grande enxame de drones para assalto a ilhas em 2024 armyupress.army.mil. – Fusão civil-militar aproveita IA de grandes empresas de tecnologia; desenvolvimento de mísseis e drones navais habilitados por IA. |
Rússia | Gastos exatos desconhecidos; IA parte do plano de defesa 2024–2033, apesar das sanções. Um dado oficial: valor do “mercado de IA” russo ~US$7,3B em 2023 (civil e militar) defensenews.com. | – Foco em armas autônomas: novo departamento de IA no MinDef, IA no sistema S-500 para resposta rápida a ameaças defensenews.com. – Robôs de combate (ex: Uran-9 UGV) e munições loitering usados na Síria/Ucrânia; atualização de sistemas antigos com complementos de IA defensenews.com. – Ênfase em IA para guerra eletrônica e cibernética (bloqueio, hacking) contra adversários de alta tecnologia. – Restrições: depende de laboratórios estatais (laboratório de IA da Rostec) e tecnologia dual-use; escopo limitado por falta de talentos e microchips. |
OTAN (Aliados) | Financiamento comum da OTAN: €1B Fundo de Inovação da OTAN (2022) para tecnologias emergentes. Gastos de membros importantes: ex. Reino Unido ~£2,1 bilhões em P&D militar em 2022 (incluindo IA e autonomia) post.parliament.uk. | – Estrategia de IA da OTAN adotada em 2021, atualizada em 2024 enfatizando uso responsável armyupress.army.mil. – DIANA programa acelerador apoia soluções de startups em IA, dados etc. em toda a aliança armyupress.army.mil. – Capacidades dos aliados: EUA lideram (acima); Reino Unido testando enxames e logística autônoma; França desenvolvendo UAVs com IA; Alemanha foca IA no apoio ao comando. – Exercícios de interoperabilidade garantem que sistemas de IA de diferentes nações possam operar juntos; princípios conjuntos mitigam riscos éticos. |
Notas: Os valores de investimento são aproximados e as metodologias diferem (algumas incluem apenas programas específicos de IA, outras incluem autonomia e robótica em geral). “Capacidades notáveis” são exemplos e não uma lista exaustiva. Todos esses atores estão expandindo continuamente seus esforços em IA, portanto esse cenário está em constante mudança.
A partir da comparação acima, EUA e China claramente se destacam como os maiores players em termos de financiamento e abrangência da IA militar, essencialmente liderando a corrida armamentista da IA. Os EUA aproveitam orçamentos de defesa massivos e a inovação tecnológica privada, enquanto a China mobiliza metas estatais e fusão civil-militar. A Rússia, embora com menos recursos, está desempenhando papel estratégico relevante em áreas como sistemas de combate não tripulados e guerra eletrônica, guiada por necessidade estratégica. Enquanto isso, a abordagem coletiva da OTAN aparece no compartilhamento de recursos e normas – a OTAN busca garantir que as nações alinhadas ao Ocidente não fiquem tecnicamente para trás, mesmo que individualmente seus orçamentos sejam menores que EUA ou China, e que qualquer IA utilizada siga valores democráticos.
Vale notar que outros países não detalhados na tabela também são ativos: Israel, por exemplo, é reconhecido no desenvolvimento de drones autônomos e IAs para defesa de fronteira (frequentemente exportando globalmente), e países como Coreia do Sul, Japão, Índia e Turquia têm programas militares de IA em expansão (Coreia do Sul com sistemas robóticos de guarda, Índia com força-tarefa de IA para defesa, Turquia com enxames de drones e munições loitering vistas em conflitos recentes). O cenário é cada vez mais global, mas as estratégias e níveis de investimento dos EUA, China, Rússia e OTAN ditam o ritmo de como a IA está moldando o equilíbrio de poder militar.
Linha do Tempo dos Principais Desenvolvimentos em IA Militar
Para colocar a evolução da IA na defesa em perspectiva, abaixo está uma linha do tempo destacando alguns marcos, eventos e implantações importantes que marcaram a ascensão da inteligência artificial e da autonomia nos conflitos:
- 2017 – Lançamento do Projeto Maven e Estratégias em IA: Em abril, o Departamento de Defesa dos EUA lança o Projeto Maven, equipe multifuncional de Guerra Algorítmica, visando integrar IA na análise de imagens de drones defense.gov. No fim do ano, algoritmos de visão computacional do Maven são usados no Oriente Médio para identificar insurgentes em vídeos de drones, provando a utilidade da IA no campo de batalha. Em setembro, Vladimir Putin declara que quem liderar em IA “dominará o mundo”, sublinhando o interesse estratégico mais alto. A China anuncia seu Plano de Desenvolvimento da Próxima Geração de IA, incluindo metas para ser líder global em IA até 2030 – plano que explicitamente prevê avanços em IA militar.
- 2019 – “Guerra Intelligentizada” e Iniciativas Éticas: O Livro Branco de Defesa Nacional da China enfatiza a transição para “guerra intelligentizada”, integrando IA na modernização do PLA carnegieendowment.org. O Departamento de Defesa dos EUA publica sua primeira Estratégia de IA (resumo não confidencial), priorizando a adoção de IA para competição entre grandes potências. Os EUA também criam o Joint AI Center (JAIC) para coordenar projetos de IA. No campo da ética, o Defense Innovation Board dos EUA propõe Princípios Éticos para IA, depois adotados em 2020, e debates internacionais sobre armas autônomas ganham força com crescentes pedidos por regulamentação.
- 2020 – Primeiros Combates Autônomos no Campo de Batalha: Armas autônomas têm relatos de uso em combate. Relatório da ONU revela que em março de 2020, durante a guerra civil da Líbia, um drone Kargu-2 de fabricação turca atacou automaticamente combatentes em retirada sem ordem humana autonomousweapons.org – possivelmente o primeiro caso registrado de IA caçando humanos. Em agosto, o AlphaDogfight Trials da DARPA faz manchetes quando um agente de IA da Heron Systems derrota um piloto experiente da Força Aérea americana por 5-0 em simulação de combate F-16 armyupress.army.mil, mostrando o avanço da IA em tarefas complexas de combate aéreo. Paralelamente, a guerra de Nagorno-Karabakh (Azerbaijão x Armênia) destaca uso de munições loitering com IA e drones (muitos israelenses) destruindo blindados e defesas aéreas, antecipando a mudança no formato dos conflitos.
- 2021 – Estratégia da OTAN para IA e Demonstrações de Enxames: OTAN adota sua primeira estratégia de IA em outubro, incluindo princípios de uso responsável e iniciativas para inovação aliada armyupress.army.mil. O Exército dos EUA ativa seu primeiro Centro de Integração de IA e o DoD implementa formalmente Princípios Éticos para IA (ex: exigência de rastreabilidade e governança). No Oriente Médio, Israel emprega um enxame de drones movidos por IA em combate durante um conflito em Gaza – um dos primeiros usos coordenados de enxame de drones militares para localizar e atacar alvos. Debates da ONU sobre armas autônomas letais se estagnam: um bloco relevante defende a proibição, enquanto potências de IA resistem; o ano termina sem consenso para iniciar negociações.
- 2022 – IA na Guerra em Larga Escala (Ucrânia) e Reações Globais: A invasão russa da Ucrânia (fev 2022) se torna vitrine para tecnologia militar: a Ucrânia usa IA para inteligência (identificação de soldados russos via reconhecimento facial, uso de IA para análise de imagens de satélite de artilharia), enquanto a Rússia lança drones Shahed-136 de fabricação iraniana e munições loitering próprias – verdadeiros mísseis “fogo e esqueça” guiados por IA – para atacar infraestrutura ucraniana. O conflito é chamado de “laboratório de guerra com IA” conforme empresas privadas como Palantir fornecem à Ucrânia plataformas de IA para alvos e logística carnegieendowment.org. A OTAN, motivada, lança o acelerador DIANA e aprova o Fundo de Inovação de US$1B para startups em IA militar. Em outubro, o DoD dos EUA, reconhecendo urgência, eleva o JAIC ao novo Chief Digital and AI Office (CDAO) para maior impacto operacional. No mundo todo, diante do impacto dos drones na Ucrânia, países da Europa à Ásia correm para investir em IA militar e sistemas autônomos.
- 2023 – Avanços e Mudanças de Política: Em janeiro, o Departamento de Defesa dos EUA atualiza a Diretriz 3000.09 sobre Autonomia em Sistemas de Armas, mantendo exigência de julgamento humano, mas detalhando diretrizes para sistemas letais de IA en.wikipedia.org. Programa ACE da DARPA conquista feito histórico em dezembro de 2022 (revelado em 2023): uma IA pilota com sucesso um F-16 real (X-62 VISTA) em vários voos, incluindo manobras de combate, sem piloto humano nos comandos darpa.mil. Isso elimina a diferença entre sucesso em simuladores e operação ao vivo. Na primavera, o Secretário da Força Aérea dos EUA anuncia planos para 1.000 drones-wingman com IA acompanhando caças, sinalizando o início da compra em escala de aeronaves autônomas airforce-technology.com. Virada de política corporativa: a OpenAI remove a proibição de uso militar de sua tecnologia, refletindo aceitação de grandes empresas de tecnologia no setor de defesa carnegieendowment.org. Internacionalmente, a frustração com lentidão na ONU leva à primeira resolução da Assembleia Geral sobre armas autônomas, e o Secretário-Geral da ONU apoia a criação de tratado – elevando o debate ao mais alto nível diplomático autonomousweapons.org.
- 2024 – Exercícios de Enxames e Demandas por Tratado: Em meados de 2024, a China realiza exercício de enxame de drones com módulos lançados do mar e do ar para apoiar operação de “desembarque em ilha” – amplamente interpretado como cenário de Taiwan armyupress.army.mil. A OTAN, na Cúpula de Washington em julho, lança estratégia revisada de IA destacando segurança, testes e compartilhamento de dados armyupress.army.mil. No outono, diversos países do Sul Global e Europa se unem na Primeira Comissão da ONU para pressionar por negociações formais regulando armas autônomas. O Exército dos EUA, enquanto isso, implanta protótipos de veículos de combate autônomos em exercícios, e a Marinha testa autonomia de navios de guerra em exercício de frota. Reconhecendo as tendências globais, o Secretário-Geral da ONU em 2024 alerta que IA na guerra é “grave risco à humanidade” e pede acordo global até 2026. Este ano também marca o início do lançamento de constelações militares de satélites com IA (usando IA embarcada para melhor observação da Terra e detecção de ameaças).
Em 2025, o cenário de IA militar é dinâmico e evolui rapidamente. Em poucos anos, avançamos de projetos pilotos básicos de IA para uso operacional real de sistemas autônomos em conflitos e para a quase implantação de aeronaves-wingman movidas por IA. A linha do tempo mostra um padrão: avanços técnicos (como IA vencendo pilotos ou enxames autônomos de drones) são rapidamente seguidos por esforços de política e normas (estratégia da OTAN ou debates na ONU), mas frequentemente a tecnologia avança mais rápido que a diplomacia. Os próximos marcos podem incluir missões totalmente autônomas, implantação ampla de enxames — ou, infelizmente, um incidente envolvendo IA que faça o mundo reagir para regular a tecnologia.
O que está claro é que a IA na guerra não é mais hipotética – ela já está aqui. O desafio e a responsabilidade diante da comunidade global é navegar por esses avanços de uma forma que aumente a segurança e siga nossa bússola ética, antes que o gênio saia completamente da garrafa.