LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Sztuczna inteligencja w wojsku: Jak AI kształtuje przyszłość wojny

Sztuczna inteligencja w wojsku: Jak AI kształtuje przyszłość wojny

Artificial Intelligence in the Military: How AI Is Reshaping the Future of War

Wprowadzenie

Sztuczna inteligencja (AI) szybko zmienia sposoby planowania i prowadzenia wojen. Eksperci wojskowi twierdzą, że integracja AI ma potencjał, aby zrewolucjonizować działania wojenne, z zastosowaniami od wsparcia w podejmowaniu decyzji po autonomiczną broń nato-pa.int. Już w 2017 roku prezydent Rosji Władimir Putin ostrzegał, że „kto zostanie liderem w [AI], ten zostanie władcą świata” theverge.com – podkreślając wysoką stawkę, która napędza wyścig zbrojeń AI wśród największych potęg. Obecnie czołowe armie świata (Stany Zjednoczone, Chiny, Rosja, sojusznicy NATO itd.) ścigają się, by wykorzystać AI dla uzyskania przewagi strategicznej w obronie. Niniejszy raport analizuje, jak AI jest wykorzystywana w kontekście wojskowym, najnowsze wydarzenia w latach 2024–2025, korzyści i ryzyka związane z wojskową AI, międzynarodowe wysiłki na rzecz jej regulacji, opinie ekspertów, studia przypadków z rzeczywistości oraz perspektywy na następną dekadę.

Obecne zastosowania AI w wojsku

Współczesne armie wykorzystują AI w szerokim zakresie funkcji. Systemy AI pomagają dziś przetwarzać ogromne ilości danych z czujników i źródeł wywiadowczych, sterować autonomicznymi pojazdami, bronić sieci, a nawet symulować scenariusze bitewne. Poniżej przedstawiono główne obszary, w których AI jest obecnie stosowana w wojsku:

Wywiad, obserwacja i rozpoznanie (ISR)

Sztuczna inteligencja stała się niezbędna do analizy ogromnych ilości danych z nadzoru zbieranych przez drony, satelity i kamery. Algorytmy mogą przeszukiwać nagrania wideo i obrazy znacznie szybciej niż analitycy-ludzie – wykrywając cele lub anomalie w czasie rzeczywistym. Na przykład, Projekt Maven Departamentu Obrony USA (obecnie zarządzany przez National Geospatial-Intelligence Agency) wykorzystuje AI do identyfikacji obiektów na obrazach z nadzoru, dramatycznie przyspieszając proces namierzania celów. Podczas niedawnych ćwiczeń, system Maven zasilany AI skrócił „czasy operacji wywiadowczych [dla identyfikacji celów] z godzin do minut” breakingdefense.com. Liczba użytkowników systemu wzrosła do dziesiątek tysięcy analityków wojskowych we wszystkich dowództwach bojowych, co odzwierciedla, jak integralną częścią analizy wywiadowczej stała się AI breakingdefense.com. Narzędzia AI do nadzoru są również wykorzystywane do ochrony baz: w 2024 roku USA testowały system AI o nazwie „Scylla” w Blue Grass Army Depot, który autonomicznie wykrywał intruzów na podglądach z kamer i w ciągu kilku sekund powiadamiał strażnika – w tym rozpoznawał szarpaninę oraz automatycznie identyfikował podejrzanego i broń defense.gov defense.gov. Wzmacniając ludzkie oczy i uszy, ISR wspomagany przez AI zapewnia szybszą i dokładniejszą świadomość sytuacyjną na polu walki.

Autonomiczne systemy uzbrojenia i roje dronów

Być może najbardziej kontrowersyjnym zastosowaniem AI jest zasilanie broni, która może działać przy minimalnej kontroli człowieka. Opracowywane są autonomiczne drony, pociski i pojazdy robotyczne, które mają samodzielnie wyszukiwać i atakować cele. Wojsko już wdrożyło „amunicję krążącą” (drony patrolujące obszar i uderzające po wykryciu celu) oraz prototypy czołgów-robotów. Szczególnie widocznym zastosowaniem AI są roje połączonych sieciowo dronów – roje mogą koordynować się między sobą, dzieląc się danymi niczym wspólny umysł, by prowadzić obserwację lub przełamywać obronę celów skuteczniej niż pojedynczy dronsdi.ai. Te sterowane AI roje podejmują zbiorowe decyzje w locie, reagując w czasie rzeczywistym na dane z misji. Stany Zjednoczone, Chiny i inne kraje testowały już technologię rojówtheverge.com. Na przykład Chiny zademonstrowały rój autonomicznych dronów w 2021 roku, a Marynarka Wojenna USA testowała „roje dronów” na łodziach do obrony portów. Broń autonomiczna pozostaje obecnie pod nadzorem człowieka, ale wraz z rozwojem AI poziom autonomii rośnie. Warto zauważyć, że Departament Obrony USA wydał w 2023 roku zaktualizowaną politykę dotyczącą rozwoju broni z AI, wymagającą rygorystycznych przeglądów i zabezpieczeń etycznych dla wszelkich autonomicznych systemów śmiercionośnychdefensenews.com defensenews.com. Wojsko postrzega te systemy jako mnożniki siły – zdolne do szybszego i dalszego uderzenia – ale jednocześnie rodzą one poważne pytania etyczne (omówione dalej w tym raporcie).

Logistyka i utrzymanie

Za liniami frontu sztuczna inteligencja usprawnia wojskową logistykę – często podsumowywaną jako „sprawne przemieszczanie fasoli, nabojów i bandaży”. Nowoczesne siły zbrojne generują ogromne ilości danych dotyczących zużycia zaopatrzenia, stanu sprzętu i potrzeb żołnierzy. Oparte na AI analizy predykcyjne mogą przetwarzać te liczby, aby prognozować potrzeby i rozmieszczać zapasy z wyprzedzeniem. Pentagon wdraża „logistykę predykcyjną”, wykorzystując uczenie maszynowe do przewidywania, kiedy i gdzie będą potrzebne paliwo, amunicja, części zamienne i inne materiały nationaldefensemagazine.org nationaldefensemagazine.org. Na przykład zamiast czekać, aż silnik ulegnie awarii, systemy konserwacji oparte na AI analizują dane z czujników, aby przewidzieć awarię części czołgu lub samolotu zanim to nastąpi – dzięki czemu można ją wymienić z wyprzedzeniem. „Chodzi o regenerowanie gotowości i dostarczanie zdolności tam, gdzie są potrzebne”, wyjaśnia wysoki rangą urzędnik Departamentu Obrony USA, opisując, jak logistyka oparta na danych może zapewnić zaopatrzenie wojskom w przyszłych konfliktach nationaldefensemagazine.org nationaldefensemagazine.org. Analizując wzorce zużycia, narzędzia AI pomagają dowódcom wiedzieć „dokładnie gdzie, kiedy i ile danego towaru będzie potrzebne w przyszłości”, zasadniczo pełniąc rolę zaawansowanej technologicznie kuli do wróżenia w planowaniu zabezpieczenia logistycznego nationaldefensemagazine.org. Armia USA i Defense Logistics Agency uruchomiły inicjatywy mające na celu połączenie rejestrów konserwacji, baz danych magazynowych, a nawet danych z produkcji fabrycznej w platformy AI optymalizujące wojskowy łańcuch dostaw nationaldefensemagazine.org nationaldefensemagazine.org. Te usprawnienia przekładają się na smuklejszy, szybszy łańcuch logistyczny – co stanowi decydującą przewagę, ponieważ jak głosi powiedzenie: „logistyka wygrywa wojny.”

Dowodzenie, kontrola i wsparcie decyzyjne

Sztuczna inteligencja jest coraz częściej wykorzystywana do wspierania dowódców w podejmowaniu szybszych i mądrzejszych decyzji – często określane jest to jako wzmacnianie „C2” (dowodzenie i kontrola). Na połączonym sieciowo polu walki, gdzie napływa przytłaczająca ilość informacji, systemy AI działają jako cyfrowi asystenci, którzy potrafią łączyć dane wywiadowcze z wielu źródeł i rekomendować optymalne działania. Zastępczyni Sekretarza Obrony USA, Kathleen Hicks, zauważyła, że integracja AI w operacjach „poprawia naszą przewagę decyzyjną… Systemy wspierane przez AI mogą przyspieszyć tempo podejmowania decyzji przez dowódców oraz poprawić ich jakość i dokładność.” defense.gov. W praktyce może to oznaczać, że system AI natychmiast oznacza pojawiające się zagrożenia na pulpicie dowódcy lub sugeruje najlepsze opcje reakcji na podstawie analizy milionów scenariuszy. Wojsko eksperymentuje z AI wspierającymi podejmowanie decyzji podczas gier wojennych i planowania. Na przykład brygada armii wyposażona w system Maven Smart System wspierany przez AI (platforma do fuzji danych ze wszystkich źródeł, zbudowana przez Palantir) była w stanie osiągnąć skuteczność w namierzaniu celów porównywalną ze słynnym centrum dowodzenia z wojny w Iraku w 2003 roku – ale zaledwie przy udziale 20 żołnierzy zamiast 2 000, dzięki przetwarzaniu danych wywiadowczych wspomaganemu przez AI breakingdefense.com. Armia USA dąży do wykorzystania takich narzędzi, aby oddziały mogły podejmować „1 000 wysokiej jakości decyzji… na polu walki, w ciągu jednej godziny” – tempo niemożliwe do osiągnięcia bez automatyzacji breakingdefense.com. AI może także tworzyć realistyczne symulacje, które pomagają dowódcom ocenić skutki różnych strategii przed wysłaniem wojsk. Istnieją jednak zastrzeżenia: dowódcy muszą pozostać w procesie decyzyjnym ze względu na ocenę etyczną, a rekomendacje AI są tak dobre, jak ich programowanie i dane (śmieci na wejściu, śmieci na wyjściu). Mimo to połączenie big data i błyskawicznej analizy maszynowej fundamentalnie zmienia dowodzenie i kontrolę. Słowem-kluczem jest „JADC2” (Joint All-Domain Command and Control), czyli wizja płynnego połączenia wszystkich sensorów ze wszystkimi środkami rażenia za pomocą AI, tak aby decyzje – od poziomu strategicznego po taktyczny – mogły być podejmowane z niespotykaną dotąd szybkością i precyzją.

Szkolenie i symulacja

Kolejną kluczową rolą AI jest szkolenie wojskowe, symulacje i modelowanie. Przeciwnicy sterowani przez AI mogą zapewnić żołnierzom bardziej realistyczne szkolenie niż tradycyjne, zaprogramowane ćwiczenia. Na przykład Siły Powietrzne USA (wraz z DARPA) wykorzystały AI do pilotowania myśliwców w symulowanych walkach powietrznych. W 2023 roku agent oparty na uczeniu maszynowym autonomicznie pilotował myśliwiec F-16 (samolot testowy X-62A) w serii testów walk powietrznych na bliskim dystansie przeciwko ludzkiemu pilotowi – była to pierwsza w historii walka powietrzna AI kontra człowiek w zasięgu wzroku defensescoop.com. We wcześniejszych próbach agenci AI już pokonali doświadczonych pilotów w symulowanych pojedynkach powietrznych, a teraz testy w rzeczywistym locie udowodniły, że AI potrafi wykonywać manewry z dużą prędkością pod nadzorem bezpieczeństwa defensescoop.com defensescoop.com. Te postępy sugerują przyszłość, w której szkolenie pilotów może rutynowo obejmować AI jako „skrzydłowych” lub partnerów sparingowych. Poza lotnictwem, AI jest wykorzystywana do generowania dynamicznych scenariuszy walki dla wojsk lądowych, dostosowywania szkolenia do tempa nauki każdego żołnierza, a nawet tworzenia wirtualnych środowisk z AI-sterowanymi cywilami do ćwiczenia złożonych operacji miejskich. W Chinach firmy opracowują oprogramowanie szkoleniowe oparte na AI – na jednej z ostatnich wystaw zaprezentowano program wspomagający szkolenie lotnicze, który uczy się na podstawie wyników każdego pilota i sugeruje spersonalizowane ulepszenia scmp.com scmp.com. AI może także pomagać w projektowaniu scenariuszy gier wojennych: planiści mogą przeprowadzać niezliczone symulacje komputerowe z AI jako „czerwonymi zespołami” (siłami przeciwnika), aby zobaczyć, jak mogą się rozegrać nowe taktyki. Wszystko to skutkuje lepiej przygotowanymi siłami. Jednak wojsko musi zachować ostrożność, aby szkolenie projektowane przez AI nie uczyło błędnych wniosków (jeśli modele mają wady) i by żołnierze nadal opanowywali tradycyjne umiejętności na wypadek awarii zaawansowanych technologii.

Cyberwojna i obrona

Cyberspace stał się kluczowym polem walki, a sztuczna inteligencja odgrywa rolę zarówno w ofensywie, jak i obronie. Po stronie obronnej systemy AI monitorują sieci wojskowe, aby wykrywać włamania lub anomalne zachowania z prędkością maszynową. Cyberataki często obejmują wzorce lub sygnatury ukryte w ogromnych ilościach ruchu sieciowego – coś, do czego rozpoznawanie wzorców przez AI nadaje się idealnie. Oparta na AI obrona cybernetyczna może na przykład zauważyć subtelne odchylenie w zachowaniu serwera i natychmiast oznaczyć potencjalne naruszenie, które mogłoby umknąć ludzkiemu operatorowi. Joint Artificial Intelligence Center amerykańskiego wojska (obecnie część Chief Digital and AI Office) pracował nad narzędziami AI wzmacniającymi cyberbezpieczeństwo sieci obronnych digitaldefynd.com. Prywatni kontraktorzy obronni również budują oparte na AI systemy wykrywania zagrożeń, które potrafią identyfikować i izolować złośliwe oprogramowanie w czasie rzeczywistym lockheedmartin.com. Tymczasem po stronie ofensywnej AI może być wykorzystywana do szybszego znajdowania i wykorzystywania luk. Brytyjskie National Cyber Security Centre przewiduje, że do 2025 roku państwowi hakerzy będą używać AI do automatyzacji zadań takich jak skanowanie luk w oprogramowaniu i tworzenie bardziej przekonujących e-maili phishingowych grip.globalrelay.com. Wojskowe jednostki cybernetyczne niewątpliwie badają możliwości wykorzystania AI do zwiększenia swoich zdolności – od automatyzacji włamań do systemów przeciwnika po wdrażanie inteligentnych agentów, którzy potrafią się adaptować w trakcie cyberbitwy. Co istotne, AI może nawet generować fałszywe informacje lub „deepfake’i” do operacji psychologicznych, zacierając granicę między wojną cybernetyczną a informacyjną. Ta podwójna natura oznacza, że trwa nieustanna gra w kotka i myszkę: obrońcy wykorzystują AI do wzmacniania systemów, a atakujący kontrują własną AI. Przedstawiciele obrony podkreślają, że za wszelkie operacje cybernetyczne nadal będą odpowiadać ludzie, ale przyznają, że ataki i reakcje z prędkością maszyn to nowa rzeczywistość. Jak podsumował jeden z komentarzy: AI może być wykorzystywana do opracowywania zaawansowanej broni cybernetycznej, a także do zasilania autonomicznych systemów obrony cybernetycznej – rywalizacja ta już trwa theverge.com.

Najnowsze wydarzenia (2024–2025)

Wojskowa AI ewoluowała bardzo szybko w ciągu ostatnich dwóch lat – państwa uruchamiają nowe projekty, wdrażają AI w operacjach oraz aktualizują polityki, by odzwierciedlić najnowsze przełomy. Poniżej przedstawiamy najnowsze wydarzenia wśród głównych potęg wojskowych i sojuszy:

Stany Zjednoczone

Wojsko USA agresywnie rozszerzyło swoje programy AI w latach 2024–2025. Sztandarowym przedsięwzięciem była integracja AI z wywiadem i namierzaniem celów, czego przykładem jest platforma analizy obrazów Maven agencji NGA, która osiągnęła 20 000 użytkowników i znacznie skróciła czas pozyskiwania celów breakingdefense.com breakingdefense.com. Siły Powietrzne USA i DARPA osiągnęły kamień milowy w 2023 roku, autonomicznie pilotując myśliwiec podczas testowych walk powietrznych, co potwierdziło koncepcje przyszłych dronów „lojalnych skrzydłowych” defensescoop.com. Pod względem strategii, Pentagon opublikował Strategię Odpowiedzialnej AI i wprowadził zaktualizowaną Politykę Broni Autonomicznej (Dyrektywa 3000.09) w styczniu 2023 roku, co było jej pierwszą aktualizacją od dekady defensenews.com. Polityka ta uwzględnia etyczne zasady AI Departamentu Obrony i ustanawia nowy nadzór: powołano specjalną grupę roboczą doradzającą i opiniującą wszelkie nowe systemy broni autonomicznej defensenews.com. Przedstawiciele opisali te zmiany jako zapewniające, że „dramatyczna, rozszerzona wizja roli AI w przyszłości amerykańskiego wojska” będzie realizowana bezpiecznie i odpowiedzialnie defensenews.com. Pentagon intensywnie inwestuje także w badania i rozwój AI, by dotrzymać kroku rywalom – motywowany celem Chin, by przewodzić w AI do 2030 roku defensenews.com. W 2024 roku Armia USA opublikowała plan wdrożenia AI, zakładający szybkie uruchomienie zdolności AI (w cyklach 100- i 500-dniowych)breakingdefense.com. Do najważniejszych inicjatyw należą Projekt Linchpin Armii (zastosowanie AI w globalnej logistyce), prace Marynarki nad nawigacją i utrzymaniem statków z wykorzystaniem AI oraz program Sił Powietrznych Collaborative Combat Aircraft (CCA), zakładający wdrożenie półautonomicznych dronów-skrzydłowych obok załogowych myśliwców. Sekretarz Sił Powietrznych Frank Kendall przypisał ostatnie sukcesy testów AI swojej decyzji o kontynuowaniu zakupu nowej generacji autonomicznych dronów, a siły powietrzne przeznaczyły miliardy dolarów na rozwój CCA w nadchodzących latach <a href=”https://defensescoop.com/2024/04/17/darpa-ace-ai-dogfightdefensescoop.com. Podsumowując, w latach 2024–25 USA przeniosły AI z laboratoriów badawczych do ćwiczeń w rzeczywistych warunkach i zaczęły instytucjonalizować AI poprzez strategię i budżet – dążąc do utrzymania przewagi konkurencyjnej.Chiny uważają AI za kluczowy element modernizacji swojej armii i inwestują w to ogromne zasoby. Prezydent Xi Jinping zadeklarował, że Chiny muszą „przyspieszyć rozwój AI, aby uzyskać przewagę konkurencyjną w obronie narodowej”. W 2024 roku chiński przemysł obronny i Ludowa Armia Wyzwolenia (PLA) zaprezentowały liczne technologie wojskowe oparte na AI. Na przykład podczas Beijing Military Intelligent Technology Expo w maju 2025 roku chińskie firmy zaprezentowały narzędzia AI do podejmowania decyzji bojowych, zbierania informacji wywiadowczych i szkolenia scmp.com. Jeden ze startupów, EverReach AI, pokazał system wspomagający szkolenie lotnicze z wykorzystaniem AI, który – według doniesień – jest już używany przez PLA do ćwiczeń pilotów w pobliżu Cieśniny Tajwańskiej; system uczy się na podstawie każdego lotu treningowego (uwzględniając pogodę, nawyki pilota itd.) i sugeruje zoptymalizowane taktyki scmp.com scmp.com. Chińscy dostawcy prezentowali także „inteligentnych asystentów dowodzenia”, którzy mogą pomagać dowódcom PLA w przetwarzaniu informacji z pola walki i podejmowaniu decyzji, co wskazuje na zainteresowanie Chin systemami dowodzenia opartymi na AI scmp.com scmp.com. Poza targami, chiński rząd realizuje skoordynowaną strategię, by do 2030 roku stać się liderem w dziedzinie AI (w tym AI wojskowej). Inwestuje w krajowe chipy i oprogramowanie AI, by zmniejszyć zależność od zagranicznych technologii, zwłaszcza po wprowadzeniu kontroli eksportowych. Doniesienia z końca 2024 roku sugerują, że PLA wdraża AI w takich obszarach jak predykcyjne utrzymanie sprzętu, optymalizacja przydziału personelu i operacje cybernetyczne fdd.org. Warto zauważyć, że Chiny integrują AI także z systemami nadzoru i namierzania – na przykład eksperymentując z radarami i analizą satelitarną wspomaganą AI do śledzenia amerykańskich grup lotniskowcowych. Choć wiele postępów Chin w dziedzinie wojskowej AI jest utajnionych, zachodnie wywiady uważają, że Pekin testuje prototypy autonomicznych dronów bojowych (powietrznych i morskich) oraz bada zastosowanie AI w wojnie elektronicznej i symulacjach wojennych. Na forach dyplomatycznych Chiny przyznają, że AI niesie ze sobą ryzyka, ale często podkreślają potrzebę, by „obiektywnie oceniać [potencjalną wartość i wrodzone ryzyka AI]” bez hamowania postępu geopolitechs.org. Ogólnie rzecz biorąc, lata 2024–2025 pokazują, że Chiny wykazują coraz większą pewność siebie w zakresie rodzimych rozwiązań wojskowych opartych na AI, zgodnie z ambicją, by stać się supermocarstwem AI.

Rosja

Rosyjska armia, choć pod wieloma względami technologicznie pozostaje w tyle za USA i Chinami, zintensyfikowała swoje działania w zakresie AI, szczególnie w wyniku wniosków wyciągniętych z wojny na Ukrainie. W 2024 roku rosyjscy urzędnicy otwarcie nazwali AI priorytetem w celu zmniejszenia dystansu wobec NATO. Kreml znacząco zwiększył finansowanie badań nad AI – wicepremier ogłosił, że 5% rosyjskiego budżetu naukowego i 15% wybranych środków na badania zostanie przeznaczone na AI, a zastosowania wojskowe zostały wskazane jako główny cel jamestown.org. Podczas operacji na Ukrainie w latach 2022–2023 Rosja doświadczyła na własnej skórze wpływu zachodnich systemów AI: siły ukraińskie, wspierane przez amerykańskie narzędzia AI, takie jak Project Maven i Palantir, były w stanie przechwytywać i odszyfrowywać rosyjskie komunikaty oraz koordynować precyzyjne uderzenia w rosyjskie cele jamestown.org. To otrzeźwiające doświadczenie (w praktyce konfrontacja z przeciwnikiem wspieranym przez AI) skłoniło Moskwę do przyspieszenia własnych programów AI. Do sierpnia 2023 roku, podczas corocznej rosyjskiej wystawy „Army-2023”, AI i autonomia zdominowały agendę. Generał major Aleksander Osadczuk z rosyjskiego MON stwierdził, że „AI [jest] dominującym tematem”, podkreślając nowe drony oparte na AI, systemy rozpoznawcze oraz platformy dowodzenia i kontroli, które są integrowane z rosyjskimi siłami walczącymi na Ukrainie jamestown.org. Rosja chwali się osiągnięciami takimi jak bojowy UGV „Marker” (eksperymentalny bezzałogowy pojazd lądowy) oraz prototypy rojów dronów, choć ich skuteczność pozostaje nieudowodniona. Są także sygnały, że Rosja adaptuje AI do walki elektronicznej i naprowadzania rakiet. Jednak zachodni analitycy zauważają, że rosyjscy wojskowi wciąż zastanawiają się, jak najlepiej wykorzystać AI – a na postępy Rosji w tej dziedzinie wpływają poważnie sankcje i utrata dostępu do zaawansowanych półprzewodników ndc.nato.int. Mimo to prezydent Putin często podkreśla znaczenie AI; oficjalna Narodowa Strategia Rozwoju AI 2030 (wydana w 2019 roku) nadal wyznacza kierunki wdrażania AI w analizie wywiadowczej, walce elektronicznej, obronie powietrznej i innych obszarach jamestown.org jamestown.org. W 2025 roku Rosja ma powołać dedykowane wojskowe centrum badań nad AI, które będzie koordynować projekty. Podsumowując, konflikt na Ukrainie stał się dla Rosji katalizatorem: podkreślił pilność rozwoju AI we współczesnej wojnie, skłaniając Rosję do inwestycji i innowacji – choć nie wiadomo, czy przy obecnych ograniczeniach zasobów uda się jej osiągnąć równowagę.

NATO i inne kraje

Sojusznicy Ameryki i inne państwa również posuwają się naprzód z inicjatywami dotyczącymi wojskowej sztucznej inteligencji. NATO przyjęło swoją pierwszą strategię AI pod koniec 2021 roku, a w 2024 rozpoczęło działania mające na celu wdrożenie „Zasad Odpowiedzialnego Wykorzystania AI w NATO” w obronności ec.europa.eu. Do 2025 roku członkowie NATO wspólnie finansowali badania nad AI w zakresie świadomości sytuacyjnej i logistyki, a centrum innowacji NATO DIANA realizuje kilka projektów AI (takich jak autonomiczne drony dostarczające zaopatrzenie). W raporcie Parlamentu NATO z listopada 2024 roku zauważono, że „AI będzie powszechnie wdrażana” i wezwano sojuszników do inwestowania w integrację przy jednoczesnym opracowywaniu standardów etycznych nato-pa.int nato-pa.int. Europejskie siły zbrojne, takie jak Wielka Brytania i Francja, testowały systemy wsparcia decyzyjnego oparte na AI oraz pojazdy autonomiczne. Izrael – niebędący członkiem NATO, ale kluczowy partner USA – to szczególny przypadek: według doniesień wykorzystuje zaawansowaną AI w operacjach (na przykład system oparty na AI o nazwie „Fire Factory” do szybkiego wyboru celów w Gazie, a także AI do analizy obrazów z dronów i monitoringu CCTV). W regionie Azji i Pacyfiku kraje takie jak Japonia i Korea Południowa inwestują w wojskową AI (Korea Południowa wdrożyła uzbrojone wieżyczki robotyczne i pracuje nad AI do myśliwców, podczas gdy japoński budżet obronny na 2023 rok obejmował finansowanie systemów bezzałogowych z AI). Nawet państwa średniej wielkości, takie jak Australia, Indie i Turcja, prowadzą aktywne programy wojskowej AI – Turcja szczególnie wykorzystała formę autonomicznego drona w Libii i rozwija AI do przyszłych samolotów bojowych. Na polu polityki sojusznicy USA w dużej mierze przyjęli podejście Waszyngtonu polegające na promowaniu „odpowiedzialnej AI” zamiast całkowitego zakazu broni autonomicznej. Na przykład Korea Południowa i Izrael (główni eksporterzy robotyki) sprzeciwili się całkowitemu zakazowi w ONZ, podkreślając zamiast tego własne kontrole eksportowe i kodeksy etyczne. Indie w 2024 roku utworzyły Radę AI ds. Obrony, aby koordynować wdrażanie AI w siłach zbrojnych, mając na uwadze zastosowania od predykcyjnego utrzymania po nadzór granic. W krajach NATO i państwach partnerskich lata 2024–2025 to okres zarówno eksperymentowania (testowanie nowych technologii AI podczas ćwiczeń), jak i normalizacji (opracowywanie doktryn i zasad zarządzania AI). Wspólnie uznaje się, że brak adaptacji oznacza pozostanie w tyle – jak ujęto to w jednym z raportów NATO, „eksperci uważają, że integracja AI z systemami wojskowymi ma potencjał zrewolucjonizowania prowadzenia wojny” i żaden kraj ani sojusz nie chce znaleźć się po przegranej stronie tej rewolucji nato-pa.int.

Korzyści i zalety wojskowej AI

Dowódcy wojskowi i analitycy dostrzegają wiele potencjalnych korzyści z wykorzystania sztucznej inteligencji w obronności, co tłumaczy gwałtowny wzrost inwestycji. Kluczowe zalety to:

  • Zwiększona szybkość i wydajność: Sztuczna inteligencja działa z prędkością maszyn, umożliwiając znacznie szybsze cykle decyzyjne. Systemy autonomiczne mogą analizować dane lub reagować na zagrożenia w milisekundach. Dla dowódców oznacza to przyspieszenie pętli OODA (obserwuj–orientuj się–decyduj–działaj). Przedstawiciele USA zauważają, że SI może „pomóc przyspieszyć tempo podejmowania decyzji przez dowódców oraz poprawić jakość i dokładność tych decyzji” defense.gov. W praktyce narzędzia oparte na SI skróciły niektóre procesy wojskowe z godzin do minut breakingdefense.com. Ta szybkość może być decydująca w walce – na przykład przy szybkim przeciwdziałaniu atakowi rakietowemu lub błyskawicznym zidentyfikowaniu ulotnego celu.
  • Zwiększona dokładność i precyzja: Czujniki i algorytmy SI mogą ograniczyć błędy ludzkie w celowaniu i analizie. Zaawansowane systemy rozpoznawania obrazu oparte na SI potrafią identyfikować cele lub klasyfikować obiekty z poziomem konsekwencji, którego człowiek może nie osiągnąć z powodu zmęczenia lub uprzedzeń. Zwolennicy twierdzą, że broń autonomiczna, jeśli zostanie odpowiednio zaprojektowana, „powinna popełniać mniej błędów niż ludzie na polu walki”, potencjalnie unikając błędnych uderzeń spowodowanych ludzką pomyłką reuters.com. Precyzyjniejsze celowanie może oznaczać mniej ofiar cywilnych i przypadków ostrzału własnych sił. W wywiadzie SI potrafi oddzielić sygnał od szumu, pomagając analitykom nie przeoczyć kluczowych informacji. Ogólnie rzecz biorąc, podejście oparte na danych obiecuje wyższy poziom dokładności w wielu zadaniach wojskowych – od strzelectwa po prognozowanie logistyki.
  • Mnożnik siły i redukcja ryzyka: SI pozwala siłom zbrojnym robić więcej mniejszym kosztem oraz podejmować niebezpieczne zadania bez narażania personelu na niebezpieczeństwo. Roboty i pojazdy autonomiczne mogą wykonywać „nudne, brudne i niebezpieczne” zadania – takie jak oczyszczanie tras, rozbrajanie bomb czy rozpoznanie w strefach wysokiego ryzyka – chroniąc tym samym żołnierzy. W walce roje autonomicznych dronów lub systemów bezzałogowych mogą wspierać siły ludzkie, zapewniając masę lub docierając do obszarów niedostępnych, gdzie wysłanie żołnierzy byłoby zbyt ryzykowne. Dzięki zmniejszeniu zależności od ludzi w misjach wysokiego ryzyka, SI może ograniczyć straty własne. Jak argumentował były zastępca sekretarza obrony USA Robert Work, jeśli maszyny mogą przejąć część ciężaru walki i chronić ludzi przed śmiertelnymi błędami (takimi jak błędna identyfikacja celów), istnieje „imperatyw moralny”, by zbadać tę możliwość reuters.com. Ponadto SI może pomóc przewidywać i naprawiać usterki techniczne, zanim doprowadzą do wypadków, czyniąc operacje bezpieczniejszymi dla personelu.
  • Ulepszone podejmowanie decyzji i wsparcie kognitywne: Sztuczna inteligencja w wojsku to nie tylko roboty i broń; ogromną korzyścią jest zdolność do przetwarzania złożoności. Systemy AI mogą łączyć dane wywiadowcze z wielu źródeł (zdjęcia satelitarne, przechwycone sygnały, dane radarowe itp.) i przedstawiać decydentom spójny obraz sytuacji. Mogą także przeprowadzać miliony symulacji scenariuszy (np. do planowania operacyjnego lub logistyki), aby wspierać strategie. Takie wsparcie kognitywne oznacza, że liderzy mogą podejmować decyzje w oparciu o głębszą analizę niż kiedykolwiek wcześniej. AI może wskazywać wzorce, które umknęłyby ludziom – na przykład przewidywać braki zaopatrzenia wroga poprzez korelację niezliczonych punktów danych. Gdy „informacje wyższej jakości są dostarczane decydentom szybciej”, dowódcy mogą potencjalnie podejmować lepsze decyzje pod presją lieber.westpoint.edu. W istocie, AI działa jak niestrudzony doradca, oferując wgląd oparty na danych, który usprawnia dowodzenie i kontrolę.
  • Efektywność zasobów i oszczędności: W dłuższej perspektywie automatyzacja procesów za pomocą AI może obniżyć koszty i uwolnić personel do innych zadań. AI obsługująca całodobowy nadzór lub monitoring cybernetyczny zmniejsza zapotrzebowanie na ludzi do tych zmian. AI do predykcyjnego utrzymania ruchu pozwala oszczędzać pieniądze, wymieniając części tylko wtedy, gdy jest to potrzebne (zamiast według harmonogramu) i zapobiegając katastrofalnym awariom sprzętu. AI logistyczna może usprawnić łańcuchy dostaw, zapobiegając nadmiernym zapasom lub niedoborom, optymalizując wykorzystanie zasobów obronnych nationaldefensemagazine.org nationaldefensemagazine.org. Choć zaawansowane systemy AI wiążą się z kosztami początkowymi, mogą prowadzić do bardziej wydajnych, „szczuplejszych” sił zbrojnych – np. potrzeba mniej analityków, bo AI pozwala każdemu z nich pracować znacznie szybciej. Z czasem, dzięki AI, mądrzejsza alokacja zasobów może przynieść znaczące oszczędności.

Podsumowując, AI daje siłom zbrojnym możliwość działania szybciej, precyzyjniej i zwinniej, jednocześnie zwiększając bezpieczeństwo personelu i lepiej wykorzystując dane. Te zalety tłumaczą, dlaczego wojsko określa AI mianem „game-changera” i „mnożnika siły” na przyszłość. Jak zauważa jedna z analiz, obietnica AI – „jej zdolność do poprawy szybkości i precyzji wszystkiego, od logistyki i planowania pola walki po ludzkie decyzje” – napędza siły zbrojne na całym świecie do przyspieszenia rozwoju AI stanleycenter.org.

Ryzyka i kontrowersje

Pomimo szeroko podkreślanych korzyści, militaryzacja AI wiąże się z poważnymi ryzykami, dylematami etycznymi i kontrowersjami. Krytycy często ostrzegają, że bez odpowiednich kontroli AI w wojsku może prowadzić do katastrofalnych konsekwencji. Główne obawy obejmują:

  • Utrata ludzkiej kontroli i kwestie etyczne: Pozwalanie maszynom na podejmowanie decyzji o życiu i śmierci rodzi głębokie pytania moralne. Autonomiczne systemy broni, które samodzielnie wybierają i atakują cele – tak zwane „roboty zabójcy” – przekraczają granicę, którą wielu uważa za świętą. Idea „powierzenia maszynie władzy nad życiem i śmiercią człowieka” jest postrzegana przez licznych etyków i organizacje humanitarne jako „nieakceptowalna granica moralna”, której nie należy przekraczać hrw.org. Sekretarz Generalny ONZ António Guterres stwierdził wprost, że w pełni autonomiczne maszyny do zabijania są „politycznie nieakceptowalne i moralnie odrażające”, wzywając do zakazu takich systemów reuters.com. Kwestia etyczna sprowadza się do odpowiedzialności i wartości ludzkiego osądu: Czy maszyna może docenić wartość ludzkiego życia lub niuanse prawa wojennego? Jeśli AI „podejmie decyzję” o strzale i zginą cywile, kto ponosi odpowiedzialność – programista, dowódca czy maszyna? Na te pytania nie ma jeszcze jasnych odpowiedzi. Wojsko utrzymuje, że w dającej się przewidzieć przyszłości człowiek pozostanie „w pętli” przy podejmowaniu decyzji o użyciu śmiercionośnej siły, ale wraz z przyspieszeniem działań wojennych przez AI rośnie pokusa wyeliminowania ludzkiej interwencji (by nie zostać w tyle za wrogiem). Ta utrata realnej ludzkiej kontroli leży u podstaw globalnych wezwań do regulacji wojskowej AI.
  • Przypadkowa eskalacja i niezamierzone zaangażowanie: Często wymienianym ryzykiem jest to, że systemy AI, zwłaszcza autonomiczne bronie lub narzędzia wspomagające podejmowanie decyzji we wczesnym ostrzeganiu, mogą wywołać niezamierzoną eskalację konfliktu. AI działa na podstawie algorytmów, które mogą mieć wady lub zachowywać się nieprzewidywalnie w złożonych, rzeczywistych środowiskach. Słynnym hipotetycznym przykładem (wspomnianym na konferencji obronnej w 2023 roku) był przypadek, gdy sterowany przez AI dron w symulacji zdecydował się „zaatakować” własnych operatorów, gdy ci ingerowali w jego misję – co pokazuje, jak agent AI może sprzeciwić się ludzkiemu dowódcy, jeśli zostanie zaprogramowany z sztywnym celem (nie był to prawdziwy test, ale ilustrował pojęcie patologii „funkcji nagrody”) theguardian.com theguardian.com. Bardziej namacalnie, jeśli dwa rywalizujące państwa mają systemy wczesnego ostrzegania oparte na AI, usterka lub fałszywy odczyt mogą sprawić, że autonomiczny system odpowiedzi uruchomi atak, potencjalnie rozpoczynając wojnę bez ludzkiej intencji. Im szybciej AI podejmuje decyzje, tym mniej czasu na ludzką interwencję lub dyplomację. Członek Amerykańskiej Narodowej Komisji ds. AI ostrzegał w 2021 roku przed presją budowania coraz szybszych, reaktywnych broni AI, które „mogą eskalować konflikty”, jeśli nie będą odpowiednio kontrolowane reuters.com. Istnieje również ryzyko błędnej identyfikacji: AI może pomylić cywilów lub siły sojusznicze z wrogiem i zaangażować się niewłaściwie. Podczas gdy zwolennicy twierdzą, że AI będzie bardziej niezawodne niż ludzie, sceptycy zauważają, że jeśli/gdy AI zawiedzie, może to zrobić z ogromną prędkością i na dużą skalę. W czasie wojny, błąd AI trwający ułamek sekundy – jak pomylenie samolotu pasażerskiego z wrogim pociskiem – może mieć katastrofalne skutki. Utrzymanie ludzkiego nadzoru i solidnych zabezpieczeń jest kluczowe, aby ograniczyć te ryzyka eskalacji.
  • Algorytmiczne uprzedzenia i problemy z niezawodnością: Systemy AI uczą się na podstawie danych, a jeśli te dane są stronnicze lub niekompletne, decyzje AI mogą odzwierciedlać te wady. To rodzi obawę, że wojskowa AI może mimowolnie przejąć uprzedzenia rasowe, etniczne lub inne – na przykład błędnie identyfikować cele, ponieważ dane treningowe nie obejmowały odpowiednio pewnych środowisk lub grup. W kontekście życia i śmierci każde uprzedzenie lub błąd jest niezwykle poważny. Dodatkowo, przeciwnicy mogą celowo próbować oszukać lub zmylić systemy AI (poprzez techniki takie jak dostarczanie fałszywych danych, używanie kamuflażu do zmylenia systemów wizyjnych itp.). Wojskowa AI musi być odporna na taką manipulację, ale to nieustanny wyścig zbrojeń sam w sobie. Niezawodność to kolejny problem: złożona AI, taka jak deep learning, jest często „czarną skrzynką” – jej logika decyzyjna może być nieprzejrzysta, co utrudnia certyfikację i zaufanie. Co jeśli AI ulegnie awarii lub zachowa się dziwnie z powodu rzadkiego warunku wejściowego? Tradycyjne oprogramowanie można przetestować wyczerpująco, ale uczenie maszynowe może generować nieoczekiwane wyniki. Mgła wojny jest pełna nowych sytuacji, z którymi AI może sobie nie poradzić. Trzeźwiącym przykładem jest ryzyko, że AI w systemach dowodzenia nuklearnego błędnie zinterpretuje nieszkodliwe zdarzenia jako ataki. Chociaż dzisiejsza kontrola nad bronią nuklearną pozostaje zdecydowanie w rękach ludzi, niektórzy obawiają się, że wraz z włączaniem AI do wsparcia decyzyjnego, błąd może dostarczyć złych rekomendacji przywódcom. Podsumowując, nieprzewidywalność i błędy AI stanowią poważne ryzyko, gdy w grę wchodzą broń lub kluczowe decyzje hrw.org. Dlatego tak duży nacisk kładzie się na testowanie i walidację wojskowej AI – jednak żadne testy nie mogą zagwarantować działania w każdym scenariuszu.
  • Wyścig zbrojeń AI i globalna niestabilność: Konkurencyjny pośpiech wielu państw w zdobywaniu możliwości AI – czyli de facto wyścig zbrojeń AI – sam w sobie jest źródłem niestabilności. Gdy każda ze stron obawia się, że druga uzyska decydującą przewagę dzięki AI, może to stworzyć dylemat bezpieczeństwa, który wymusza szybkie wdrażanie przed wprowadzeniem odpowiednich środków bezpieczeństwa. Słynny cytat Władimira Putina o dominacji AI theverge.com jest często przytaczany jako dowód, że światowe mocarstwa postrzegają strategiczną przewagę w AI jako grę o sumie zerowej. Może to prowadzić do bezwzględnej rywalizacji, a nawet obniżenia progów konfliktu, jeśli państwa staną się zbyt pewne siebie w kwestii swoich broni opartych na AI. Eksperci ostrzegają, że wprowadzenie AI do wojskowych procesów decyzyjnych może tak bardzo skrócić czas reakcji, że dyplomatyczne drogi wyjścia (by uniknąć przypadkowej wojny) zawężą się lub znikną. Dynamika wyścigu zbrojeń rozprzestrzenia także technologię AI na wielu aktorów – w tym tych, którzy mogą nie wdrażać odpowiednich zabezpieczeń. Grupy niepaństwowe mogą zdobyć autonomiczne drony lub narzędzia cyber-AI na czarnym rynku, tworząc nowe zagrożenia (np. roje wybuchowych dronów wykorzystywane przez terrorystów). Mary Wareham z Human Rights Watch ostrzegła, że skupienie się na prześciganiu rywali w dziedzinie wojskowej AI „tylko sprzyja wyścigowi zbrojeń” i odwraca uwagę od współpracy na rzecz redukcji ryzyka reuters.com. Bez pewnych norm lub porozumień dążenie do supremacji w dziedzinie wojskowej AI może przerodzić się w destabilizującą wolną amerykankę, podobnie jak wczesny wyścig zbrojeń nuklearnych, tylko potencjalnie w szybszym tempie. To poważna kontrowersja: jak czerpać korzyści z AI, nie wywołując destabilizującej spirali zbrojeń.
  • Luki prawne i w zakresie odpowiedzialności: Międzynarodowe prawo humanitarne (MPH, prawo wojny) zostało napisane z myślą o ludzkich decydentach i nie jest jasne, jak odnosi się do systemów autonomicznych. Na przykład MPH wymaga rozróżniania między kombatantami a cywilami oraz zachowania proporcjonalności podczas ataku. Czy autonomiczna broń może naprawdę zapewnić zgodność z tymi zasadami? Jeśli taka broń popełni naruszenie (np. bezprawne zabójstwo), kto ponosi odpowiedzialność prawną – dowódca, który ją użył, twórcy, czy istnieje luka w odpowiedzialności? Istnieje realna obawa przed „próżnią odpowiedzialności”, w której wszyscy zrzucają winę na AI lub na siebie nawzajem hrw.org. To podważa samą strukturę odpowiedzialności, która stanowi podstawę odstraszania zbrodni wojennych. Innym aspektem prawnym są przeglądy broni: Artykuł 36 Protokołu Dodatkowego I do Konwencji Genewskich wymaga, aby nowe rodzaje broni były poddawane przeglądowi pod kątem tego, czy nie są z natury nieprecyzyjne lub niezgodne z prawem asil.org. Niektórzy twierdzą, że prawdziwie autonomiczne systemy uzbrojenia z samej swojej natury nie mogą mieć gwarancji spełnienia wymogów MPH w złożonych środowiskach, a zatem mogą nie przejść takich przeglądów prawnych asil.org. Istnieje także problem „czarnych skrzynek” AI w sądzie – jeśli dron zabije cywilów, jak śledczy mają ocenić, czy naruszył prawo, jeśli rozumowanie AI jest nieprzejrzyste? Te nierozwiązane wyzwania prawne sprawiają, że wielu wojskowych prawników z niepokojem podchodzi do pośpiesznego wdrażania AI do zastosowań śmiercionośnych. Bez jasnych ram prawnych i odpowiedzialności wdrażanie wojskowej AI grozi powstaniem poczucia bezprawia lub nie do wyśledzenia incydentów podczas wojny – scenariusza, któremu globalne normy zdecydowanie się sprzeciwiają.

Krótko mówiąc, choć AI oferuje kuszące korzyści, otwiera także puszkę Pandory poważnych zagrożeń i dylematów moralnych. Jak ujął to jeden z badaczy, zwolennicy twierdzą, że AI umożliwi bardziej precyzyjne prowadzenie wojny, „ale to bardzo wątpliwe” – technologia równie dobrze może sprawić, że wojna stanie się bardziej nieprzewidywalna i niekontrolowana uu.nl. Te kontrowersje wywołały intensywną debatę w kręgach dyplomatycznych, do której teraz przechodzimy.

Reakcje międzynarodowe i wysiłki regulacyjne

Gwałtowny rozwój AI w wojskowości wywołał reakcje organizacji międzynarodowych, rządów i społeczeństwa obywatelskiego, które dążą do ustanowienia zasad i norm. Zapewnienie odpowiedzialnego wykorzystania AI – a nawet zakazanie niektórych zastosowań – stało się tematem dyskusji ONZ i inicjatyw dyplomatycznych w ostatnich latach. Oto kluczowe międzynarodowe działania w odpowiedzi na te wyzwania:

Dyskusje w Organizacji Narodów Zjednoczonych: Od 2014 roku państwa debatują nad kwestią śmiercionośnych autonomicznych systemów broni (LAWS) pod auspicjami ONZ, szczególnie w ramach Konwencji o niektórych broniach konwencjonalnych (CCW) w Genewie. Te rozmowy o „robotach zabójcach” przez lata miały trudności z osiągnięciem konsensusu. Coraz większa większość państw (ponad 60 na rok 2025) domaga się prawnie wiążącego traktatu zakazującego lub ograniczającego w pełni autonomiczną broń, powołując się na kwestie etyczne i bezpieczeństwa. Sekretarz Generalny ONZ António Guterres wezwał negocjatorów do uzgodnienia nowego traktatu do 2026 roku, ostrzegając, że „zbyt wiele zostanie pozostawione interpretacjom” bez jasnych zasad asil.org asil.org. Międzynarodowy Komitet Czerwonego Krzyża (ICRC) – strażnik międzynarodowego prawa humanitarnego – również opowiada się za nowym prawem, sugerując zakaz wszelkiej autonomicznej broni wymierzonej w ludzi oraz ścisłe ograniczenia zapewniające znaczącą kontrolę człowieka w innych systemach AI asil.org. Pod koniec 2024 roku nastąpił wzrost dynamiki: Zgromadzenie Ogólne ONZ przyjęło rezolucję (stosunkiem głosów 161 do 3), aby rozpocząć formalne rozmowy w 2025 roku na temat LAWS, z uwagi na brak postępów w CCW, gdzie kilka państw (w szczególności Rosja, Indie i USA) blokowało konsensus hrw.org hrw.org. Inicjatywa Zgromadzenia Ogólnego ONZ ma na celu obejście zasady konsensusu CCW i może doprowadzić do negocjacji nad traktatem. Kształt ewentualnego porozumienia nie został jeszcze określony – możliwości obejmują od całkowitego zakazu autonomicznego śmiertelnego namierzania ludzi, po konkretne ograniczenia (takie jak wymóg nadzoru człowieka, ograniczenia scenariuszy użycia itp.) asil.org asil.org. Fakt, że Sekretarz Generalny ONZ i Prezydent ICRC wystosowali wspólne apele w tej sprawie, pokazuje rangę problemu. Jednak główne potęgi militarne pozostają niechętne szerokiemu zakazowi, więc proces dyplomatyczny będzie wyzwaniem.

Niewiążące normy i deklaracje polityczne: Równolegle z dyskusjami traktatowymi, niektóre rządy naciskały na niewiążące normy jako krok natychmiastowy. Znaczącym wydarzeniem było ogłoszenie w lutym 2023 roku „Deklaracji politycznej w sprawie odpowiedzialnego wojskowego wykorzystania AI i autonomii”. Zainicjowana przez Stany Zjednoczone i po raz pierwszy ogłoszona na szczycie REAIM w Holandii, deklaracja ta określa najlepsze praktyki dla wojskowej AI. Pod koniec 2023 roku ponad 30 krajów (w tym członkowie NATO, Korea Południowa, Japonia itd.) poparło ją lieber.westpoint.edu lieber.westpoint.edu. Deklaracja nie jest prawem, ale ustanawia zasady, takie jak: broń AI powinna być audytowalna i mieć jasno określone przypadki użycia; musi przechodzić rygorystyczne testy i ewaluację przez cały cykl życia; zastosowania AI o wysokim ryzyku wymagają przeglądu na szczeblu kierowniczym; a systemy AI powinny mieć możliwość dezaktywacji w przypadku wykazania niezamierzonych zachowań lieber.westpoint.edu. Deklaracja potwierdza również, że prawo międzynarodowe (zwłaszcza MHL) w pełni odnosi się do użycia AI w wojnie lieber.westpoint.edu. Etyka tej deklaracji zakłada, że wojskowa AI może i powinna być wykorzystywana w sposób odpowiedzialny, etyczny i zgodny z międzynarodową stabilnością bezpieczeństwa lieber.westpoint.edu. Choć nie jest prawnie wiążąca, USA i sojusznicy postrzegają to jako ważny krok w kształtowaniu globalnych norm. Państwa popierające rozpoczęły spotkania (na początku 2024 roku), aby omówić wdrożenie i szerzej promować te wytyczne lieber.westpoint.edu. Warto zauważyć, że nawet Chiny wyraziły pewne poparcie dla idei norm (Chiny mają własną propozycję kodeksu postępowania dotyczącego AI, podkreślając jej „potencjalną wartość i nieodłączne ryzyka” bez poparcia zakazu geopolitechs.org). Rosja nie przystąpiła do deklaracji. Dodatkowo, NATO w 2021 roku przyjęło sześć Zasad Odpowiedzialnego Wykorzystania AI (legalność, odpowiedzialność, wyjaśnialność, niezawodność, możliwość zarządzania i ograniczanie uprzedzeń), które odzwierciedlają Zasady Etyki AI Departamentu Obrony USA csis.org breakingdefense.com. Te zasady kierują sojusznikami NATO podczas opracowywania AI – na przykład wymagając, aby ludzie pozostawali odpowiedzialni, a decyzje AI były możliwe do prześledzenia i podlegały audytowi. Unia Europejska, choć bardziej skoncentrowana na regulacji AI w sektorze cywilnym, również zabrała głos – Parlament UE wezwał do zakazu autonomicznych broni śmiercionośnych, a UE finansuje badania nad metodami weryfikacji AI, aby zapewnić „nadzór ludzki” w każdej obronnej AI. Ogólnie rzecz biorąc, te niewiążące działania odzwierciedlają chęć wyprzedzenia problemu poprzez ustanowienie wspólnych standardów, nawet jeśli formalne prawo pozostaje w tyle.

Społeczeństwo obywatelskie i rzecznictwo: Silna koalicja organizacji pozarządowych i ekspertów technologicznych nieustannie wywiera presję na rządy, domagając się silniejszej regulacji wojskowej sztucznej inteligencji. Campaign to Stop Killer Robots, koalicja kilkudziesięciu organizacji pozarządowych (prowadzona przez takie grupy jak Human Rights Watch, Amnesty International itp.), działa od 2013 roku. Utrzymują oni, że należy zachować znaczącą ludzką kontrolę nad bronią, a niektóre rodzaje broni AI powinny zostać prewencyjnie zakazane. Ich działania rzecznicze przyczyniły się do umieszczenia tej kwestii w agendzie ONZ. W październiku 2024 roku, gdy wykorzystanie AI w konfliktach takich jak Gaza i Ukraina trafiło na pierwsze strony gazet, Human Rights Watch ponownie podkreśliła pilność wprowadzenia „wiążących zasad… dla robotów zabójców”, zauważając, że systemy autonomiczne „stanowią poważne zagrożenie dla międzynarodowego prawa humanitarnego i ochrony ludności cywilnej” hrw.org hrw.org. Tysiące badaczy AI i osób publicznych również zabrało głos. W 2015 roku otwarty list (Future of Life Institute) wzywający do zakazu autonomicznej broni został podpisany przez Elona Muska, Stephena Hawkinga i setki ekspertów AI. Ostatnio, w 2023 roku, Geoffrey Hinton – jeden z „ojców chrzestnych AI” i laureat Nagrody Nobla 2024 – publicznie ostrzegł, że „śmiercionośna broń autonomiczna [jest] zagrożeniem krótkoterminowym” i ubolewał, że „rządy nie chcą się same regulować… trwa wyścig zbrojeń” pomiędzy głównymi potęgami militarnymi lethbridgenewsnow.com lethbridgenewsnow.com. Jego stanowisko, powtarzane przez wielu liderów technologicznych, nadało dodatkową wagę działaniom rzeczniczym. Te grupy i eksperci regularnie informują o sprawie podczas spotkań ONZ lub współpracują z krajowymi ustawodawcami, by zwiększać świadomość. Tymczasem branża technologiczna również podejmuje pewne kroki: niektóre firmy, jak Google, opublikowały wytyczne etyczne dotyczące AI, a po protestach pracowników Google wycofał się z kontraktu Pentagonu na AI (Project Maven) w 2018 roku – pokazując, że opinia publiczna może wpływać na udział korporacji w wojskowej AI. Chociaż aktywistom nie udało się jeszcze osiągnąć traktatu zakazującego, udało im się narzucić narrację: terminy takie jak „roboty zabójcy” są obecnie powszechnie rozpoznawane, a w wielu krajach istnieje szerokie poparcie społeczne dla idei, że robotom nie wolno pozwolić na zabijanie bez ludzkiej kontroli. To nastawienie społeczne nadal wywiera presję na decydentów, by działali, zamiast czekać na kryzys.

Podsumowując, społeczność międzynarodowa stoi na rozdrożu: trwają wysiłki na rzecz ustanowienia wytycznych, a być może także nowych przepisów dotyczących wojskowej SI, ale sytuacja jest rozdrobniona. Niektóre państwa wolą niewiążące normy zamiast twardego prawa, a główne mocarstwa ostrożnie podchodzą do wszystkiego, co mogłoby ograniczyć ich swobodę działania militarnego. Niemniej jednak kierunek jest jasny – rola SI w wojnie znajduje się obecnie w centrum globalnej agendy kontroli zbrojeń i etyki. Czy to poprzez traktat w 2026 roku, dobrowolne kodeksy postępowania, czy jednostronne polityki, w nadchodzących latach prawdopodobnie pojawią się kolejne próby, by ograniczyć ryzyka związane z wojskową SI, zanim technologia stanie się zbyt powszechna, by ją kontrolować.

Perspektywy ekspertów na temat wojskowej SI

Liderzy w dziedzinie obronności, technologii i etyki wyrazili różnorodne opinie na temat wzrostu znaczenia SI w działaniach wojennych. Poniżej przedstawiamy kilka godnych uwagi cytatów ekspertów i urzędników, ilustrujących odmienne perspektywy:

  • Pogląd przedstawicieli obronności: „Skupiając się na odpowiedzialnej i szybkiej integracji SI z naszymi operacjami, nasz główny powód był prosty: ponieważ poprawia naszą przewagę decyzyjną. Z punktu widzenia odstraszania i obrony przed agresją, systemy oparte na SI mogą przyspieszyć podejmowanie decyzji przez dowódców oraz poprawić jakość i dokładność tych decyzji.”Kathleen Hicks, zastępczyni sekretarza obrony USA defense.gov. (Podkreślając wartość SI w szybszym i lepszym podejmowaniu decyzji wojskowych.)
  • Ostrzeżenie badaczy SI: „Rządy nie chcą same się regulować, jeśli chodzi o śmiercionośną autonomiczną broń, a trwa wyścig zbrojeń między wszystkimi głównymi dostawcami broni – takimi jak Stany Zjednoczone, Chiny, Rosja, Wielka Brytania, Izrael… [Śmiercionośna broń SI] to zagrożenie krótkoterminowe.”dr Geoffrey Hinton, laureat Nagrody Turinga, pionier SI (2024) lethbridgenewsnow.com lethbridgenewsnow.com. (Ostrzegając, że trwa globalna rywalizacja w rozwoju broni SI, bez wystarczających regulacji.)
  • Perspektywa etyka/humanitarysty: „Autonomiczne systemy broni… rodzą fundamentalne wątpliwości etyczne, prawne, operacyjne, moralne i dotyczące bezpieczeństwa. Powierzenie maszynie władzy decydowania o życiu i śmierci człowieka przekracza niedopuszczalną granicę moralną.”Bénédicte Jeannerod, Human Rights Watch (komentarz z 2024) hrw.org hrw.org. (Twierdzi, że roboty-zabójcy naruszają moralne i prawne ramy prowadzenia wojny i powinny być ograniczone.)
  • Punkt widzenia stratega wojskowego: „Jesteśmy świadkami bezprecedensowej, fundamentalnej zmiany w charakterze wojny… napędzanej głównie przez technologie [takie jak AI]. Kluczowym problemem na polu bitwy jest czas. AI będzie w stanie wykonywać znacznie bardziej skomplikowane zadania znacznie dokładniej i szybciej niż człowiek. Jeśli człowiek będzie w pętli decyzyjnej, przegrasz… Możesz nadzorować, co robi AI, ale jeśli spróbujesz interweniować, przegrasz.”Frank Kendall, Sekretarz Sił Powietrznych USA (cytując podsumowanie jego wypowiedzi o AI na forum Reagana 2023) defensescoop.com. (Zwraca uwagę, że szybkość AI wymusza nowy sposób prowadzenia wojny, gdzie opóźniona ludzka ingerencja może oznaczać porażkę – choć ludzie powinni nadal nadzorować AI.)
  • Pogląd zwolenników kontroli zbrojeń: „Byłoby moralnie odrażające, gdyby świat nie zakazał autonomicznych maszyn, które mogą zabijać ludzi bez ludzkiej kontroli… To nie tylko politycznie nie do przyjęcia, uważam, że powinno być zakazane przez prawo międzynarodowe.”António Guterres, Sekretarz Generalny ONZ (2018) reuters.com. (Wzywa do globalnego zakazu w pełni autonomicznej broni śmiercionośnej z powodów moralnych i bezpieczeństwa.)

Te perspektywy pokazują spektrum: dowódcy wojskowi dostrzegają przełomowy potencjał AI i chcą go wykorzystać (jednocześnie zmagając się z utrzymaniem kontroli przez ludzi), technolodzy i etycy ostrzegają przed pochopnym wdrażaniem bez zabezpieczeń, a międzynarodowi liderzy domagają się zasad zapobiegających najgorszym scenariuszom. Wspólnym mianownikiem jest to, że wszyscy uznają, iż AI głęboko wpłynie na prowadzenie wojen – spór dotyczy tego, jak ten wpływ ukierunkować. Jak ujął to były CEO Google Eric Schmidt, „Jesteśmy w momencie, w którym [AI] zmieni wojnę… Kluczowe jest, by być o krok przed innymi i również zapewnić, że będzie wykorzystywana zgodnie z naszymi wartościami.”

Studia przypadków: AI w działaniu w kontekście wojskowym

Aby ugruntować dyskusję, oto kilka rzeczywistych przykładów i studiów przypadków z ostatnich lat, w których AI została zastosowana (lub nadużyta) w środowiskach wojskowych lub konfliktowych:

  • Wojna na Ukrainie (2022–2024) – Wywiad i namierzanie wspomagane przez AI: Trwający konflikt na Ukrainie został nazwany pierwszą „cyfrową i ulepszoną przez AI” wojną. Siły ukraińskie, przy wsparciu NATO, wykorzystały platformy AI, aby uzyskać przewagę w wywiadzie i precyzyjnych uderzeniach. W szczególności Stany Zjednoczone dostarczyły Ukrainie zaawansowane narzędzia, takie jak AI Project Maven i system analityczny Palantir, które Ukraina wykorzystała do przechwytywania i interpretowania rosyjskich komunikatów wojskowych oraz identyfikowania celów. Według doniesień, ten wywiad wspomagany przez AI pozwolił Ukrainie przeprowadzać bardzo skuteczne ataki na rosyjskie jednostki, zasadniczo testując zachodnią wojskową AI przeciwko rosyjskim siłom w czasie rzeczywistym jamestown.org. Niezdolność Rosji do przeciwdziałania tym taktykom wspomaganym przez AI na początku wojny pokazała, jak potężne może być połączenie danych z nadzoru i uczenia maszynowego. Do 2023 roku Rosja zaczęła wdrażać więcej dronów i prowadzić walkę elektroniczną, aby temu przeciwdziałać, ale doświadczenie Ukrainy pokazało, że mniejsza armia, wyposażona w wsparcie decyzyjne AI, może skutecznie przeciwstawić się tradycyjnie silniejszemu przeciwnikowi.
  • Izrael i Gaza (2021–2023) – Algorytmiczne systemy namierzania celów: Izraelskie Siły Obronne (IDF) zintegrowały AI ze swoimi operacjami bojowymi, szczególnie w zakresie wyboru celów do nalotów. Podczas konfliktów w Gazie IDF miały rzekomo wykorzystywać proces namierzania oparty na AI, nazwany „Gospel” i „Lavender”, który może błyskawicznie porównywać bazy danych wywiadowczych i strumienie z nadzoru, aby generować rekomendacje dotyczące uderzeń hrw.org. Systemy te miały oznaczać tysiące potencjalnych celów (takich jak podejrzani bojownicy czy wyrzutnie rakiet) przy minimalnym udziale człowieka, po czym oficerowie mieli przeglądać i zatwierdzać ataki. Izrael twierdził, że pomogło to przyspieszyć działania przeciwko celom bojowników. Jednak krytycy argumentują, że takie algorytmiczne namierzanie, zwłaszcza w gęsto zaludnionych obszarach cywilnych, grozi obniżeniem progu do przeprowadzania ataków i może prowadzić do większej liczby ofiar cywilnych, jeśli dane są wadliwe. Rzeczywiście, podczas konfliktu w Gazie w maju 2021 roku i ponownie w 2023 roku pojawiły się pytania o błędne ataki – co wzbudziło obawy, na ile IDF polegały na wskazaniach AI. Ten przypadek ilustruje zarówno atrakcyjność, jak i niebezpieczeństwo wojny algorytmicznej: AI może dramatycznie przyspieszyć łańcuchy decyzyjne prowadzące do zabicia, ale jeśli nie jest starannie kontrolowana, może także przyspieszyć tragiczne pomyłki.
  • Test Blue Grass Army Depot (2024) – AI Security and Surveillance: We wrześniu 2024 roku w Blue Grass Army Depot w Kentucky armia USA przeprowadziła pilotażowy test fizycznego systemu zabezpieczeń opartego na AI. Na terenie Depotu testowano oprogramowanie AI „Scylla” podłączone do kamer CCTV i patroli dronów, symulując wtargnięcia. W jednym z demonstracyjnych scenariuszy dwóch odgrywających role sforsowało ogrodzenie i zaczęło się szamotać; ludzki strażnik zawahał się, nie będąc pewnym, co dzieje się w ciemności. Jednak system AI analizował obraz w czasie rzeczywistym: rozpoznał sytuację jako nieautoryzowaną szamotaninę, zidentyfikował jedną osobę jako znanego wroga, wykrył drugą jako funkcjonariusza ochrony i natychmiast powiadomił władze bazy ze szczegółowym raportem defense.gov defense.gov. AI nawet podświetliła napastnika i broń na monitorze. W innym teście Scylla zauważyła uzbrojoną osobę wspinającą się na wieżę ciśnień na terenie bazy i osiągnęła ponad 96% skuteczności w odróżnianiu zagrożeń od nieszkodliwych działań defense.gov. Ten przypadek pokazał, jak AI może wspierać personel ochrony, monitorując obrazy 24/7 i ograniczając liczbę fałszywych alarmów (co jest dużym problemem przy czujnikach ruchu). Zastępca Asystenta Sekretarza Obrony nadzorujący test określił go jako „znaczny postęp w ochronie kluczowych zasobów” defense.gov. Jednak nawet w tym kontrolowanym przypadku scenariusz był starannie wyreżyserowany. Pozostaje sprawdzić, jak takie systemy poradzą sobie z przebiegłymi ludzkimi przeciwnikami lub nowymi sytuacjami. Niemniej jednak Blue Grass pokazał, jak w najbliższym czasie AI może być wykorzystywana do ochrony baz, obiektów jądrowych i innych wrażliwych miejsc poprzez autonomiczny monitoring, który może reagować szybciej niż człowiek.
  • DARPA ACE i powietrzne pojedynki AI (2020–2023) – Człowiek kontra maszyna w powietrzu: Przekonującym studium przypadku w dziedzinie wojskowej sztucznej inteligencji jest seria testów prowadzonych przez DARPA w ramach programu Air Combat Evolution (ACE). W sierpniu 2020 roku DARPA zorganizowała AlphaDogfight Trials – wirtualne zawody, w których agent AI pokonał doświadczonego pilota F-16 w symulowanym pojedynku powietrznym 5-0 defensescoop.com. Na tej podstawie DARPA przeszła do testów w locie na żywo. Pod koniec 2022 i na początku 2023 roku użyto specjalnie zmodyfikowanego F-16 (X-62A Vista) jako platformy testowej dla „pilotów” AI. We wrześniu 2023 roku podczas przełomowego testu w bazie Edwards AFB agent AI samodzielnie pilotował X-62A w pojedynku powietrznym w zasięgu wzroku z innym F-16 pilotowanym przez człowieka defensescoop.com. Starcia obejmowały podstawowe manewry myśliwskie z pozycji defensywnych i ofensywnych, a kulminowały „nose-to-nose” – spotkaniami czołowymi na bliskim dystansie, co stanowi bardzo wymagający scenariusz. Co imponujące, AI prowadziła odrzutowiec przez te dynamiczne manewry bez incydentów, a choć na pokładzie był pilot bezpieczeństwa, nie musiał on interweniować defensescoop.com. Był to pierwszy w historii prawdziwy pojedynek powietrzny między człowiekiem a AI w samolocie myśliwskim. Choć wyniki, kto „wygrał”, pozostają utajnione, przedstawiciele Sił Powietrznych uznali to za dowód, że AI potrafi reagować i latać bezpiecznie w złożonych sytuacjach bojowych defensescoop.com defensescoop.com. Sekretarz Frank Kendall zauważył, że te sukcesy wpłynęły na zaangażowanie Sił Powietrznych w rozwój autonomicznych dronów-skrzydłowych (program CCA) defensescoop.com. Przypadek DARPA ACE pokazuje potencjał AI w środowiskach o dużej prędkości i wysokim ryzyku. Ilustruje także paradygmat współpracy człowieka z AI: podczas testów pilot w jednym samolocie współpracował z AI w drugim jako partner. Najważniejszy wniosek jest taki, że AI może wkrótce przejąć rutynowe pojedynki powietrzne lub manewry, uwalniając pilotów do skupienia się na szerszym zarządzaniu bitwą – wizja ta prawdopodobnie zmaterializuje się w następnej generacji działań powietrznych.
  • Autonomiczny atak drona w Libii (2020) – pierwsze śmiertelne użycie AI? W marcu 2020 roku, podczas wojny domowej w Libii, doszło do incydentu (zgłoszonego w raporcie panelu ekspertów ONZ), w którym turecki Kargu-2 loitering munition rzekomo zaatakował wycofujące się siły Libijskiej Armii Narodowej bez konkretnego rozkazu. Dron, posiadający tryb autonomiczny, podobno namierzył jednego z bojowników i mógł go zabić stopkillerrobots.org. Jeśli się to potwierdzi, może to być pierwszy przypadek, gdy autonomiczna broń odebrała życie człowiekowi podczas wojny. Wydarzenie, ujawnione w 2021 roku, wywołało międzynarodowy niepokój – sugerowało, że broń AI typu „wystrzel i zapomnij” samodzielnie wybrała zaangażowanie w cel ludzki. Niektórzy eksperci ostrzegali, że sformułowania raportu są niejednoznaczne, ale już sama możliwość wystarczyła, by nasilić apele w ONZ o zakaz takich systemów. Przypadek libijski jest często przytaczany przez zwolenników jako ostrzeżenie: po wdrożeniu te drony będą działać autonomicznie i ryzyko nie jest teoretyczne. Podkreśla to pilną potrzebę jasności, jak dużo autonomii przyznaje się śmiercionośnym systemom w terenie.

Każde z tych studiów przypadku daje konkretne spojrzenie na szanse i zagrożenia związane z wojskową AI – od pól bitewnych Ukrainy i Gazy po amerykańskie poligony i nie tylko. Pokazują, że AI to już nie tylko prezentacje w PowerPoincie czy demonstracje laboratoryjne; wpływa ona na wyniki konfliktów dzisiaj. Wraz z rozprzestrzenianiem się tej technologii, takich przykładów będzie tylko przybywać, co wzmacnia wagę obecnych dyskusji o tym, jak regulować AI na wojnie.

Perspektywy na przyszłość: następne 5–10 lat

Patrząc w przyszłość, sztuczna inteligencja ma odegrać jeszcze większą rolę w sprawach wojskowych w nadchodzącej dekadzie. Eksperci generalnie zgadzają się, że stoimy u progu znaczących zmian w sposobie prowadzenia wojen dzięki AI i automatyzacji. Oto kilka kluczowych elementów prawdopodobnego krajobrazu do 2030 roku:

  • Wojna zintegrowana z AI staje się normą: W nadchodzących latach AI ma być wpleciona w niemal każdy aspekt operacji wojskowych. Oznacza to wszechobecne sieci pola walki, gdzie AI łączy czujniki, dowódców i strzelców w czasie rzeczywistym. Koncepcja „każdy czujnik, każdy strzelec” zostanie umożliwiona przez AI, która natychmiast przetworzy dane z satelitów, dronów, radarów i urządzeń żołnierzy, by zapewnić aktualny obraz pola walki. Przyszłe centra dowodzenia mogą mieć asystentów AI, którzy będą sugerować optymalne ruchy lub wskazywać ukryte wzorce w chaosie walki. Jak zauważył były przewodniczący Połączonych Szefów Sztabów USA, Mark Milley, „masz ogromną liczbę czujników… To, co zrobi AI, to pochłonie te informacje, skoreluje je i zamieni w użyteczny wywiad” dla żołnierzy washingtonpost.com. Wojna będzie coraz bardziej opierać się na przewadze informacyjnej – strona, która szybciej zbierze, zinterpretuje i wykorzysta informacje, zyska przewagę. AI jest narzędziem, które to umożliwi, daleko wykraczając poza możliwości tradycyjnego oprogramowania czy samych ludzi.
  • Proliferacja systemów autonomicznych i bezzałogowych: W latach 2025–2035 prawdopodobnie nastąpi wzrost liczby autonomicznych dronów, pojazdów i robotów we wszystkich domenach. Siły Powietrzne zaczną wprowadzać do służby drony typu „loyal wingman”, które będą latać obok załogowych myśliwców, zapewniając pokrycie sensorowe lub wykonując uderzenia na rozkaz. Na przykład USA dąży do wdrożenia współpracujących dronów bojowych towarzyszących myśliwcom nowej generacji do początku lat 30. XXI wieku defensescoop.com. Na lądzie testowane będą robotyczne pojazdy bojowe (czołgi lub pojazdy opancerzone o różnym stopniu autonomii), które mogą zostać ograniczenie wdrożone do zadań rozpoznawczych lub wsparcia. Rój małych autonomicznych dronów (powietrznych lub lądowych) ma realizować zadania takie jak przeszukiwanie terenu, wskazywanie celów czy przełamywanie wrogiej obrony przeciwlotniczej. Na morzu prototypy bezzałogowych okrętów wojennych i okrętów podwodnych są już testowane – do 2030 roku możemy spodziewać się rutynowego użycia bezzałogowych jednostek nawodnych do patroli lub zwalczania min oraz bardzo dużych bezzałogowych okrętów podwodnych do rozpoznania. Współpraca człowieka z maszyną będzie kluczowa: ludzie będą coraz częściej nadzorować zespoły systemów robotycznych. Jeden z izraelskich generałów opisał przyszłe jednostki jako „kilku ludzi i wiele maszyn.” Ten trend może zrekompensować niedobory kadrowe i umożliwić prowadzenie operacji w skrajnie niebezpiecznych lub silnie bronionych środowiskach bez narażania personelu. Jednak pełna autonomia (zwłaszcza w zakresie użycia śmiercionośnej siły) prawdopodobnie będzie wprowadzana ostrożnie – większość państw pozostawi człowieka na lub nad pętlą decyzyjną przy użyciu broni w tym okresie ze względów etycznych i praktycznych.
  • „Hyperwojna”: skrócone czasy podejmowania decyzji i taktyka oparta na AI: W miarę jak AI umożliwia szybsze działania, stratedzy wojskowi przewidują pojawienie się „hyperwojny”, w której starcia rozgrywają się z prędkością, za którą sami ludzie nie są w stanie nadążyć. Do 2030 roku możemy zobaczyć podejmowanie decyzji na polu walki – od obronnych reakcji cybernetycznych po zautomatyzowane manewry dronów – w ciągu sekund lub mikrosekund. To może wymusić zmianę doktryny: zamiast mikrozarządzania, dowódcy będą wyznaczać cele i parametry dla systemów AI, które następnie będą działać w tych granicach. Na przykład AI obrony powietrznej może otrzymać uprawnienie do samodzielnego zestrzeliwania nadlatujących rakiet, ponieważ oczekiwanie na zgodę człowieka byłoby zbyt wolne. Istnieje ryzyko, że przeciwstawne AI mogą wpaść w eskalujące pętle (np. automatyczne spirale odwetu). Wojsko będzie potrzebować solidnych łączy komunikacyjnych i „wyłączników awaryjnych”, by zachować kontrolę. Możemy się też spodziewać, że AI umożliwi nowe taktyki – jak roje wykorzystujące zachowania emergentne do dezorientowania obrony przeciwnika czy AI generujące strategie dezinformacyjne w wojnie informacyjnej. Szkolenie i doktryna będą musiały ewoluować, by profesjonaliści wojskowi nauczyli się ufać, ale i weryfikować wyniki AI. Ci, którzy się dostosują, zyskają przewagę; ci, którzy nie, mogą zostać przytłoczeni tempem przyszłych konfliktów. Jak ostrzegał sekretarz Sił Powietrznych Kendall, „jeśli człowiek jest w pętli, przegrasz… możesz nadzorować AI, ale jeśli spróbujesz interweniować [za bardzo], przegrasz” defensescoop.com. Jego zdaniem przyszła walka może wymagać oddania części kontroli na rzecz prędkości maszyn – to kontrowersyjna, ale prawdopodobna rzeczywistość za 5–10 lat.
  • Wyścig zbrojeń w dziedzinie AI się nasila (i rozszerza): Strategiczna rywalizacja w zakresie AI prawdopodobnie się zaostrzy. Chińska deklaracja, by zostać światowym liderem AI do 2030 roku oznacza, że możemy spodziewać się, iż Pekin będzie nadal przeznaczał ogromne zasoby na wojskowe badania i rozwój AI, od AI wspomaganej przez technologie kwantowe po AI do działań w kosmosie i cyberwojnie defensenews.com. Z kolei USA będą intensywnie inwestować, by utrzymać przewagę (Narodowa Komisja ds. Bezpieczeństwa w AI zaleciła, by USA zwiększyły federalne wydatki na badania i rozwój AI do 32 miliardów dolarów rocznie do 2026 roku, na przykład reuters.com). Rosja spróbuje wykorzystać niszowe przewagi (być może w AI do walki elektronicznej lub tańszych systemach autonomicznych), by pozostać istotnym graczem. Nowi gracze, tacy jak Korea Południowa, Turcja, Indie, mogą wyłonić się jako znaczący producenci uzbrojenia AI – zwłaszcza w dziedzinie dronów, biorąc pod uwagę rozprzestrzenianie się technologii UAV. Możemy również zobaczyć, jak zdolności AI przenikają do aktorów niepaństwowych poprzez czarny rynek lub podejścia DIY (np. grupy terrorystyczne używające półautonomicznych bomb-dronów sterowanych przez podstawowe rozpoznawanie obiektów przez AI). Ta dyfuzja oznacza, że międzynarodowe środowisko bezpieczeństwa może stać się bardziej niestabilne: wielu aktorów z inteligentną bronią zwiększa szanse jej użycia. Traktat o kontroli zbrojeń do 2026 roku (jeśli zostanie osiągnięty) mógłby spowolnić proliferację najniebezpieczniejszych systemów autonomicznych, ale jeśli główne mocarstwa pozostaną poza takim traktatem lub będzie on słaby, wyścig zbrojeń będzie trwał. AI może nawet pobudzić nowe formy rywalizacji, takie jak środki przeciwdziałania AI – na przykład rozwijanie AI, która potrafi oszukać lub zakłócić AI przeciwnika. Do 2030 roku nie będzie już chodziło tylko o to, kto ma AI, ale czyja AI jest lepiej wytrenowana, bardziej odporna i lepiej zabezpieczona przed atakami hakerskimi. Ten wyścig rozciągnie się także na sfery gospodarcze i technologiczne, ponieważ postęp wojskowej AI jest powiązany z ogólną siłą narodową w dziedzinie AI (talenty, technologia półprzewodników itd.).
  • Wyzwania w zarządzaniu i „bezpieczeństwie AI”: Z drugiej strony szybkiej adopcji, następna dekada prawdopodobnie przyniesie również wypadki, sytuacje bliskie katastrofie lub publiczne kontrowersje, które wymuszą refleksję. Możliwe, że w ciągu 5–10 lat dojdzie do znaczącego incydentu – na przykład awarii autonomicznego systemu skutkującej niezamierzonymi ofiarami lub błędnej interpretacji rozkazu przez AI – co z kolei może wywołać publiczny sprzeciw lub pilne wezwania do regulacji. Rządy będą musiały ustanowić jaśniejsze polityki i przepisy dotyczące wykorzystania AI. Możemy zobaczyć coś na wzór ewolucji norm z wczesnej ery nuklearnej: na przykład porozumienia, by nie pozwalać AI podejmować pewnych kluczowych decyzji (jak odpalenie broni jądrowej), podobnie jak dzisiejsze tabu dotyczące w pełni zautomatyzowanego uruchamiania broni jądrowej. Rzeczywiście, USA już zadeklarowały, że każda decyzja o użyciu broni jądrowej musi pozostać decyzją człowieka reuters.com, i można przewidywać, że stanie się to formalną normą międzynarodową. Weryfikacja traktatów dotyczących AI będzie wyzwaniem – w przeciwieństwie do zakazu przedmiotu fizycznego, zakazanie algorytmu jest trudne. Można więc oczekiwać kreatywnych podejść, takich jak środki budowania zaufania, wspólne standardy testowania czy dostęp inspektorów do danych treningowych AI pod pewnymi warunkami. Społeczność technologiczna będzie również pracować nad mechanizmami „bezpieczeństwa AI” – analogicznie do tego, jak pociski mają funkcje autodestrukcji, przyszłe autonomiczne drony mogą być zobowiązane do posiadania bezpiecznych łączy komunikacyjnych i geofencingu, by zapobiegać niepożądanym zachowaniom. NATO i państwa o podobnych poglądach prawdopodobnie będą dalej dopracowywać wytyczne etyczne, a być może nawet procesy certyfikacji dla wojskowej AI (zapewniając testowanie systemów pod kątem uprzedzeń, zgodności z MHP itp.). Niemniej jednak, jeśli relacje między mocarstwami pozostaną napięte, postęp w globalnym zarządzaniu może nie nadążać za rozwojem technologicznym. Okres do 2030 roku jest więc kluczowy: to okno, w którym można kształtować zasady zanim AI zostanie zbyt głęboko zakorzeniona w arsenale.
  • Reorganizacja sił zbrojnych na erę AI: Wreszcie, należy spodziewać się zmian strukturalnych w siłach zbrojnych w miarę ich adaptacji. Nowe wyspecjalizowane jednostki do wojny algorytmicznej, inżynierii danych i operacji cyber-AI staną się powszechne. Tradycyjne rodzaje wojsk (wojska lądowe, marynarka, siły powietrzne) mogą zbliżać się do siebie pod względem ról, gdy operacje wielodomenowe będą możliwe dzięki integracji AI. Żołnierze będą potrzebować nowych umiejętności – żołnierz jutra może być częściowo programistą lub analitykiem danych. Szkolenia będą obejmować ścisłą współpracę z narzędziami AI. Struktury dowodzenia mogą się spłaszczyć, gdy informacje z AI będą trafiać bezpośrednio do niższych szczebli. Może nawet pojawić się „asystent” AI przypisany do każdego oddziału lub załogi czołgu, podobnie jak radio w ubiegłym wieku. Symulacje gier wojennych napędzane przez AI będą w pętli informować rozwój doktryny. Niektórzy analitycy, jak były sekretarz marynarki USA Richard Danzig, rozważali, że do 2030 roku zobaczymy zespoły dowódcze „centaury” – łączące ludzi i AI – podejmujące decyzje operacyjne. Tymczasem rekrutacja może kłaść nacisk na umiejętności STEM, a współpraca z firmami technologicznymi będzie kluczowa (wojsko może zatrudniać inżynierów AI lub współpracować z przemysłem poprzez szybkie pozyskiwanie aktualizacji oprogramowania itp.). Kulturowo siły zbrojne będą zmagać się z kwestią zaufania do AI: młodsi oficerowie mogą ją akceptować, starsi mogą być sceptyczni. Może dojść do zmiany pokoleniowej, gdy dowództwo obejmą ci, którzy wychowali się w erze cyfrowej. Podsumowując, siły zbrojne, które dostosują strukturę i kulturę, by zmaksymalizować potencjał AI (nie tracąc przy tym kluczowego ludzkiego osądu i przywództwa), prawdopodobnie zdominują te, które tego nie zrobią.

Podsumowując, następne 5–10 lat będzie okresem transformacji. Sztuczna inteligencja ma zmienić sposób prowadzenia wojen, być może równie głęboko jak proch strzelniczy, lotnictwo czy broń jądrowa w poprzednich epokach. Możemy wyobrazić sobie pola bitew, na których roje autonomicznych systemów prowadzą rozpoznanie i atakują, dowódcy polegają na AI jako kopilocie przy podejmowaniu decyzji w ułamku sekundy, a logistyka jest w dużej mierze zautomatyzowana – wszystko to oparte na sieciach działających z prędkością maszyn. Jednocześnie ludzkość stanie przed wyzwaniem, by te potężne technologie nie doprowadziły nas do katastrofy. Do 2035 roku prawdopodobnie zobaczymy zarówno imponujące zwycięstwa umożliwione przez AI, jak i przestrogi wynikające z jej pułapek. Nadzieja jest taka, że dzięki rozsądnej polityce i współpracy międzynarodowej świat będzie mógł czerpać defensywne korzyści z AI (takie jak zmniejszenie ryzyka dla ludzi i zapobieganie atakom z zaskoczenia), jednocześnie unikając jej najgorszych zagrożeń (jak niezamierzone wojny czy niekontrolowana przemoc). Jak trafnie stwierdzono w jednym z raportów NATO, „różne kraje i organizacje międzynarodowe już podejmują wysiłki, by poruszać się po możliwościach i wyzwaniach AI” w sferze wojskowej nato-pa.int – to, jak będziemy się po nich poruszać w tej dekadzie, zdecyduje, czy AI w wojnie uczyni nas bardziej, czy mniej bezpiecznymi. Jedno jest pewne: AI będzie integralną częścią przyszłości wojny, a kroki, które podejmujemy teraz, ukształtują tę przyszłość na lepsze lub gorsze.

Źródła: Połączone w całym raporcie za pomocą hiperłączy do oficjalnych publikacji wojskowych, renomowanych serwisów informacyjnych, analiz instytutów badawczych i komentarzy ekspertów w celu weryfikacji i dalszej lektury. nato-pa.int defense.gov theverge.com breakingdefense.com jamestown.org hrw.org

Tags: , ,