LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Jak sztuczna inteligencja zmienia przyszłość wojny – co musisz wiedzieć już teraz

Jak sztuczna inteligencja zmienia przyszłość wojny – co musisz wiedzieć już teraz

How AI is Reshaping the Future of Warfare – What You Need to Know Now

Od rojów dronów napędzanych sztuczną inteligencją po autonomicznych obrońców cybernetycznych – sztuczna inteligencja przekształca pole bitwy w zaskakującym tempie. Potęgi militarne na całym świecie ścigają się, by wdrożyć mądrzejsze maszyny, które potrafią myśleć, uczyć się, a nawet podejmować decyzje w czasie rzeczywistym – co obiecuje na nowo zdefiniować sposoby prowadzenia wojen. Czy stoimy u progu rewolucji w wojskowości napędzanej SI i co to oznacza dla bezpieczeństwa globalnego? Przeczytaj dalej, by poznać najnowocześniejsze zastosowania SI w obronności, ambicje supermocarstw takich jak USA i Chiny, etyczne pola minowe wokół „robotów zabójców” oraz to, jak nadchodząca dekada może zapewnić SI rolę ostatecznej broni – lub ostatecznego zagrożenia – we współczesnych konfliktach.

Przegląd obecnych systemów SI i autonomicznych w obronności

Wojskowy dron używany podczas ćwiczeń zabezpieczających bazę, prezentujący możliwości nadzoru SI. Drony wyposażone w SI potrafią prowadzić zwiad i nawet samodzielnie identyfikować zagrożenia.

Dzisiejsze armie już wykorzystują sztuczną inteligencję w szerokiej gamie zastosowań. Te obecne zastosowania SI i systemów autonomicznych obejmują wszystko: od bezzałogowych pojazdów po narzędzia do analizy danych. Kluczowe obszary, gdzie SI jest wdrażana w obronie to:

  • Autonomiczne drony i pojazdy bezzałogowe: Drony bezzałogowe pojazdy powietrzne (UAV) i roboty lądowe napędzane SI wykorzystywane są do rozpoznania, ataków lotniczych i ochrony sił. Na przykład autonomiczne lub półautonomiczne drony mogą patrolować pola bitwy albo sporne terytoria, identyfikując cele za pomocą pokładowych systemów widzenia SI. W trwającym konflikcie na Ukrainie niewielkie drony (niektóre kosztujące tylko kilkaset dolarów) były wykorzystywane do ataków na cenne cele, takie jak czołgi, co pokazuje opłacalność broni prowadzonej przez SI armyupress.army.mil. Badania i testy technologii rojów – grup dronów samodzielnie koordynujących swoje działania – trwają już w Stanach Zjednoczonych i Chinach armyupress.army.mil. W rzeczywistości drony, które nie wymagają operatora i mogą współpracować jako skoordynowany rój, już istnieją post.parliament.uk, co stanowi nowe wyzwanie dla tradycyjnych systemów obronnych.
  • Wywiad, nadzór i rozpoznanie (ISR): SI jest siłą zwielokrotniającą możliwości wywiadu wojskowego. Algorytmy analizują zalew danych z sensorów– obrazy z dronów, satelitów, wywiad sygnałowy – znacznie szybciej niż analityk-ludzi. Znanym amerykańskim projektem jest Project Maven, uruchomiony w 2017 roku, by wykorzystać sztuczną inteligencję do identyfikacji rebeliantów i celów na nagraniach z dronów, odciążając przeciążonych analityków defense.gov. Takie analizy SI były testowane bojowo przeciwko ISIS, przyspieszając wykrywanie pozycji wroga. Na Ukrainie analitycy podobno używają narzędzi SI do łączenia danych z dronów, satelitów, a nawet mediów społecznościowych, znacznie szybciej lokalizując potencjalne pozycje nieprzyjaciela niż tradycyjnymi metodami post.parliament.uk. Systemy ISR oparte na SI mogą skutecznie skrócić czas od wykrycia do uderzenia („sensor-to-shooter”) – jeden z raportów zauważył, że cykl namierzania celu, od jego wykrycia do ostrzału artyleryjskiego, może obecnie trwać zaledwie 3–4 minuty dzięki wsparciu SI post.parliament.uk.
  • Logistyka wojskowa i utrzymanie sprzętu: Mniej widocznym, lecz równie istotnym zastosowaniem SI jest logistyka– „krwioobieg” sił zbrojnych. Analizy predykcyjne i uczenie maszynowe służą do prognozowania potrzeb zaopatrzeniowych oraz wykrywania awarii zanim dojdzie do poważnych usterek. Przykładowo, amerykańska armia korzysta z narzędzi predykcyjnego utrzymania ruchu opartych na SI, by przewidywać możliwe awarie podzespołów pojazdów i wymieniać je z wyprzedzeniem army.mil. To zmniejsza liczbę awarii i przestojów, zapewniając wyższą gotowość pojazdów i statków powietrznych. Optymalizacja łańcuchów dostaw wspierana SI pozwala dostarczać zaopatrzenie we właściwe miejsce i czasie, zwiększając efektywność dystrybucji paliwa, amunicji czy części zamiennych. Krótko mówiąc, SI pomaga armiom automatyzować magazyny i bazy transportowo-remontowe, wyznaczać trasy konwojów (coraz częściej z półautonomicznymi ciężarówkami) i zarządzać zapasami praktycznie bez udziału człowieka army.mil army.mil. Te postępy przekładają się na szybsze dostawy, oszczędności i większą odporność logistyki pod presją.
  • Wojna cybernetyczna i cyberbezpieczeństwo: Cyberprzestrzeń to kolejna arena, gdzie SI odgrywa kluczową rolę. Algorytmy SI bronią sieci wykrywając nieprawidłową aktywność oraz intruzów w czasie rzeczywistym – znacznie szybciej niż operatorzy-ludzie. Potrafią automatycznie wykrywać nowe typy malware czy wzorce phishingu oraz inicjować kontrśrodki, co jest kluczowe wobec rosnącej szybkości i złożoności cyberataków. Po stronie ofensywnej SI może pomagać w sondowaniu sieci przeciwnika pod kątem luk lub automatyzować tworzenie fałszywych sygnałów (np. deepfake i dezinformacja). Ważne jest to, że wojsko testuje SI do zagłuszania lub unikania zakłócania sygnału w walkach elektronicznych; przykładowo drony napędzane SI mogą nawigować po terenie, jeśli GPS zostaje zakłócony post.parliament.uk. Integracja SI z jednostkami cybernetycznymi przyśpiesza cykle decyzyjne w wojnie elektronicznej i informacyjnej – potencjalnie automatyzując ataki cybernetyczne z prędkością maszynową. To jednak podnosi stawkę: cyberbroń oparta na SI może eskalować konflikt w ciągu milisekund, a obrona przed takimi zagrożeniami musi być równie szybka i skuteczna.
  • Wsparcie decyzyjne i systemy dowodzenia: Jednym z najważniejszych zastosowań SI jest wspieranie ludzkich dowódców w podejmowaniu decyzji. Współczesne pole bitwy generuje gigantyczne ilości danych (z sensorów, raportów, stanu jednostek etc.), a systemy SI pomagają je agregować i analizować, by prezentować klarowne opcje. Departament Obrony USA kładzie nacisk na integrację SI w dowodzeniu (np. w programie Joint All-Domain Command and Control – JADC2), łączącym sensory i środki ogniowe przez sieci prowadzone przez SI. Celem jest zapewnienie dowódcom „przewagi decyzyjnej” – jak wskazała wiceminister obrony Kathleen Hicks, dzięki SI decyzje są szybsze i trafniejsze, co ma kluczowe znaczenie dla odstraszania i pokonania przeciwnika defense.gov. Przykłady to oprogramowanie zarządzania polem walki wspierane SI, które potrafi rekomendować optymalne reakcje na zagrożenia lub błyskawicznie przeprowadzać symulacje różnych scenariuszy działań. W treningu i symulacjach przeciwnicy prowadzeni przez SI (np. w oprogramowaniu wojennym) stwarzają bardziej realistyczne warunki dla planistów wojskowych. Te narzędzia wsparcia decyzyjnego SI działają jako niestrudzeni partnerzy, analizując scenariusze i prawdopodobieństwa w sekundach, by wesprzeć ludzki osąd.

Podsumowując, SI jest już obecna we wszystkich funkcjach militarnych: pilotowanie dronów, analizowanie danych wywiadowczych, ochrona sieci, zarządzanie logistyką i doradzanie dowódcom. Obecnie większość tych implementacji to wciąż rozwiązania z człowiekiem w roli nadzorcy – SI wskazuje rekomendacje lub automatyzuje konkretne zadania, jednak ostateczna kontrola pozostaje w rękach ludzi. Niemniej jednak ukazują one ogromną wartość SI w dzisiejszej wojnie: wzrost efektywności, szybkości i precyzji w każdym obszarze.

Projekcje na przyszłość: SI w wojnie w ciągu najbliższych 5–15 lat

W ciągu najbliższych 5–15 lat eksperci przewidują, że sztuczna inteligencja i autonomia jeszcze głębiej zakorzenią się w działaniach wojskowych – potencjalnie zmieniając sam charakter wojny. Jak może wyglądać przyszłość SI w wojsku:

  • „Robotyczne” siły zbrojne: Równowaga między ludźmi a maszynami uczestniczącymi w walkach ma drastycznie się przesunąć. Były przewodniczący Kolegium Połączonych Szefów Sztabu USA przewidywał, że nawet jedna trzecia wojsk zaawansowanych krajów może składać się z robotów lub systemów bezzałogowych w ciągu następnych 10–15 lat post.parliament.uk. To oznacza, że żołnierze będą walczyć ramię w ramię – a nawet zostaną zastąpieni – przez autonomiczne drony, pojazdy i jednostki bojowe w wielu rolach. Małe autonomiczne pojazdy naziemne mogłyby zajmować się logistyką i rozpoznaniem, a uzbrojone roboty-czołgi czy działka stacjonarne wesprą ludzi na linii frontu. Niektóre armie już to planują: założenia brytyjskiej armii przewidują, że do lat 30. XXI wieku całe jednostki „robotycznych bojowników” będą działać pod dowództwem ludzi.
  • Lojalni skrzydłowi i autonomiczne samoloty bojowe: Siły powietrzne prawdopodobnie wdrożą bojowe drony pilotowane przez SI, współpracujące z załogowymi myśliwcami. USA ogłosiły ambitny plan wystawienia ponad 1000 maszyn CCA (Collaborative Combat Aircraft) – czyli dronów skrzydłowych – latających obok przyszłych myśliwców F-35 i NGAD airforce-technology.com airforce-technology.com. Ci robotyczni skrzydłowi mają przenosić broń, prowadzić zwiad, zagłuszać radary wroga lub przyjmować na siebie ostrzał, wykorzystując SI do samodzielnych reakcji na zagrożenia. Już powstały prototypy (np. XQ-58A Valkyrie i australijski MQ-28 Ghost Bat). Pod koniec lat 2020 spodziewana jest gotowość pierwszych dywizjonów dronów skrzydłowych sterowanych SI, pełna zdolność operacyjna – około 2030 r. airforce-technology.com. Chiny i Rosja rozwijają podobne koncepcje (np. chiński „Dark Sword” i rosyjski S-70 Okhotnik) starając się wzmacniać siłę powietrzną autonomią. Walka powietrzna lat 30. XXI wieku może wyglądać jak zespół ludzi i dronów SI połączonych w sieć – to tzw. współpraca człowiek-maszyna.
  • Wojna rojowa i masowa autonomia: Nadchodząca dekada przyniesie dojrzewanie rojów autonomicznych broni. Rój to kilkadziesiąt lub nawet setki dronów współpracujących przy zmasowanym ataku, przełamując obronę liczebnością i zbiorową inteligencją. W czerwcu 2024 chińska Armia Ludowo-Wyzwoleńcza przeprowadziła ćwiczenia, w których roje dronów ćwiczyły desant na wyspę – czytelne przygotowanie do potencjalnych scenariuszy konfliktu, jak inwazja na Tajwan armyupress.army.mil. Przyszłe roje mogą obejmować drony powietrzne, roboty naziemne czy autonomiczne jednostki morskie działające wspólnie. Oparta na najnowszych postępach w komunikacji i rozproszonej SI roje będą adaptować się i reagować wspólnie bez czekania na rozkazy ludzi. Analitycy ostrzegają, że duże roje mogą uderzyć z niespotykaną szybkością i skalą, przełamując kluczowe systemy w ciągu minut armyupress.army.mil. Ich zatrzymanie wymaga nowych obronnych systemów SI, być może antyrojowych SI, które wykryją i skoordynują kontratak (np. przy użyciu mikrofal lub laserów) przeciwko nadciągającym rojem. Trwa wyścig: USA, Chiny, Izrael i inni inwestują właśnie w autonomię rojów, wiedząc, że jej opanowanie da trwale przewagę.
  • Zarządzanie bitwą i decyzje napędzane SI: Rozwinięta SI odegra większą rolę w dowodzeniu i strategii. W ciągu 15 lat możemy oczekiwać, że w centrach dowodzenia pojawią się „kopiloci” SI – zaawansowani asystenci stale analizujący taktyczną i strategiczną sytuację oraz proponujący optymalne działania. To wykracza poza obecne narzędzia wsparcia decyzji; przyszłe systemy, oparte na uczeniu maszynowym i być może komputerach kwantowych, być może będą koordynować działania we wszystkich domenach (ląd, morze, powietrze, cyber, kosmos) natychmiastowo. Inicjatywa JADC2 to wstępny krok ku temu, by sieć dowodzenia była całkowicie wspierana przez SI. Do lat 30. XXI wieku dowódca może polegać na systemie SI orkiestrującym całą operację: SI może zalecać manewry jednostek, zagłuszanie czujników wroga, cyberataki czy naloty dronowe – wszystko w zsynchronizowanym tempie, nieosiągalnym dla ludzkiego sztabu w czasie rzeczywistym. Takie SI będą trenowane na masywnej liczbie scenariuszy wojennych i danych operacyjnych, stając się ekspertami od taktyki i strategii. Pierwsze zwiastuny już są – DARPA przetestowała niedawno SI, która pokonała pilota F-16 w symulowanej walce powietrznej 5-0 armyupress.army.mil, a pod koniec 2023 roku SI sterowała prawdziwym F-16 podczas testów w powietrzu, udowadniając, że SI radzi sobie z bardzo dynamicznymi zadaniami taktycznymi darpa.mil. To zapowiedź, że SI nie tylko będzie doradzać, ale w pewnych zadaniach może przejąć stery w walce. Armie jednak podkreślają, że to człowiek ustala cele i zasady, korzystając z SI jako narzędzia, nie oddając jej pełnej kontroli.
  • Szersze zastosowania SI w cyber- i wojnie elektronicznej: W najbliższych latach rola SI w domenie cybernetycznej na ofensywie i defensywie tylko wzrośnie. Spodziewać się można systemów SI, które w milisekundach automatycznie wyprowadzą cyberkontruderzenia lub elektroniczne zakłócanie sygnałów w odpowiedzi na atak. Nową dziedziną staje się kognitywna walka elektroniczna, gdzie systemy SI zmieniają częstotliwości, modulują sygnały i na bieżąco adaptują techniki zakłócania, by zdezorientować radary i łączność wroga. Do 2030 roku takie anteny prowadzone przez SI mają być normą na maszynach bojowych i dronach, reagując szybciej niż wrogie systemy zdążą się dostosować. Dodatkowo generatywna SI (technologia stojąca za zaawansowanymi chatbotami czy deepfake) będzie wykorzystywana do operacji psychologicznych i dezinformacji. Są dowody, że np. Chiny już używają generatywnej SI do tworzenia fikcyjnych postaci i grafik dla propagandy armyupress.army.mil armyupress.army.mil – ten trend się nasili, gdy treści tworzone przez SI staną się nie do odróżnienia od rzeczywistości. Armie będą musiały walczyć z dezinformacją prowadzoną przez SI oraz rozwijać własne SI do walki informacyjnej, by panować nad narracją i mylić przeciwników. W skrócie, infosfera wojny – od hackingu po kampanie informacyjne – będzie przesycona pojedynkującymi się autonomicznymi algorytmami.
  • Mniejsze, sprytniejsze i tańsze systemy SI: Postęp technologiczny zwykle czyni urządzenia mniejszymi i tańszymi – SI nie jest tu wyjątkiem. W przyszłej dekadzie możemy zobaczyć inteligentne rakiety i amunicję, które dzięki SI samodzielnie wybiorą cel i skorygują tor, co zwiększy ich skuteczność przeciw ruchomym celom lub w złożonym terenie. Nawet maleńkie drony – np. „drony-zabójcy” mieszczące się w dłoni – mogą pojawić się jako nowa klasa broni piechoty, napędzane technologią rozpoznawania twarzy i śledzące konkretne osoby albo pojazdy (mrożąca koncepcja, spopularyzowana przez wiralny filmik z 2017 r., a dziś coraz bliżej rzeczywistości). Z kolei satellity sterowane SI ulepszą zwiad i namierzanie z orbity. Wiele państw inwestuje w sieci niewielkich satelitów autonomicznie koordynujących obrazowanie lub wykonywanie manewrów obronnych. Do 2035 nowoczesna armia może rozmieścić konstelacje autonomicznych mini-dronów, inteligentnych min i sensorów – wszystko komunikujące się i dostosowujące za sprawą SI. Ta wszechobecna obliczeniowość na polu walki wygeneruje ogromne ilości danych, które dalej będą zasilać systemy SI, tworząc samonapędzający się cykl świadomości i działania napędzanych przez SI.

Patrząc w przyszłość 5–15 lat, jedno jest pewne: wyścig zbrojeń SI już trwa i jego rezultat zdecyduje o przyszłości wojny. Państwa ścigają się, by okiełznać SI na potrzeby wojska, traktując ją jako klucz do strategicznej przewagi. Jak ujął to prezydent Rosji Władimir Putin – kto przoduje w SI, „będzie rządził światem” – i to napędza ogromne chińskie inwestycje oraz pilną modernizację techniczną USA rusi.org. Choć w pełni autonomiczne walki to jeszcze przyszłość, obecny kierunek wskazuje, że do lat 30. XXI wieku armie będą działały z niespotykaną wcześniej autonomią i prędkością. To może zrewolucjonizować walkę – ale również wymusi nowe strategie, by utrzymać kontrolę człowieka i zapobiec niezamierzonym konfliktom. Nadchodząca dekada będzie kluczowym momentem, gdy armie świata przesuną granice możliwości SI na – i ponad – polem bitwy.

Globalni gracze i ich strategie dotyczące wojskowej sztucznej inteligencji

Wyścig o dominację w wojskowej sztucznej inteligencji ma charakter globalny i jest prowadzony przez kilku kluczowych graczy. Każda z głównych potęg – Stany Zjednoczone, Chiny, Rosja – oraz sojusze takie jak NATO, mają odrębne podejścia do integracji AI i systemów autonomicznych w swoich siłach zbrojnych. Poniżej przedstawiono, w jaki sposób ci aktorzy planują rewolucję AI w obronności.

Stany Zjednoczone

Stany Zjednoczone postrzegają sztuczną inteligencję jako fundament przyszłej potęgi militarnej i intensywnie inwestują, aby utrzymać przewagę. Oficjalna strategia AI Pentagonu (po raz pierwszy opublikowana w 2019 roku) zakłada szybkie wdrożenie AI „na szeroką skalę” we wszystkich strukturach Departamentu Obrony, od zaplecza biurowego po linię frontu. Wzrost nakładów finansowych potwierdza te działania: Departament Obrony zażądał ok. 1,8 miliarda dolarów na projekty AI w roku fiskalnym 2024 (i podobną kwotę na 2025) defensescoop.com, w porównaniu z szacowanymi 800 milionami w 2020 roku. Dodatkowo Stany Zjednoczone wydają miliardy na systemy autonomiczne, takie jak bezzałogowe drony, które często wykorzystują AI nationaldefensemagazine.org. Kluczowe inicjatywy ilustrujące podejście USA to:

  • Dedykowane jednostki i programy AI: Departament Obrony utworzył w 2018 roku Wspólne Centrum Sztucznej Inteligencji (JAIC), obecnie podległe Biuru ds. Cyfrowych i AI, by zjednoczyć prace badawczo-rozwojowe nad AI. Wczesne programy takie jak Projekt Maven udowodniły wartość AI, wdrażając algorytmy wspierające analityków wywiadu na Bliskim Wschodzie defense.gov. Obecnie portfolio AI w siłach zbrojnych USA obejmuje dziesiątki projektów – w 2021 roku finansowano ich ponad 600 nationaldefensemagazine.org – od predykcyjnych narzędzi utrzymania technicznego po półautonomiczne systemy bojowe.
  • Strategia Third Offset i JADC2: USA realizują tzw. „third offset” – wykorzystanie AI i zaawansowanych technologii do zrównoważenia rosnących możliwości przeciwnika. Kluczowym elementem jest Joint All-Domain Command and Control (JADC2), czyli wizja płynnej łączności między wszystkimi siłami. AI jest niezbędna dla JADC2, która musi łączyć w czasie rzeczywistym sensory, decydentów i wykonawców działań zbrojnych. Przykładowo, sieć zasilana przez AI mogłaby pobierać dane z satelity lub drona, identyfikować zagrożenie i błyskawicznie kierować alert do właściwego systemu uzbrojenia (czy to myśliwca, czy baterii artyleryjskiej). Programy takie jak Advanced Battle Management System (ABMS) Sił Powietrznych i Project Convergence Armii USA to poligony testowe dla tej koncepcji dowodzenia wspieranej AI.
  • Współpraca człowiek-maszyna: Wojsko amerykańskie widzi zespoły ludzi i maszyn jako optymalne wykorzystanie AI – człowiek pozostaje decydentem, systemy autonomiczne zwiększają skuteczność. Sztandarowym przykładem jest plan Sił Powietrznych dotyczący Collaborative Combat Aircraft – dronów pełniących rolę „skrzydłowych” dla załogowych myśliwców. Te drony będą wykorzystywać AI do zwiadu, walki elektronicznej lub nawet samodzielnego zwalczania wroga. Celem jest wprowadzenie operacyjnej floty dronów CCA do końca dekady airforce-technology.com. Armia prowadzi podobne eksperymenty z robotycznymi towarzyszami żołnierzy – zarówno naziemne roboty przenoszące wyposażenie, jak i autonomiczne pojazdy zwiadowcze.
  • Ramowy kodeks etyczny i polityczny: USA aktywnie ustanawiają wytyczne dotyczące stosowania AI w działaniach wojennych. W 2020 roku Pentagon przyjął pięć zasad etycznych AI (odpowiedzialność, równość, śledzenie, niezawodność, możliwość zarządzania), które mają kierować opracowywaniem systemów. Ponadto Dyrektywa Departamentu Obrony 3000.09 mówi, że każda autonomiczna broń musi umożliwiać dowódcom „odpowiedni poziom ludzkiego osądu” przy użyciu siły en.wikipedia.org. Polityka ta – zaktualizowana w styczniu 2023 r. – nie zakazuje użycia śmiercionośnej autonomicznej broni, lecz wymaga rygorystycznej kontroli i autoryzacji dla każdego systemu AI mogącego podejmować decyzje o charakterze „życie lub śmierć”. W praktyce USA zawsze zachowują człowieka „w pętli decyzyjnej” przy użyciu siły – np. ataki dronowe i systemy obrony powietrznej wymagają ludzkiej potwierdzenia. Przedstawiciele USA często podkreślają, że AI ma wspierać żołnierzy, nie zastępować ich osądu, co odpowiada zarówno trosce o niezawodność, jak i wartościom demokratycznym.
  • Współpraca z przemysłem i sojusznikami: Amerykańska branża technologiczna odgrywa ogromną rolę w rozwoju militarnego AI. Firmy takie jak Microsoft, Palantir i Anduril zdobyły kontrakty na dostarczanie rozwiązań AI – od chmury obliczeniowej po analitykę pola walki. (Co ciekawe, mimo kontrowersji – np. wycofania się Google’a z Project Maven w 2018 roku po protestach pracowników – współpraca wojska z przemysłem ponownie nabrała tempa wraz ze wzrostem strategicznej wagi AI.) USA ściśle współpracują też z sojusznikami w obszarze AI – przez takie fora jak Joint AI Partnership w ramach Five Eyes czy inicjatywy innowacyjne NATO – dla zapewnienia interoperacyjności i zbiorowego postępu.

Ogólnie podejście USA łączy wielkie inwestycje z ostrożnym wdrażaniem. Państwo dąży do pełnego wykorzystania AI, aby utrzymać przewagę militarną, ale wdraża środki ostrożności dla zachowania kontroli i przestrzegania prawa wojennego. Waszyngton sprzeciwia się międzynarodowym zakazom autonomicznej broni, preferując wypracowywanie norm i „dobrych praktyk”. Łącząc technologiczną przewagę z moralnym przywództwem (poprzez zasady odpowiedzialnego użycia), USA aspirują do wyznaczania światowych standardów dla wojskowej AI.

Chiny

Chiny postawiły strategiczny zakład na AI jako klucz do modernizacji armii i szansę na przeskoczenie militarnej potęgi USA. Chińska Armia Ludowo-Wyzwoleńcza (PLA) nazywa tę transformację osiągnięciem „wojny inteligentnej” – pojęcie oficjalnie popierane w białej księdze o obronie narodowej z 2019 roku carnegieendowment.org. Podczas gdy wcześniejsze reformy PLA skupiały się na „informatyzacji” (wdrażanie technologii informatycznych), inteligentyzacja idzie dalej: integruje AI we wszystkich sferach działań zbrojnych, by zdobyć decydującą przewagę poznawczą i operacyjną.

Strategia i inwestycje: Chińskie przywództwo uznaje AI za krajowy priorytet o wymiarze militarnym, gospodarczym i geopolitycznym. W 2017 roku Pekin ogłosił Plan Rozwoju Sztucznej Inteligencji Nowej Generacji, wyznaczając cel osiągnięcia przez Chiny światowego przywództwa w AI do 2030 r. Według szacunków chiński sektor AI był wart ok. 150 miliardów juanów (~23 mld USD) w 2021 r. i ma przekroczyć 400 miliardów juanów (55 mld USD) do 2025 r. armyupress.army.mil (choć wlicza się w to również AI cywilna). Nakłady na wojskowe AI trudniej oszacować – chińskie budżety są nieprzejrzyste. Jednak według analizy CSET z Georgetown z 2022 roku PLA wydaje prawdopodobnie „niskie miliardy” dolarów rocznie na AI, czyli tyle co USA nationaldefensemagazine.org. Finansowanie obejmuje zakupy systemów z AI oraz szeroko zakrojone prace badawczo-rozwojowe (R&D) – w laboratoriach wojskowych i firmach prywatnych (w ramach polityki fuzji cywilno-wojskowej). Istotną przewagą Chin jest możliwość wykorzystania dynamicznego sektora technologii cywilnych – firm takich jak Baidu, Alibaba, Tencent, iFlytek – które przodują w badaniach nad AI i stosują dual-use do potrzeb wojska.

Kluczowe obszary koncentracji: PLA zdecydowanie rozwija AI tam, gdzie widzi efekt mnożnikowy względem bardziej zaawansowanych technologicznie przeciwników (np. USA). Według analiz Chiny koncentrują się na AI do analizy wywiadowczej, predykcyjnego utrzymania, walki informacyjnej, nawigacji i rozpoznania celów nationaldefensemagazine.org. Przykładowo:

  • PLA opracowuje AI do przetwarzania danych rozpoznawczych (obrazy satelitarne, przechwycone komunikaty) by szybciej niż analitycy-ludzie wykrywać cele i wzorce.
  • W obszarze utrzymania i logistyki chińskie jednostki wykorzystują AI do prognozowania awarii sprzętu i zarządzania łańcuchem dostaw – krytyczne dla armii, która planuje ekspansję działań dalece poza ojczyzną.
  • Pojazdy i drony autonomiczne to jeden z głównych kierunków rozwoju. Chiny pokazały liczne autonomiczne lub półautonomiczne drony – od wyrafinowanych technologicznie dronów stealth (np. Sharp Sword UCAV) po roje mikro-dronów. W 2020 roku zaprezentowano drona w stylu lojalnego skrzydłowego (FH-97), podobnego do koncepcji amerykańskiego Skyborga, a w 2022 roku chińscy naukowcy ogłosili rekord świata – przelot roju 10 dronów przez skomplikowane środowisko przeszkód przy użyciu AI, co sygnalizuje postępy w technologii rojowej. PLA Rocket Force eksperymentuje z AI dla poprawy rozpoznania celów i naprowadzania pocisków.
  • Śmiercionośna broń autonomiczna: Chiny nie zajmują jasnego stanowiska w międzynarodowych dyskusjach na temat zakazu autonomicznej broni, a analizy wskazują na rozwój takich systemów. Naukowcy PLA prowadzą prace nad rozpoznawaniem celów przez AI i automatycznym sterowaniem ogniem dla broni, która potencjalnie mogłaby atakować bez udziału człowieka nationaldefensemagazine.org. Dla eksportu oferowano już bojowe roboty z AI (jak śmigłowiec-dron Blowfish A2). Pekin deklaruje chęć globalnego porozumienia ws. zakazu całkowicie autonomicznej broni – część analityków wskazuje, że jest to postawa taktyczna w trakcie trwających badań nad własnymi systemami.
  • Automatyzacja dowodzenia: Zgodnie z koncepcją intelligentized warfare PLA eksperymentuje z AI w grach wojennych i w podejmowaniu decyzji operacyjnych. W chińskich publikacjach pojawiają się algorytmy AI do planowania wojny, a nawet do operacyjnego dowodzenia w symulacjach. PLA posiada laboratoryjne poligony, gdzie AI symuluje scenariusze inwazji na Tajwan i sugeruje strategie. Nie ma sygnałów wskazujących na powierzenie prawdziwej operacji AI już dziś, lecz celem jest wyraźne ograniczenie wpływu ludzkich ograniczeń w cyklu decyzyjnym dowództwa.

Fuzja cywilno-wojskowa i przewaga techno-autorytarna: Chińskie wojsko zyskuje dzięki rozmytym granicom pomiędzy technologią cywilną a obronną. Dzięki fuzji cywilno-wojskowej – zdobycze z zakresu rozpoznawania twarzy, dużych zbiorów danych (big data), czy fintech AI – mogą być wykorzystywane militarnie. Systemy masowego nadzoru, rozwinięte dla bezpieczeństwa wewnętrznego (wszechobecne kamery z AI, monitoring mediów społecznościowych), to baza kompetencji analizy danych i wizji komputerowej, którą można przekuć na potrzeby wojskowe i wojnę cybernetyczną. Chiny są również oskarżane o stosowanie operacji hakerskich i dezinformacyjnych wspieranych przez AI: raport Microsoftu z 2023 r. dowodził użycia wygenerowanych przez AI obrazów i filmów przez chińskie kampanie wpływu na platformach społecznościowych Zachodu armyupress.army.mil armyupress.army.mil. Zdolność do wykorzystania AI zarówno do twardej, jak i miękkiej siły – od dronów po deepfake’ową propagandę – to unikalny element chińskiego podejścia.

Pozycja globalna i etyka: Na arenie międzynarodowej Chiny do pewnego stopnia pozycjonują się jako zwolennik kontroli zbrojeń w zakresie AI. Wzywały do zakazu stosowania broni autonomicznej przeciwko cywilom oraz do „odpowiedzialnego” wykorzystania AI. Jednak Chiny nie przyłączyły się do tych, którzy domagają się całkowitego zakazu śmiercionośnej broni autonomicznej; prawdopodobnie chcą zachować swobodę rozwoju wojskowych technologii AI, unikając jednocześnie międzynarodowego potępienia. Chińskie oświadczenia często podkreślają, że zawsze powinna istnieć kontrola człowieka na pewnym poziomie, jednak chińscy urzędnicy argumentują również, że całkowity zakaz określonych technologii mógłby hamować postęp. W praktyce postępy militarne Chin sugerują, że wdrożą AI, gdy tylko uznają te systemy za wystarczająco niezawodne, szczególnie w scenariuszu konfliktu, gdzie może to dać im przewagę. Na przykład pojawiły się doniesienia, że chińskie autonomiczne drony i roboty lądowe były testowane podczas potyczek granicznych (np. z Indiami w Tybecie, używając pojazdów robotycznych do logistyki na dużej wysokości).

Podsumowując, podejście Chin jest centralnie sterowane i ambitnie kompleksowe: wdrożyć AI w całej PLA, aby usprawnić wszystko – od logistyki po śmiertelne uderzenia, wykorzystać innowacje cywilnych technologii i dążyć do dorównania lub prześcignięcia możliwościom USA do 2030 roku. Szybki postęp chińskiego wojska – oraz jego gotowość do odważnych eksperymentów z nowymi koncepcjami, jak roje dronów – podkreśla, dlaczego wielu postrzega Chiny jako głównego rywala w „wyścigu zbrojeń AI”. Ostatecznym celem Pekinu jest uzyskanie strategicznej przewagi: zdolność odstraszania lub wygrywania konfliktów dzięki przewadze intelektualnej, manewrowej i wytrzymałościowej dzięki zaawansowanym siłom wspieranym przez AI.

Rosja

Rosja traktuje wojskową AI zarówno jako szansę na zmniejszenie dystansu do armii Zachodu, jak i jako konieczność wynikającą z doświadczeń recentów bitewnych. Pomimo wyzwań ekonomicznych i mniejszego sektora technologicznego w porównaniu do USA czy Chin, rosyjskie przywództwo – w tym prezydent Putin – zdecydowanie podkreśla egzystencjalną wagę niepozostawania w tyle w dziedzinie AI rusi.org. Strategia Moskwy opiera się zatem na inwestowaniu w wybrane zdolności AI, odpowiadające jej mocnym stronom lub pilnym potrzebom, mimo problemów z sankcjami i ograniczonymi zasobami.

Strategiczny kierunek i doktryna: Rosyjska doktryna wojskowa od dawna ceni rozwiązania asymetryczne i technologiczne, pozwalające zrównoważyć konwencjonalne słabości. W przypadku AI Rosja upatruje w tym „skoku rozwojowego”. Krajowa strategia AI (opublikowana w 2019 r.) i kolejne dokumenty polityczne podkreślają obronność jako kluczowy sektor rozwoju AI. W 2024 r. Rosja ogłosiła nowy 10-letni państwowy program zbrojeniowy, który po raz pierwszy zawiera dedykowaną sekcję dotyczącą sztucznej inteligencji – co sygnalizuje wysokopoziomowe zaangażowanie w wdrażanie broni autonomicznych i systemów opartych na AI defensenews.com. Ten kierunek jest częściowo napędzany przez trwającą wojnę Rosji na Ukrainie: konflikt stał się swoistym „laboratorium wojny AI”, z szerokim wykorzystaniem dronów i wojny elektronicznej przez obie strony defensenews.com. Doświadczając niepowodzeń, rosyjscy stratedzy wojskowi apelują o przyspieszenie rozwoju AI w celu modernizacji swoich sił.

Kluczowe programy i osiągnięcia AI: Rosyjskie działania w zakresie AI, choć nie tak hojnie finansowane jak te w USA czy Chinach, są godne uwagi w kilku obszarach:

  • Autonomiczne i bezzałogowe systemy: Przemysł rosyjski opracował serię bezzałogowych pojazdów lądowych (UGV) – np. uzbrojony robot Uran-9, UGV Marker – i testował je w Syrii oraz na Ukrainie. Wyniki były mieszane (Uran-9 miał wiele problemów w Syrii), ale trwają prace nad ulepszeniami. W wojnie na Ukrainie Rosja zastosowała amunicję krążącą (de facto drony kamikadze) oraz różnorodne drony rozpoznawcze. Niektóre z nich, jak np. dron loiterujący Lancet, według doniesień mają półautonomiczne zdolności wyboru celów (np. rozpoznawanie sygnałów radarowych lub typów pojazdów). Rosja inwestuje również w drony podwodne dla marynarki oraz AI dla istniejących platform (jak domniemane tryby autonomiczne w czołgu T-14 Armata).
  • Systemy rakietowe i obrona powietrzna: Armia rosyjska ma tradycję automatyzacji w systemach strategicznych – przykładowo, zimnowojenny automatyczny system odwetu jądrowego „Perimeter” (Dead Hand) wykorzystywał algorytmy automatycznego podejmowania decyzji defensenews.com. W oparciu o to Rosja integruje AI w nowe systemy. Przykładem jest system obrony przeciwlotniczej S-500, dla którego powstaje moduł sterujący oparty o AI, wykonujący ocenę zagrożeń i przewidywanie trajektorii nadlatujących rakiet defensenews.com. Rosyjscy eksperci podkreślają, że AI może znacząco wspierać systemy wymagające błyskawicznych reakcji (jak obrona antyrakietowa czy wojna elektroniczna), gdzie czas reakcji człowieka jest zbyt długi defensenews.com. Podobnie, wykrywanie celów oparte na AI rozwijane jest dla systemów kierowania ogniem czołgów i artylerii, co może poprawić celność i skrócić czas reakcji.
  • Modernizacja istniejącego arsenału: Zamiast budować całkowicie nowe uzbrojenie AI od podstaw, Rosja często modernizuje istniejące platformy poprzez wdrażanie AI. Dyskutowano np. o dodaniu autonomicznej nawigacji i rozpoznawania celów do starszych pojazdów opancerzonych lub wyposażeniu wersji bezzałogowych do realizacji ryzykownych misji (jak dostawy pod ostrzałem). Na Ukrainie rosyjskie oddziały otrzymują aktualizacje oprogramowania zawierające funkcje oparte na AI, takie jak automatyczne śledzenie celów w optyce czy zdalnie sterowane wieżyczki po powrocie wozów do naprawy defensenews.com. Takie stopniowe podejście pozwala Rosji wdrażać funkcje AI szybciej i taniej – choć może mniej efektownie niż w przypadku systemów specjalnie zaprojektowanych pod kątem AI.
  • Baza badawcza i przemysłowa: Rosyjski rząd napędza badania i rozwój AI poprzez państwowe konglomeraty zbrojeniowe oraz nowe inicjatywy. Rostec, ogromny koncern obronny, utworzył w 2022 r. laboratorium sztucznej inteligencji zajmujące się badaniami nad zastosowaniami machine learning defensenews.com. Rząd zbudował również “Era” Wojskowy Technopolis Innowacyjny, kampus badawczy nad Morzem Czarnym, gdzie młodzi inżynierowie i naukowcy pracują nad start-upami technologicznymi dla armii, w tym projektami AI. Pomimo tych działań Rosja napotyka przeszkody: niedobór zaawansowanej mikroelektroniki (pogłębiony sankcjami na układy scalone), odpływ talentów technologicznych oraz mniej dynamiczny ekosystem start-upowy. W celu rekompensaty Rosja próbuje wykorzystywać technologie cywilne – np. Sbierbank (największy bank w Rosji) posiada silny dział badawczy AI, a jego CEO promuje AI jako sposób zarówno na wzrost PKB, jak i wzmocnienie wojska rusi.org. To odzwierciedla, choć na mniejszą skalę, synergię cywilno-wojskową widoczną w Chinach.
  • Na polu bitwy – lekcje z Ukrainy: Tocząca się wojna stała się poligonem doświadczalnym, wymuszając adaptację. Siły ukraińskie – wspierane przez zachodni wywiad i technologię – korzystają z narzędzi z elementami AI (jak mapowanie satelitarne wspomagane AI do naprowadzania artylerii). W odpowiedzi rosyjskie jednostki uczą się zakłócać lub oszukiwać AI zwiadowcze i wdrażać amunicję krążącą o większym poziomie autonomii do zwalczania ukraińskich baterii artyleryjskich. Co ważne, wysokie straty osobowe i sprzętowe uwypukliły w Rosji atrakcyjność autonomicznych systemów redukujących zależność od żołnierzy. W rosyjskiej literaturze wojskowej często pojawia się temat ograniczenia ekspozycji personelu – np. autonomiczne konwoje logistyczne do zaopatrywania pod ostrzałem lub roboty do ewakuowania rannych defensenews.com. Można się spodziewać, że Rosja szczególnie priorytetowo potraktuje te zastosowania AI, które bezpośrednio łagodzą jej problemy militarne (drony, wojna elektroniczna, automatyzacja obrony kluczowych obiektów) podczas odbudowy sił.

Etyka i polityka: Rosja generalnie sprzeciwia się prewencyjnemu zakazowi śmiercionośnej broni autonomicznej w debatach międzynarodowych, opowiadając się – podobnie jak USA i Chiny – za brakiem ścisłych ograniczeń. Rosyjscy urzędnicy podkreślają, że obowiązujące prawo międzynarodowe jest wystarczające oraz że „człowiek musi pozostać odpowiedzialny,” ale sprzeciwiają się jakimkolwiek porozumieniom, które mogłyby ograniczać rozwój nowych rodzajów broni. W praktyce Rosja wydaje się gotowa wdrażać systemy o coraz większym poziomie autonomii, o ile służą one celom taktycznym. Na przykład nie potwierdzono oficjalnie w pełni autonomicznego ataku drona-krążownika produkcji rosyjskiej, ale jeśli byłby on skuteczny, Rosja raczej nie zawahałaby się go użyć. W kraju reżim Putina przedstawia rozwój AI jako kwestię przetrwania narodowego – Putin porównał nawet znaczenie AI do wynalezienia broni jądrowej rusi.org. Retoryka ta sugeruje, że Rosja postrzega pozostanie w tyle w zakresie AI jako niedopuszczalne. Mimo to rosyjska kultura wojskowa jest także bardzo konserwatywna i hierarchiczna; może występować opór wobec zbyt wielkiego zaufania do systemów AI. Powolna adaptacja niektórych zaawansowanych konceptów (np. wojny sieciocentrycznej) w przeszłości wskazuje, że szerokie wdrożenie AI może stanowić wyzwanie.

Podsumowując, rosyjskie podejście do wojskowej sztucznej inteligencji jest oportunistyczne i ukierunkowane. Celem jest wprowadzenie AI w kluczowych obszarach – drony, pociski, wojna elektroniczna – aby zwiększyć swoją siłę, zwłaszcza w relacji do NATO. Wojna w Ukrainie przyspiesza te wysiłki z konieczności. Mimo ograniczeń ekonomicznych i technologicznych Rosja wyraźnie zamierza pozostać w wyścigu AI. Czy przyniesie to pojedyncze „srebrne kule”, czy szerszą transformację, pozostaje do zobaczenia, ale Moskwa jest zdeterminowana, by nie zostać w tyle w erze autonomicznego prowadzenia wojen.

NATO i państwa sojusznicze

NATO i jego państwa członkowskie zgodnie uznają, że AI będzie kluczowa dla przyszłej obrony, dlatego pracują zarówno wspólnie, jak i indywidualnie, aby integrować AI w sposób spójny z wyznawanymi wartościami. NATO, jako organizacja międzynarodowa, nie działa jak pojedyncze państwo – jego rolą jest koordynacja i wytyczanie kierunku rozwoju AI, aby sojusznicze siły zbrojne pozostały interoperacyjne i miały przewagę technologiczną. Oto jak NATO i kluczowi sojusznicy podchodzą do wojskowych wyzwań AI:

Strategia AI NATO: W październiku 2021 roku NATO opublikowało swoją pierwszą w historii Strategię Sztucznej Inteligencji, sygnalizując zaangażowanie Sojuszu w przyjęcie i ochronę AI w obronności armyupress.army.mil. Strategia ta określiła zasady odpowiedzialnego użycia AI w kontekście militarnym – obejmujące zgodność z prawem, odpowiedzialność i rozliczalność, wyjaśnialność i śledzenie, niezawodność oraz możliwość zarządzania. Te zasady odpowiadają standardom wiodących krajów, takich jak USA, i mają zapewnić, że wdrażanie AI przez sojuszników odbywa się zgodnie z prawem międzynarodowym i normami etycznymi. Podczas szczytu NATO w 2022 r. przywódcy powołali również jednomiliardowy fundusz innowacyjny NATO na inwestycje w technologie podwójnego zastosowania (AI to jeden z głównych celów). Do lipca 2024 roku NATO już zaktualizowało swoją strategię AI, podkreślając bezpieczeństwo AI i interoperacyjność, co odzwierciedla dynamiczny rozwój technologii armyupress.army.mil. NATO podkreśla, że musi dotrzymać kroku przeciwnikom w dziedzinie AI – Sekretarz generalny Jens Stoltenberg zauważył, że zaniedbanie tego obszaru zagroziłoby fundamentalnej zasadzie kolektywnej obrony NATO.

Współpraca sojusznicza – DIANA: Flagową inicjatywą NATO jest Defense Innovation Accelerator for the North Atlantic (DIANA). Uruchomiona w 2023 roku, DIANA to sieć łącząca rządowe, prywatne oraz akademickie centra innowacji w krajach NATO, aby przyspieszyć rozwój technologii takich jak AI armyupress.army.mil armyupress.army.mil. DIANA prowadzi programy „wyzwań”, w ramach których startupy i naukowcy rozwiązują konkretne problemy obronne (jak odporność energetyczna, bezpieczna łączność, nadzór) – wiele z nich dotyczy AI i systemów autonomicznych armyupress.army.mil. Uczestnicy mają dostęp do centrów testowych i finansowania w całym NATO, przez co DIANA chce wytwarzać przełomowe rozwiązania na rzecz wszystkich sojuszników. W istocie NATO próbuje połączyć potencjał innowacyjny 31 państw, by konkurować z wielkimi, scentralizowanymi programami rywali, takich jak Chiny. Dodatkowo NATO tworzy centra doskonalenia i grupy ds. AI, danych i cyberobrony, by wymieniać dobre praktyki między armiami.

Największe inicjatywy państw członkowskich: Wśród krajów NATO liderami są Wielka Brytania, Francja i Niemcy, które prowadzą własne programy AI dla wojska:

  • Wielka Brytania opublikowała w 2022 r. Strategię AI dla obronności i powołała „Defence AI and Autonomy Unit”, aby przyspieszyć wdrożenie AI. Zainwestowano w takie projekty jak iLauncher (AI do rozpoznawania celów w broni piechoty) oraz testowano autonomiczne pojazdy logistyczne. Brytyjskie wojsko eksperymentowało także z rojami dronów (w jednym teście 20 dronów było sterowanych przez jednego operatora). Ministerstwo Obrony UK wydało 2,1 miliarda funtów na badania i rozwój w latach 2022-23 w obszarach takich jak robotyka, systemy autonomiczne i AI post.parliament.uk, co pokazuje silne zaangażowanie w nowe technologie.
  • Francja prowadzi rozbudowany program AI, finansując badania w obszarach nadzoru, predykcyjnej konserwacji i planowania misji. Francuska strategia zakłada tzw. „żołnierzy zwiększonych” – człowiek pozostaje w centrum operacji, ale korzysta z narzędzi AI. Na przykład, myśliwce Rafale otrzymują ulepszenia AI do identyfikacji zagrożeń, a armia wykorzystuje AI do analizy transmisji z dronów podczas operacji antyterrorystycznych w Afryce (rejon Sahelu).
  • Niemcy inwestują w AI do fuzji danych w systemach dowodzenia i ostrożnie podchodzą do broni autonomicznej – z naciskiem na zachowanie istotnej „ludzkiej kontroli”. Niemcy, wspólnie z Holandią, przewodzą w NATO projektowi testów i ewaluacji AI, by zapewnić jej niezawodność.
  • Mniejsze państwa NATO wnoszą swoją niszową specjalizację – Estonia przoduje w robotyce wojskowej i wdrażała autonomiczne roboty lądowe podczas ćwiczeń; Holandia prowadzi badania nad AI na rzecz misji pokojowych ONZ; Kanada bada wykorzystanie AI w monitorowaniu Arktyki.

Interoperacyjność i wymiana danych: Wyzwanie (a zarazem szansa) NATO polega na koordynowaniu działań wielu państw. Kluczowe jest zapewnienie interoperacyjności – czyli by systemy AI różnych sojuszników mogły bezproblemowo współdziałać. Oznacza to uzgodnienie standardów danych, protokołów komunikacji, a nawet dzielenie się zestawami danych do treningu uczenia maszynowego. Pomagają w tym federacyjne bazy danych NATO i wspólne ćwiczenia. Przykładowo, lotnictwa sojuszników mogą udostępniać dane radarowe, aby poprawić skuteczność AI w odróżnianiu dronów od ptaków, lub zespoły wywiadu NATO mogą opracować wspólne zestawy danych do trenowania AI rozpoznającej cele. Dzięki łączeniu zasobów sojusznicy chcą razem pokonać każdego pojedynczego przeciwnika pod względem AI.

Przywództwo etyczne: NATO stawia siebie jako lidera norm etycznych w dziedzinie AI wojskowego. Przedstawiciele NATO często podkreślają, że poszanowanie prawa międzynarodowego i wartości demokratycznych wyróżnia sojuszników na tle autorytarnych przeciwników. W październiku 2021 roku, wraz ze strategią AI, NATO określiło, że każde zastosowanie AI w wojnie musi być zarządzalne i śledzalne, czyli dające się wyłączyć lub nadpisać przez dowódcę oraz poddające się audytowi armyupress.army.mil. NATO jednoznacznie stwierdziło, że wszystkie zastosowania AI przez sojuszników muszą mieć ludzką odpowiedzialność. To stanowisko ma uspokajać opinię publiczną i społeczność międzynarodową, że AI NATO nie wymknie się spod kontroli, oraz budować zaufanie między państwami członkowskimi. (Nie byłoby dobrze, gdyby jeden sojusznik kwestionował bezpieczeństwo AI innego podczas współdziałania w zintegrowanej operacji.)

Wojna Rosji w Ukrainie – katalizator dla NATO: Ostatnia wojna na Ukrainie znacząco przyspieszyła działania NATO dotyczące AI. Ukraina, choć nie jest członkiem NATO, korzysta z zachodnich technologii i pokazuje, jak małe drony, łączność satelitarna czy analityka AI (rozpoznawanie celów, priorytetyzacja napraw) mogą zatrzymać większego przeciwnika. Armie sojusznicze obserwowały u Rosjan przemycane z Iranu drony krążące oraz urządzenia do zakłócania AI – co jest wyraźnym sygnałem, że zagrożenia związane z AI już są rzeczywiste. To przyspieszyło takie programy, jak Fundusz Innowacyjny NATO, oraz zapewne wpłynęło na wiele utajnionych inicjatyw obrony przed bronią autonomiczną (na przykład systemy detekcji i neutralizacji dronów, czy ochronę pojazdów pancernych przed uzbrojeniem AI-guided). Wsparcie NATO dla Ukrainy stało się miejscami poligonem do testów zachodnich rozwiązań – niektóre systemy AI do zwalczania dronów przekazane Ukrainie są obecnie oceniane pod kątem wdrożenia w szerszej skali.

Podsumowując, NATO i jego sojusznicy podchodzą do AI z mieszanką entuzjazmu i ostrożności. Są zdecydowani nie oddać przewagi technologicznej rywalom, stąd liczne inwestycje i projekty wspierające innowacyjność. Jednocześnie mocno akcentują wpisanie wartości NATO w wykorzystanie AI – zachowanie ludzkiej odpowiedzialności, przestrzeganie prawa i ochrona przed nadużyciami. Jeśli kolektywny model NATO się powiedzie, może stać się wzorcem międzynarodowych norm dla wojskowej AI. Siła Sojuszu w łączeniu wysiłków wielu państw może być przewagą wobec bardziej „monolitycznych” konkurentów. Nadchodzące lata pokażą, czy demokratyczna koordynacja pokona scentralizowane, autokratyczne programy AI dla wojska.

Rozważania etyczne, prawne i polityczne

Pojawienie się AI i autonomii w sztuce wojennej rodzi głębokie pytania etyczne i prawne. Jak zapewnić, że maszyny podejmujące decyzje o życiu i śmierci będą respektować wartości ludzkie i prawo międzynarodowe? Kto ponosi odpowiedzialność, jeśli autonomiczny system popełni błąd? Te wątpliwości wywołały gorącą debatę wśród decydentów, aktywistów i wojskowych. Poniżej przedstawiono kluczowe problemy etyczne, prawne i polityczne związane z wojskową AI:

  • Lethal Autonomous Weapons (LAWS) – Debata na temat „robotów zabójców”: Być może najpilniejszą kontrowersją są bronie, które mogą wybierać i atakować cele bez interwencji człowieka. Organizacje społeczeństwa obywatelskiego oraz wiele państw ostrzega, że powierzenie algorytmom decyzji o zabijaniu jest nie do przyjęcia. Do 2019 roku 30 krajów wezwało do prewencyjnego zakazu autonomicznych broni śmiercionośnych z powodów etycznych post.parliament.uk. Wśród nich nie znalazły się jednak takie potęgi jak USA, Rosja czy Chiny, które sprzeciwiają się wprowadzeniu zakazu. Debaty w Organizacji Narodów Zjednoczonych odbywają się głównie w ramach konwencji o niektórych rodzajach broni konwencjonalnych (CCW), gdzie Grupa Ekspertów Rządowych dyskutuje o LAWS od 2014 roku. Kluczową kwestią jest potrzeba „znaczącej kontroli człowieka” nad każdą bronią, która może zastosować śmiercionośną siłę carnegieendowment.org. W zasadzie, nawet jeśli broń używa AI do identyfikacji lub śledzenia celów, wielu uważa, że człowiek powinien i tak rozważyć i potwierdzić atak. Państwa mają odmienne poglądy: na przykład Parlament Europejski i Sekretarz Generalny ONZ wzywają do pełnych zakazów, podczas gdy USA i Rosja wolą niewiążące kodeksy postępowania. Na rok 2025 nie istnieje żaden międzynarodowy traktat regulujący autonomiczne bronie, ale rośnie presja, by ustanowić pewne normy. Pod koniec 2023 roku przełomem było przedstawienie pierwszej w historii rezolucji w sprawie broni autonomicznych na Zgromadzeniu Ogólnym ONZ, wraz ze wspólnym apelem Sekretarza Generalnego ONZ i Międzynarodowego Komitetu Czerwonego Krzyża o negocjowanie traktatu do roku 2026 autonomousweapons.org.
  • Odpowiedzialność i zgodność z prawem międzynarodowym: Nieprzewidywalność i złożoność AI powodują, że kwestia odpowiedzialności staje się bardzo problematyczna. Zgodnie z prawami wojny (Międzynarodowe Prawo Humanitarne), strony konfliktu muszą odróżniać cele cywilne od wojskowych i stosować proporcjonalną siłę. Czy system autonomiczny może niezawodnie przestrzegać tych zasad? Wielu ekspertów i urzędników obawia się, że obecna AI nie jest w stanie w pełni pojąć kontekstu lub subtelności – zwiększając ryzyko niezgodnych z prawem szkód. Jeśli dron kierowany przez AI zaatakuje cywila, uważając go za bojownika, kto ponosi odpowiedzialność? Czy dowódca, który go użył, czy programista, czy sama maszyna (będąca podmiotem prawnym nieistniejącym)? Te kwestie pozostają nierozwiązane. Jasne jest natomiast, że wojsko nie może uchylać się od odpowiedzialności, zwalając winę na algorytm; zapewne nadal obowiązuje doktryna odpowiedzialności dowódców. Aby zminimalizować problemy, niektóre armie (np. USA, NATO) wprowadzają rygorystyczne testy i mechanizmy awaryjnego przejęcia kontroli przez człowieka w systemach AI. Niemniej możliwość podejmowania decyzji przez AI w tzw. „czarnej skrzynce” jest problematyczna – zaawansowane sieci neuronowe bywają tak złożone, że nawet ich twórcy nie są w stanie wyjaśnić konkretnej decyzji. Ten brak przejrzystości utrudnia przeglądy prawne i zaufanie na polu walki. Zgodność z MPW to kolejny punkt sporny: podczas spotkań ONZ wiele państw twierdzi, że bez ludzkiego osądu w pełni autonomiczna broń może nie rozróżniać cywilów ani zachować proporcjonalności ataku post.parliament.uk. Zwolennicy odpowiadają, że odpowiednio zaprojektowana AI potencjalnie może być bardziej precyzyjna i zmniejszać straty uboczne. Aktualnie nie ma konsensusu, więc armie podchodzą ostrożnie, utrzymując człowieka w roli decydenta przy użyciu śmiercionośnych środków – przynajmniej do czasu, aż (i jeśli) AI stanie się w pełni zgodna z prawem.
  • Pojawiające się wysiłki w zakresie zarządzania: W braku dedykowanego traktatu, podejmowane są różne bardziej miękkie próby regulacji. Dyskusje w ramach CCW ONZ przyniosły niewiążące wytyczne (np. że MPW w pełni dotyczy broni autonomicznych, a odpowiedzialność zawsze ponoszą ludzie). Postępy są jednak powolne, dlatego pojawiają się alternatywne fora. Wartym uwagi przykładem jest koalicja NGO (Campaign to Stop Killer Robots) i popierających ją państw, które dążą do niezależnego procesu traktatowego – poza ONZ, jeśli to konieczne. W lutym 2023 roku w Kostaryce miała miejsce konferencja, podczas której kraje Ameryki Łacińskiej i Karaibów poparły instrument prawny dotyczący broni autonomicznych autonomousweapons.org. MKCK (strażnik MPW) w 2021 roku wydał rekomendacje: wezwał do zakazu autonomicznych systemów, które atakują ludzi lub są nieprzewidywalne, a pozostałe regulować wymogami kontroli przez człowieka autonomousweapons.org autonomousweapons.org. Regionalnie, UE podejmuje kroki – choć przełomowa ustawa o AI (AI Act), pierwsza tak szeroka regulacja AI, wyklucza zastosowania wojskowe, Parlament Europejski wielokrotnie wzywał do globalnych reguł nt. „robotów zabójców” carnegieendowment.org. Zyskuje też na popularności idea agencji nadzoru na wzór Międzynarodowej Agencji Energii Atomowej, ale dotyczącej AI – „MAEA dla AI”. Nawet CEO OpenAI wypowiadał się o tym w połowie 2023 roku carnegieendowment.org. Wielu przyznaje jednak, że AI różni się zasadniczo od broni atomowej: jest podwójnego zastosowania, szeroko rozproszona i szybko się rozwija carnegieendowment.org, co utrudnia wdrożenie klasycznego reżimu kontroli zbrojeń. Niemniej, fakt, że AI przez niektórych światowych liderów jest postrzegana jako potencjalnie „technologia o poziomie zagrożenia egzystencjalnego” carnegieendowment.org, napędza poważną debatę o formie globalnego zarządzania – czy to zwyczajów, czy formalnych traktatów. Sytuacja może szybko się zmienić, jeśli dojdzie np. do poważnego incydentu z udziałem broni autonomicznej – to prawdopodobnie wywołałoby pilne nawoływania do działania.
  • Samoregulacja wojska i przemysłu: Równolegle do dyplomacji międzynarodowej rozwijane są wewnętrzne polityki zarządzania ryzykiem AI. Jak wspomniano, amerykański Departament Obrony zaktualizował w 2023 roku dyrektywę dotyczącą autonomii broni (3000.09), zasadniczo potwierdzając, że systemy autonomiczne muszą umożliwiać sąd człowieka oraz ustalając procedury zatwierdzania en.wikipedia.org. Zasady odpowiedzialnej AI NATO kierują siłami sojuszu. Kraje takie jak Francja i Wielka Brytania publicznie zadeklarowały, że pozostawią człowieka w obiegu przy decyzjach o użyciu siły śmiercionośnej (francuska minister obrony w 2019 roku stwierdziła, że Francja „odmawia powierzenia decyzji o życiu lub śmierci maszynie działającej w pełni autonomicznie”). Takie zapewnienia mają na celu znalezienie równowagi: rozwijać broń AI, ale nie bez kontroli. Po stronie przemysłu duże firmy technologiczne posiadają własne zasady etyki AI i nie zawsze chętnie angażowały się w projekty wojskowe. Obecnie jednak następuje zmiana: w styczniu 2024 roku OpenAI (twórca ChatGPT) cicho wycofał wcześniejszy zapis zakazujący użycia swojej technologii do „broni lub działań wojennych”. Usunięto zakaz ogólny, co sygnalizuje nowe otwarcie na kontrakty wojskowe carnegieendowment.org. To odzwierciedla szerszy trend – firmy takie jak Microsoft czy Google publikują zasady AI, ale coraz częściej współpracują z wojskiem (np. Microsoft przy HoloLens dla armii, Google przy małych kontraktach na chmurowe AI dla Pentagonu). Wiele firm uzasadnia ten udział tym, że pozwoli to wojsku na odpowiedzialne użycie AI i że zachodnie demokracje powinny mieć najlepszą technologię. Dylematem etycznym dla przemysłu pozostaje jednak zapewnienie, by AI nie była nadużywana ani nie szkodziła cywilom – część firm stawia w kontraktach wymogi nadzoru przez człowieka lub odrzuca projekty wysokiego ryzyka. Granica między cywilnym a militarnym AI jest jednak płynna i problemy podwójnego zastosowania są powszechne. Algorytm rozpoznawania twarzy stworzony dla handlu detalicznego można wykorzystać do namierzania celów; AI z samochodu autonomicznego może posłużyć w bezzałogowych pojazdach bojowych. Dlatego nawet niektórzy liderzy technologii apelują o globalne standardy lub przynajmniej „czerwone linie” (np. zakaz systemów, które autonomicznie odpalają broń nuklearną).
  • Ryzyko proliferacji i nadużyć: Z etycznego punktu widzenia pojawia się obawa, kto zdobędzie te zaawansowane zdolności AI. Jeśli USA, Chiny i Rosja opracują broń AI, technologia ta może nieuchronnie rozprzestrzenić się na mniej odpowiedzialne reżimy lub aktorów niepaństwowych (terrorystów, grupy powstańcze). Przaśny dron autonomiczny lub „zabójcze” oprogramowanie AI można skopiować i użyć bez poszanowania prawa wojny. To argument zwolenników regulacji prewencyjnej – by zapobiec dzikiemu zachodowi broni AI. Już w Libii w 2020 roku byliśmy świadkami przypadku, gdy dron Kargu-2 (produkowany w Turcji) prawdopodobnie autonomicznie ścigał wycofujących się bojowników autonomousweapons.org. Jeśli się to potwierdzi, incydent pokazuje, że nawet państwa średniej wielkości lub ich pełnomocnicy mogą korzystać ze śmiercionośnej siły autonomicznej. Etyczny i bezpieczeństwa dylemat polega na tym, że jeśli jedno państwo użyje takich systemów, inne będą się bały zostać w tyle – i też je wprowadzą. To klasyczna dynamika wyścigu zbrojeń, ale przyspieszona. Potencjał AI do obniżenia progu wejścia w konflikt jest realny: przywódcy mogą łatwiej podejmować decyzje o rozpoczęciu działań wojennych, jeśli nie narażają własnych żołnierzy i AI „załatwi brudną robotę”. To rodzi poważne dylematy moralne dotyczące istoty wojny i pokoju – jeśli wojna stanie się „łatwiejsza” (mniejszy koszt ludzki dla agresora), czy stanie się częstsza? Humanitarne głosy ostrzegają, by nie dopuścić do usunięcia sumienia ludzkiego z decyzji o wojnie.

Podsumowując, świat zmaga się z problemem kontroli i ograniczania wojskowej AI, aby korzystać z jej zalet, nie podważając przy tym etyki i stabilności. Dotąd nie uzgodniono jednego ramowego rozwiązania, ale dyskusja nabiera tempa. Obejmuje ona środki techniczne (np. wbudowane zabezpieczenia, testy), zasady normatywne (wymóg nadzoru człowieka) i instrumenty prawne (polityki krajowe, a być może traktaty). Najbliższe lata – do 2030 – mogą okazać się decydujące dla ustanowienia zasad stosowania AI w wojnie. Znalezienie właściwej równowagi jest kluczowe, bo może oznaczać różnicę między AI jako narzędziem, które ratuje życie poprzez ograniczenie ofiar cywilnych, a tym, które odbiera życie z nieludzką skutecznością. Przed społecznością międzynarodową stoi wyzwanie, by człowiek zachował kontrolę nad śmiercionośną siłą – nawet gdy maszyny stają się coraz zdolniejsze.

Korzyści i ryzyka związane z wojskową sztuczną inteligencją

Sztuczna inteligencja niewątpliwie oferuje znaczące korzyści dla operacji wojskowych – ale wiąże się również z poważnymi ryzykami. Poniżej przedstawiamy główne potencjalne zalety, jakie AI wnosi do obronności, a także towarzyszące im zagrożenia i niezamierzone konsekwencje, które należy kontrolować i ograniczać.

Kluczowe korzyści AI w wojsku i obronności:

  • Zwiększona szybkość podejmowania decyzji i precyzja: AI może analizować dane z pola walki i przedstawiać opcje znacznie szybciej niż ludzki personel, skutecznie przyspieszając cykl OODA (obserwuj–orientuj się–decyduj–działaj). Ta szybkość może zapewnić decydującą przewagę. Jak zauważyła zastępczyni sekretarza obrony USA Kathleen Hicks, integracja AI pomaga dowódcom podejmować decyzje szybciej i precyzyjniej – zapewniając „przewagę decyzyjną” nad przeciwnikiem defense.gov. Na przykład system dowodzenia wspomagany przez AI może łączyć sygnały z dziesiątek sensorów i rekomendować optymalny ruch obronny w ciągu kilku sekund od wykrycia nadlatującego pocisku – prędkość reakcji nieosiągalna dla człowieka.
  • Mnożenie siły i efektywność operacyjna: AI pozwala wojskom osiągać więcej mniejszymi zasobami. Systemy autonomiczne mogą działać nieprzerwanie bez zmęczenia, wykonywać nudne lub niebezpieczne zadania oraz patrolować większe obszary (na lądzie, w powietrzu, na morzu) przy mniejszym zaangażowaniu ludzi. To może radykalnie zwiększyć efektywność operacyjną. Zadania takie jak ciągły nadzór powietrzny lub powtarzalny transport logistyczny, które angażowałyby wielu ludzi, można zlecić dronom i pojazdom opartym o AI. Sztuczna inteligencja optymalizuje także zarządzanie zasobami – od harmonogramów konserwacji po rozmieszczenie wojsk – ograniczając marnotrawstwo. Badanie logistyki armii wykazało, że zastosowanie AI w zarządzaniu łańcuchem dostaw może poprawić efektywność o ponad 20%, co przekłada się na szybsze dostarczenie części zamiennych i zapobieganie problemom z utrzymaniem sprzętu army.mil army.mil.
  • Zmniejszenie ryzyka dla żołnierzy: Jedną z najbardziej humanitarnych zalet wojskowej AI jest możliwość wyeliminowania ludzi z najbardziej niebezpiecznych ról. Systemy bezzałogowe mogą prowadzić rekonesans w poszukiwaniu zasadzek, rozminowywać teren lub przyjmować na siebie ostrzał w miejsce żołnierzy. W środowiskach wysokiego ryzyka (np. skażone obszary jądrowe) roboty mogą prowadzić rozpoznanie tam, gdzie wysłanie ludzi stanowiłoby zagrożenie życia. Nawet w aktywnej walce stosowanie autonomicznych czy zdalnie sterowanych systemów do „3D” (do zadań nudnych, brudnych i niebezpiecznych) może ratować ludzkie życie. Znanym celem jest, aby „pierwszy przez drzwi” podczas szturmu był robot, a nie człowiek. Podobnie ewakuacja rannych lub dostarczanie zaopatrzenia pod ostrzałem możliwe byłoby poprzez pojazdy autonomiczne, oszczędzając sanitariuszy i kierowców. Z czasem, wraz z rozwojem AI, całe misje (jak głęboka penetracja lub polowanie na okręty podwodne) mogą być zlecane jednostkom bezzałogowym – co oznacza mniej ofiar wśród ludzi wracających do domu w trumnach.
  • Efektywność kosztowa i skalowalność: Chociaż zaawansowane systemy AI wymagają inwestycji początkowych, wiele platform opartych na AI (szczególnie mniejsze drony i oprogramowanie) jest stosunkowo tanich i łatwo skalowalnych. To zapewnia przewagę asymetryczną pod względem kosztów. Na przykład we współczesnych konfliktach obserwujemy, jak tanie drony niszczą znacznie droższy sprzęt – dron komercyjny za 2 000 dolarów eliminuje system obrony powietrznej wart 2 miliony dolarów armyupress.army.mil. Rój tanich autonomicznych dronów może przytłoczyć zaawansowaną obronę samą ilością. Jeśli armia może rozmieszczać 100 dronów AI za cenę jednego myśliwca, bilans kosztów przemawia za podejściem AI. Automatyzacja może też ograniczyć koszty personelu (jeden operator może nadzorować flotę 10 robotów). Trening AI (na danych i symulatorach) bywa tańszy i szybszy niż szkolenie ludzi na porównywalne stanowiska. W dłuższej perspektywie AI pozwala też zaoszczędzić na utrzymaniu sprzętu, wydłużając jego życie i zapobiegając awariom.
  • Lepsza precyzja i ograniczenie zniszczeń ubocznych: Odpowiednio zaprojektowane systemy AI do namierzania celów mogą zwiększyć precyzję ataków i identyfikacji zagrożeń. Przykładowo, AI analizująca obrazy może wykryć maskowany pojazd na zdjęciu satelitarnym, który umknąłby uwadze analityka-ludzkiego, zapewniając trafienie w prawidłowy cel. Uzbrojenie naprowadzane przez AI może precyzyjniej trafiać i nawet przerwać atak, jeśli nie zostaną spełnione parametry, zapobiegając przypadkowym strzałom. AI sterująca obroną powietrzną może szybciej zareagować na nadlatującą rakietę i obliczyć tor przechwycenia tak, by minimalizować ryzyko upadku odłamków na tereny zamieszkane. Zwolennicy twierdzą, że w miarę rozwoju AI będzie ona ściślej przestrzegać reguł użycia broni niż człowiek pod wpływem adrenaliny, ograniczając ofiary cywilne podczas wojny. (Ta korzyść zależy oczywiście od bardzo rygorystycznego testowania AI, ale jest kluczowa.)
  • Korzyści strategiczne i odstraszające: Na wyższym poziomie posiadanie zaawansowanych zdolności AI może być samo w sobie czynnikiem odstraszającym wobec przeciwników. Jeśli wojsko jednego państwa jest wyraźnie zasilane AI i może błyskawicznie oraz skutecznie odpowiedzieć na akt agresji, przeciwnik może dwa razy się zastanowić, zanim rozpęta konflikt. AI może także wzmacniać stabilność odstraszania nuklearnego, poprawiając systemy wczesnego ostrzegania i wspierając decyzje przywódców, potencjalnie redukując ryzyko błędnych kalkulacji. Dodatkowo AI pomaga w symulacjach strategicznych i rozwijaniu doktryn, analizując tysiące „co jeśli” scenariuszy i doradzając planistom najlepsze rozwiązania – taka przewaga intelektualna może przełożyć się na przewagę w realnych konfliktach. Przykładowo dowódcy przed dużą operacją mogą skorzystać z symulacji AI, by przewidzieć ruchy wroga i zoptymalizować własny plan, przechytrzając przeciwnika od samego początku.

Główne ryzyka i wady wojskowej AI:

  • Nieumyślna eskalacja i utrata kontroli ludzkiej: Jedną z największych obaw jest to, że systemy AI, działając z prędkością maszynową, mogą eskalować konflikt poza intencje ludzi. Jeśli autonomiczne uzbrojenie po obu stronach zacznie wzajemnie oddziaływać (np. drony walczące w powietrzu lub AI sterujące cyberobroną odpowiadające atakiem w czasie rzeczywistym), sytuacja może wymknąć się spod kontroli szybciej, niż dowódcy zdążą zareagować. Badanie przeprowadzone przez RAND Corporation w 2020 r. wykazało, że prędkość działania autonomicznych systemów prowadziła do niezamierzonej eskalacji autonomousweapons.org. Algorytmy, w przeciwieństwie do ludzi, nie mają szerokiego osądu i ostrożności – AI może zinterpretować sygnał elektroniczny jako atak i otworzyć ogień, rozpoczynając śmiertelną wymianę, której nie chciała żadna ze stron. Takie ryzyko „błyskawicznej wojny” jest szczególnie niepokojące w kontekście nuklearnym: można sobie wyobrazić, że system wczesnego ostrzegania AI pomyli stado ptaków z nadlatującymi rakietami. Jeśli zareaguje automatycznie, skutki mogą być katastrofalne. Dlatego utrzymanie realnej kontroli ludzkiej jest kluczowe – ale wraz ze wzrostem szybkości AI, utrzymanie ludzi w decyzyjnym łańcuchu staje się coraz trudniejsze.
  • Cyfrowe podatności i hakowanie AI: Paradoksalnie, choć AI jest używana do wzmacniania cyberobrony, sama staje się celem cyberataków. Przeciwnicy mogą dążyć do włamania lub oszukania wojskowych systemów AI, co może mieć katastrofalne skutki. Przykładowo, podstawiając złośliwe dane, wróg może sprawić, że AI ds. celowania źle rozpozna przyjaciela jako wroga i odwrotnie. Istnieje też ryzyko wprowadzenia złośliwego oprogramowania, które przejmie kontrolę nad dronem lub pojazdem – kierując naszą bronią przeciw nam lub po prostu unieruchamiając ją w krytycznym momencie. Wraz z integracją AI w systemy dowodzenia powodzenie cyberataku może sparaliżować armię. Zapewnienie solidnego cyberbezpieczeństwa AI (obejmujące zabezpieczenie danych treningowych i algorytmów) jest bardzo trudne. Dodatkowo AI może być podatna na specjalne ataki wykrzywiające percepcję algorytmu – np. odpowiedni układ pikseli sprawia, że rozpoznawanie obrazu widzi czołg tam, gdzie go nie ma. Jeśli wróg odkryje te „słabe punkty”, może dosłownie oszukać „oczy” AI. AI to nadal oprogramowanie, a oprogramowanie można zhakować – przerażająca perspektywa, gdy AI steruje realną bronią. Systemy wojskowe są wzmacniane, ale nie ma stuprocentowego zabezpieczenia i przejęcie AI przez wroga może być śmiertelne.
  • Nieumyślne ostrzały i szkody wśród ludności cywilnej: Błędna identyfikacja to ryzyko obecne zawsze. Dzisiejsza AI, zwłaszcza o głębokich sieciach uczących się, potrafi popełnić absurdalne błędy – np. rozpoznać na zdjęciu żółwia jako karabin przez nietypowe powiązania wzorców. W warunkach walki oznacza to nieprawidłowe wybieranie celów. Przykładowo, autonomiczny dron może pomylić cywilny pojazd z wojskowym, jeśli nie został odpowiednio przeszkolony na rzeczywistych przykładach. Lub system AI zabezpieczający bazę może przesadnie zareagować i otworzyć ogień do cywili. W przeciwieństwie do ludzi, AI nie posiada intuicji ani zdrowego rozsądku, by zakwestionować nietypowy wynik – wykonuje polecenia zgodnie z programem. Jeśli scenariusz nie został przewidziany w danych treningowych, AI może zachować się nieprzewidywalnie. Systemy AI często postrzega się jako czarne skrzynki, a ich skłonność do zawodzenia w nieprzewidzianych warunkach jest problematyczna. Incydent z 2020 r. w Libii (gdzie autonomiczny dron mógł zaatakować bojowników bez bezpośredniego rozkazu) to ostrzeżenie – szczęśliwie nie było to masowe zdarzenie, jednak pokazuje zagrożenie. Ryzykiem etycznym jest śmierć z powodu błędu technicznego lub „martwego pola” AI. Taki pojedynczy wypadek może mieć daleko idące skutki moralne i strategiczne (wyobraźmy sobie atak AI na własnych sojuszników lub neutralny kraj – może wybuchnąć kryzys polityczny). Dlatego wielu dowódców obstaje, by człowiek monitorował i mógł w razie czego interweniować – ale w erze rojów AI nadzór ludzki może nie wystarczyć.
  • Algorytmiczne uprzedzenia i nadużycia: AI uczy się na podstawie danych, a jeśli te dane są stronnicze lub błędne, AI może zachowywać się w sposób dyskryminujący lub niepożądany. W wojsku oznacza to, że AI może systematycznie źle rozpoznawać wybrane cele. Np. system nadzoru trenowany głównie na zdjęciach męskich bojowników może słabiej rozpoznawać kobiety walczące lub cywilów, prowadząc do przeoczeń lub nieuzasadnionych podejrzeń. Obawy budzi też autorytarny nadzór: reżim może wykorzystać AI wojskową do tłumienia ludności cywilnej (np. autonomiczne drony do rozpraszania zamieszek albo nieustanny nadzór AI do ścigania opozycji). Granica między obroną zewnętrzną a użyciem wewnętrznym się zaciera – to rodzi kwestie praw człowieka. A gdy już rozwinie się śmiercionośną AI, istnieje ryzyko jej użycia z naruszeniem prawa (np. pozbywanie się przeciwników politycznych przez „samodzielnego robota-zabójcę”). Są to ryzyka bardziej spekulatywne, ale powinny być uwzględnione przy projektowaniu polityki.
  • Wyścig zbrojeń i niestabilność strategiczna: Ryzykiem AI na poziomie strategicznym jest niekontrolowany wyścig zbrojeń, w którym państwa czują się zmuszone do szybkiego wdrażania AI w obawie przed pozostaniem w tyle. Prowadzi to do pośpiechu w rozwoju, niedokładnych testów i większej liczby awarii. To także czynnik destabilizujący: jeśli kraje nie mogą precyzyjnie ocenić wzajemnych możliwości (AI to oprogramowanie, trudne do zobaczenia z satelity w przeciwieństwie np. do czołgów czy rakiet), najgorsze założenia mogą napędzać napięcia. Może dojść do wzajemnej nieufności automatów: AI obu stron błędnie interpretują działania przeciwnika, prowokując kryzysy. Niektórzy porównują to do wczesnego zimnowojennego „palca na spuście”, ale dziś to algorytmy mogą być „na spuście”. AI może zwiększać odstraszanie poprzez siłę, ale też osłabiać kanały komunikacji ludzi z ludźmi, które niejednokrotnie ratowały świat przed wojną atomową w XX wieku (np. kryzys kubański – czy AI zachowałaby tę samą powściągliwość?). Część ekspertów ostrzega więc, że nieograniczona konkurencja w wojskowej AI może podnieść ryzyko wojny, nawet nieumyślnie carnegieendowment.org. Z drugiej strony, prawidłowo zarządzana AI mogłaby poprawiać stabilność przez eliminację niepewności (doskonały nadzór, brak ataków z zaskoczenia itp.), ale to wariant optymistyczny. W praktyce ryzyko błędnej kalkulacji wzrasta, gdy w grę wchodzi autonomia algorytmów – chyba że wprowadzi się poważne środki zaufania i być może kontrolę zbrojeń.

Analizując te korzyści i zagrożenia, widać wyraźnie, że wojskowa AI to miecz obosieczny – często ta sama cecha, która daje jej przewagę (szybkość, autonomia, zdecydowanie), przynosi też ciemną stronę (błyskawiczna eskalacja, utrata kontroli, sztywność). Armie i decydenci aktywnie starają się maksymalizować zalety (poprzez rygorystyczne testowanie, wdrażanie etapami, współpracę człowieka z maszyną zamiast całkowitej autonomii) i minimalizować słabe strony (przez zabezpieczenia, nadzór oraz międzynarodowy dialog nt. norm). Nadzieją jest, że przy właściwym sterowaniu AI rzeczywiście uczyni wojnę bardziej precyzyjną, mniej kosztowną i krótszą, unikając masowych rzezi XX wieku. Obawą jest natomiast, że bez nadzoru AI uczyni konflikt jeszcze bardziej niszczycielskim i mniej przewidywalnym. Najbliższe lata będą kluczowe dla znalezienia właściwej równowagi – by korzystać z zalet AI w obronie i odstraszaniu, a jednocześnie ograniczyć ryzyko tak, by ludzkość była bezpieczniejsza, nie zagrożona, w świecie napędzanym sztuczną inteligencją.

Porównanie zdolności i inwestycji państw w zakresie wojskowej sztucznej inteligencji

Aby zrozumieć światowy krajobraz wojskowej sztucznej inteligencji (AI), warto porównać, jak różne kraje inwestują w te technologie i je rozwijają. Poniższa tabela prezentuje najważniejsze państwa/bloki, ich szacowane wydatki na AI w obronności oraz przykłady kluczowych systemów lub inicjatyw AI w siłach zbrojnych:

Kraj/BlokSzacowane inwestycje w wojskowe AIWyróżniające się zdolności i inicjatywy AI
Stany Zjednoczone~1,8 mld USD rocznie (budżet Pentagonu na AI FY2024) defensescoop.com, plus kolejne miliardy na badania i rozwój systemów autonomicznych nationaldefensemagazine.org.– Project Maven (AI do analizy obrazu) sprawdzony w zwalczaniu terrorystów defense.gov.
– Joint All-Domain Command & Control (JADC2) łączący siły dzięki AI; program ACE DARPA pozwolił AI pilotować F-16 w 2023 roku darpa.mil.
– Loyal Wingman: USAF zaplanowały ponad 1000 autonomicznych CCA do 2030 r. airforce-technology.com.
– JAIC/CDAO DoD centralizuje rozwój AI; wdrożono wytyczne etyczne (konieczność ludzkiej decyzji w użyciu śmiercionośnym) en.wikipedia.org.
Chiny„Niskie miliardy” USD rocznie (porównywalnie z USA) na wojskowe AI, według analityków nationaldefensemagazine.org. Ogólny rynek AI w Chinach to ~23 mld USD w 2021, cel: 150 mld USD do 2030 roku armyupress.army.mil.– Doktryna „inteligentnych wojen”: PLA inwestuje w nadzór, drony autonomiczne, wsparcie decyzyjne carnegieendowment.org.
– AI w analizie wywiadowczej, predykcyjnym utrzymaniu i rozpoznawaniu celów nationaldefensemagazine.org.
– Liczne programy UAV (drony stealth, roje); test dronów do napaści na wyspy 2024 armyupress.army.mil.
– Fuzja cywilno-wojskowa wykorzystuje AI koncernów technologicznych; rozwój pocisków i dronów morskich ze sztuczną inteligencją.
RosjaDokładne wydatki nieznane; AI częścią planu obronnego 2024–2033 mimo sankcji. Oficjalna wartość rynku AI Rosji: ok. 7,3 mld USD (cywilne i wojskowe) w 2023 r. defensenews.com.– Nacisk na broń autonomiczną: Nowy departament AI w MoD, AI w S-500 do przyspieszenia reakcji defensenews.com.
– Roboty bojowe (np. Uran-9) i amunicja krążąca używane w Syrii/Ukrainie; modernizacja starych systemów poprzez AI defensenews.com.
– AI w zakresie walki elektronicznej i cyberataków (zakłócanie, włamania) do przeciwdziałania zaawansowanym technologiom.
– Ograniczenia: dominacja laboratoriów państwowych (laboratorium AI Rostecu), technologia podwójnego zastosowania; deficyt talentów i mikrochipów ogranicza skalę.
NATO (Sojusznicy)Fundusz wspólny NATO: 1 mld € NATO Innovation Fund (2022) na nowoczesne technologie. Wydatki głównych członków: np. Wielka Brytania ~2,1 mld £ na B+R w obronności 2022 (w tym AI i autonomię) post.parliament.uk.– Strategia NATO ws. AI przyjęta w 2021 r., aktualizowana w 2024 r. z naciskiem na odpowiedzialność armyupress.army.mil.
– Program akceleracyjny DIANA wspiera rozwiązania start-upów w AI, danych itp. w ramach sojuszu armyupress.army.mil.
– Zdolności sojuszników: USA prowadzi (patrz wyżej); Wielka Brytania testuje roje i autonomiczną logistykę; Francja rozwija UAV-y z AI; Niemcy skupiają się na wsparciu dowodzenia z użyciem AI.
– Ćwiczenia interoperacyjności NATO zapewniają współdziałanie systemów AI różnych państw; wspólne zasady etyczne redukują ryzyka.

Uwagi: Wskazane kwoty mają charakter przybliżony i stosowane metodologie się różnią (niektóre obejmują wyłącznie programy AI, inne również szeroko pojętą autonomię i robotykę). „Przykładowe zdolności” to wyłącznie reprezentatywne przykłady, nie pełna lista. Wszyscy wymienieni gracze stale zwiększają nakłady i zakres rozwoju AI – sytuacja szybko się zmienia.

Powyższe porównanie pokazuje, że USA i Chiny zdecydowanie górują pod względem finansowania i rozmachu programów wojskowych AI, wyznaczając „wyścig zbrojeń” w tej dziedzinie. USA korzysta z ogromnych budżetów obronnych i innowacji prywatnych firm technologicznych. Chiny opierają się na państwowych strategiach i fuzji cywilno-wojskowej. Rosja, mimo mniejszych środków, stawia na wybrane obszary (systemy bezzałogowe, walka elektroniczna) podyktowane strategiczną koniecznością. Tymczasem NATO korzysta z podejścia kolektywnego: wspólne fundusze i normy mają zapewnić, że kraje Zachodu nie zostaną w tyle technologicznie – nawet jeśli ich pojedyncze budżety są mniejsze niż w USA czy Chinach – oraz że wdrażana sztuczna inteligencja zgodna jest z wartościami demokratycznymi.

Warto dodać, że także inne kraje nieujęte w tabeli prowadzą aktywne programy: na przykład Izrael jest światowym liderem w zakresie autonomicznych dronów i AI do ochrony granic (często eksportując je na cały świat), a Południowa Korea, Japonia, Indie i Turcja szybko rozwijają własne wojskowe AI (Korea Południowa – robotyczne systemy strażnicze, Indie – zespół AI dla obronności, Turcja – roje dronów oraz amunicja krążąca widoczna w ostatnich konfliktach). Krajobraz coraz bardziej globalny, jednak to strategie oraz poziomy inwestycji USA, Chin, Rosji i NATO wyznaczają ton zmian w równowadze sił militarnych ery AI.

Oś czasu wybranych przełomów w dziedzinie militarnego AI

Aby lepiej zrozumieć ewolucję AI w wojskowości, poniżej przedstawiono oś czasu wybranych przełomów, wydarzeń i wdrożeń, które wyznaczyły drogę sztucznej inteligencji i autonomii w konfliktach zbrojnych:

  • 2017 – Start Project Maven i uruchomienie strategii AI: W kwietniu amerykański Departament Obrony powołuje Project Maven, czyli Algorytmiczny Zespół ds. Wojny, mający wdrożyć AI do analizy obrazów z dronów defense.gov. Już pod koniec roku algorytmy Maven do rozpoznania obrazu używane są na Bliskim Wschodzie do identyfikowania bojowników na nagraniach z dronów, co udowadnia użyteczność AI na polu walki. We wrześniu Władimir Putin ogłasza, że kto opanuje AI, „zdominuje świat” — podkreślając strategiczne zainteresowanie. Chiny wdrażają Plan rozwoju AI nowej generacji, oficjalnie zakładający także rozwój militarnego AI i światowe przywództwo do 2030 r.
  • 2019 – „Wojna inteligentna” i inicjatywy etyczne: Chińska Biała Księga Obrony Narodowej akcentuje przechodzenie do „wojny inteligentnej”, czyli szerokiego wdrożenia AI w PLA carnegieendowment.org. Amerykański Departament Obrony publikuje pierwszą Strategię AI (jawne podsumowanie), priorytetowo traktując wdrożenie AI do rywalizacji mocarstw. Powstaje także Joint AI Center (JAIC) – centrum koordynacji wszystkich wojskowych projektów AI. Na polu etyki, Defense Innovation Board USA proponuje zasady etyki AI, przyjęte oficjalnie w 2020 r.; na forum międzynarodowym narasta debata nad autonomiczną bronią i regulacjami.
  • 2020 – Pierwsze boje broni autonomicznej: Autonomiczne systemy bojowe po raz pierwszy w akcji. Z raportu ONZ wynika, że w marcu 2020 r., podczas wojny domowej w Libii, turecki dron Kargu-2 zaatakował autonomicznie wycofujących się bojowników bez rozkazu człowieka autonomousweapons.org — być może pierwszy przypadek „polującej” autonomicznej broni AI. W sierpniu, w konkursie AlphaDogfight Trials DARPA w USA AI firmy Heron Systems pokonuje doświadczonego pilota F-16 z wynikiem 5:0 na symulatorze armyupress.army.mil, potwierdzając postęp AI w lotniczych walkach manewrowych. Jednocześnie wojna o Górski Karabach (Azerbejdżan vs Armenia) pokazuje użycie amunicji krążącej i dronów AI (często izraelskiej produkcji) do niszczenia pancerzy i OPL, zwiastując nową erę wojny.
  • 2021 – Strategia AI NATO i demonstracje rojów: NATO przyjmuje pierwszą strategię AI (październik), wprowadzając zasady odpowiedzialnego użycia i wsparcia innowacji armyupress.army.mil. Amerykańska armia uruchamia pierwsze AI Integration Center, a Departament Obrony formalnie wdraża zasady etyczne (np. śladowość i sterowalność decyzji AI). Na Bliskim Wschodzie Izrael po raz pierwszy używa podobno roju dronów AI w walce (konflikt w Gazie) – jeden z pierwszych przypadków skoordynowanego „polowania” dronowego. Na forum ONZ w ramach CCW narasta impas: znaczna grupa państw chce zakazu broni autonomicznej, mocarstwa odmawiają – nie ma konsensusu do podjęcia negocjacji.
  • 2022 – Wojna na pełną skalę (Ukraina) i reakcje świata: Inwazja Rosji na Ukrainę (luty 2022) staje się poligonem technologii militarnych: Ukraina używa AI do rozpoznania (identyfikacja żołnierzy przez rozpoznawanie twarzy, analiza obrazów satelitarnych do naprowadzania artylerii), Rosja – dronów Shahed-136 (irańskich) i własnej amunicji krążącej – „fire and forget” z AI do ataków na infrastrukturę cywilną. Konflikt określany jest mianem „laboratorium wojny AI„, a firmy prywatne jak Palantir dostarczają Ukrainie platformy AI do rozpoznania i logistyki carnegieendowment.org. NATO reaguje: rusza akcelerator DIANA i fundusz innowacji 1 mld € na start-upy AI. W październiku CDAO (Chief Digital and AI Office) zastępuje JAIC, by szybciej wpływać na operacje. Efekt: wyścig inwestycji w AI przez wielu państw świata.
  • 2023 – Przełomy technologiczne i zmiany polityki: W styczniu Departament Obrony USA aktualizuje dyrektywę 3000.09 o autonomii broni, utrzymując wymóg ludzkiej decyzji, ale klarując zasady rozwoju broni AI en.wikipedia.org. Program ACE DARPA w grudniu 2022 (upubliczniony 2023) osiąga światowy rekord: AI pilotuje prawdziwego F-16 (X-62 VISTA) w wielu lotach – także w walce powietrznej, całkowicie bez człowieka za sterami darpa.mil. Wiosną sekretarz USAF zapowiada zamówienie 1000 dronowych skrzydłowych z AI do 2030 r. airforce-technology.com. W świecie korporacji OpenAI znosi zakaz użycia AI dla wojska, co jest sygnałem akceptacji pracy dla obrony przez Big Tech carnegieendowment.org. Międzynarodowo: impas ONZ skutkuje pierwszą rezolucją Zgromadzenia Ogólnego ws. autonomicznej broni, Sekretarz Generalny ONZ popiera wezwania do traktatu autonomousweapons.org.
  • 2024 – Ćwiczenia rojów i wezwania traktatowe: W połowie 2024 r. Chiny przeprowadzają spektakularne ćwiczenia roju dronów (z morza i powietrza) do symulacji „desantu na wyspę” — odbierane jako trening na wypadek Tajwanu armyupress.army.mil. NATO na Szczycie Waszyngtońskim (lipiec) aktualizuje strategię AI pod kątem bezpieczeństwa, testowania i wymiany danych armyupress.army.mil. Jesienią kraje Globalnego Południa i Europy łączą siły w Pierwszym Komitecie ONZ, by wymusić rozpoczęcie negocjacji nad regulacjami broni autonomicznej. Armia USA wprowadza prototypy autonomicznych pojazdów bojowych na ćwiczeniach, a Marynarka testuje po raz pierwszy autonomię okrętów wojennych w ćwiczeniach floty. W obliczu tych trendów Sekretarz Generalny ONZ (koniec 2024) ostrzega, że AI w wojnie to „poważne zagrożenie dla ludzkości”, wzywając do nowych zasad do 2026 roku. W tym roku wdrażane są pierwsze wojskowe konstelacje satelitów z AI (wykorzystujące AI pokładową do obserwacji Ziemi i wykrywania zagrożeń).

Na rok 2025, wojskowy krajobraz AI jest dynamiczny i szybko ewoluuje. W ciągu kilku lat przeszliśmy od pilotażowych projektów AI do operacyjnego, bojowego użycia systemów autonomicznych oraz niemal seryjnego wdrażania „dronowych skrzydłowych”. Oś czasu ukazuje powtarzalny schemat: po przełomach technologicznych (AI pokonuje pilota, roje dronów) szybko pojawiają się próby tworzenia polityk i norm (strategia NATO, debaty ONZ), lecz zwykle technologia wyprzedza dyplomację. Kolejne kamienie milowe mogą obejmować w pełni autonomiczne misje, masowe wdrożenie rojów lub niestety wypadek z udziałem AI, który zmusi świat do regulacji.

Jasne jest, że sztuczna inteligencja w wojnie nie jest już hipotetyczna – jest rzeczywistością. Wyzwaniem i odpowiedzialnością społeczności międzynarodowej jest takie ukierunkowanie tych zmian, aby zwiększać bezpieczeństwo i jednocześnie trzymać się naszego etycznego kompasu, zanim dżin całkowicie wydostanie się z butelki.

Tags: , ,