Как искусственный интеллект изменяет будущее войны — что вам нужно знать прямо сейчас

От управляемых ИИ роев дронов до автономных киберзащитников — искусственный интеллект стремительно меняет поле боя. Военные державы по всему миру спешат внедрять более умные машины, способные думать, учиться и даже самостоятельно принимать решения — обещая изменить саму суть ведения войны. Стоим ли мы на пороге революции в военном искусстве, движимой ИИ, и что это значит для глобальной безопасности? Читайте далее о самых передовых применениях искусственного интеллекта в обороне, о планах сверхдержав США и Китая, об этических проблемах «роботов-убийц» и о том, как ближайшее десятилетие может сделать ИИ главным оружием — или главной угрозой — в современном бою.
Обзор текущих ИИ и автономных систем в обороне
Военный дрон, используемый при учениях по охране базы, демонстрирует возможности ИИ в наблюдении. Дроны с искусственным интеллектом могут вести разведку и даже автоматически выявлять угрозы.
Современные армии уже используют искусственный интеллект для различных задач. Базовые применения ИИ и автономных систем охватывают всё — от беспилотных аппаратов до инструментов анализа данных. Ключевые направления, где ИИ уже внедрен в обороне:
- Автономные дроны и беспилотные аппараты: ИИ-оборудованные беспилотные летательные аппараты (БПЛА) и наземные роботы применяются для разведки, ударов с воздуха и защиты сил. Например, автономные или полуавтономные дроны патрулируют поле боя или спорные территории, выявляя цели с помощью встроенных систем компьютерного зрения на базе ИИ. В продолжающемся конфликте в Украине небольшие дроны (стоимостью порой всего несколько сотен долларов) использовались для атаки ценных целей, таких как танки, демонстрируя экономическую эффективность оружия, управляемого искусственным интеллектом armyupress.army.mil. Исследования и испытания ройных технологий — групп дронов, автономно координирующих свои действия — уже ведутся в США и Китае armyupress.army.mil. На деле уже существуют дроны, не нуждающиеся в операторе и способные работать вместе как согласованный рой post.parliament.uk, что ставит перед традиционной обороной новые вызовы.
- Разведка, наблюдение и разведывательные системы (ISR): ИИ увеличивает возможности военной разведки. Алгоритмы анализируют огромные потоки данных датчиков — в том числе видеопотоки дронов, спутниковые снимки и радиоразведку — намного быстрее, чем это делают люди. Примером может служить американский проект Maven, стартовавший в 2017 году: ИИ-компьютерное зрение определяет боевиков и объекты на видеозаписях беспилотников, снимая нагрузку с операторов defense.gov. Такой ИИ-анализ был испытан в бою против ИГИЛ, ускорив обнаружение вражеских позиций. В Украине аналитики reportedly используют ИИ-инструменты для объединения данных с дронов, спутников и даже соцсетей, находя вероятное расположение врага быстрее традиционных методов post.parliament.uk. ИСР-системы на базе ИИ реально сокращают время от обнаружения цели до удара — согласно одному отчету, весь процесс может занимать всего 3–4 минуты с использованием ИИ post.parliament.uk.
- Военная логистика и техническое обслуживание: Менее заметные, но не менее важные применения ИИ — в логистике, «кровеносной системе» армии. Предиктивная аналитика и машинное обучение позволяют прогнозировать потребности в запасах и выявлять потенциальные поломки техники еще до их возникновения. Например, армия США применяет предиктивное обслуживание на базе ИИ для оценки вероятности отказа деталей техники и замены их заранее army.mil. Это снижает поломки и простой, поддерживая готовность техники на высоком уровне. Оптимизация цепочек поставок с помощью ИИ позволяет доставлять нужные ресурсы в нужное место вовремя, повышая эффективность доставки топлива, боеприпасов и запасных частей. Проще говоря, ИИ помогает армии автоматизировать склады и автопарки, маршрутизировать колонны (все чаще — полуавтономными грузовиками) и управлять запасами почти без участия человека army.mil army.mil. Это обеспечивает более быструю переброску ресурсов, экономию и устойчивость логистики даже в кризисных условиях.
- Кибервойна и кибербезопасность: Киберпространство — ещё одно поле боя, где ИИ играет ключевую роль. ИИ-алгоритмы защищают сети, выявляя аномальную активность и вторжения в реальном времени — гораздо быстрее, чем человек. Они автоматически распознают новые типы вредоносного ПО или фишинговых атак и запускают противомерные меры — это крайне важно, ведь кибератаки становятся быстрее и сложнее. В наступательных целях ИИ помогает исследовать вражеские сети на уязвимости или автоматизировать создание убедительных ложных сигналов (например, дипфейков и дезинформации). Например, армии изучают применение ИИ для создания помех или их обхода в радиоэлектронной борьбе: дроны с ИИ могут ориентироваться по рельефу в случае отключения GPS post.parliament.uk. Интеграция ИИ в киберармии обеспечивает более быстрый цикл принятия решений в условиях информационной войны — и позволяет автоматизировать кибератаки на скорости машин. Однако это повышает ставки: кибероружие на базе ИИ может эскалировать конфликт в течение миллисекунд, а защита требует столь же быстрого ответа на базе ИИ.
- Поддержка принятия решений и командные системы: Одно из самых заметных применений ИИ — помощь командирам в принятии решений. Современное поле боя генерирует огромные массивы данных (от сенсоров, разведданных, статусов подразделений и пр.), и ИИ помогает агрегировать и анализировать информацию, предоставляя более ясные варианты действий. Министерство обороны США делает ставку на интеграцию ИИ в системы управления и командования, например в рамках программы Joint All-Domain Command and Control (JADC2), цель которой — связать сенсоры и средства поражения в единую ИИ-сеть. Главная цель — дать командирам решающее преимущество: как отметила заместитель министра обороны Кэтлин Хикс, использование ИИ означает более быстрые и точные решения, что критично для сдерживания и предотвращения агрессии defense.gov. Примеры — ИИ-системы управления боем, способные рекомендовать оптимальные действия при угрозе или быстро моделировать сценарии развития событий. В тренировках и симуляциях ИИ-противник (например, в программных военных играх) создает более реалистичные условия для планирования войск. Эти ИИ-помощники выступают tireless партнерами, просчитывая варианты и вероятности за секунды, помогая человеческому анализу.
Подытожим: искусственный интеллект уже внедрен практически во все военные функции: управление дронами, анализ разведданных, защита сетей, управление логистикой и поддержка командования. Эти внедрения в основном человек-контролирующий-процесс — ИИ дает рекомендации или автоматизирует отдельные задачи, но финальный контроль остаётся за человеком. Тем не менее, эффективность, скорость и точность применения ИИ на войне уже сегодня значительны.
Прогнозы на будущее: ИИ в войне в ближайшие 5–15 лет
В течение следующих 5–15 лет эксперты ожидают, что искусственный интеллект и автоматизация всё глубже интегрируются в военные операции — возможно, полностью изменив характер войны. Вот какой может быть роль ИИ в армии будущего:
- «Роботизированные» вооружённые силы: Доля машин и людей на поле боя ожидаемо резко изменится. Бывший глава Объединённого комитета начальников штабов США предполагал, что до трёх четвертей современной армии могут составить роботы или беспилотные системы уже через 10–15 лет post.parliament.uk. Это значит, что солдаты будут воевать бок о бок с автономными дронами, транспортниками и роботизированными боевыми установками, а иногда даже уступят им часть задач. Некоторые армии уже планируют подобное будущее: например, концепции британской армии описывают целые подразделения «роботов-воинов» под командованием человека к 2030-м годам.
- «Верные ведомые» и автономные боевые самолёты: Воздушные силы, вероятно, внедрят боевые дроны на базе ИИ, которые будут действовать вместе с пилотируемыми истребителями. США анонсировали грандиозный проект — более 1000+ дронов-ведомых (Collaborative Combat Aircraft, CCA), летающих бок о бок с новейшими F-35 и самолетами будущего NGAD airforce-technology.com airforce-technology.com. Эти «роботизированные ведомые» способны нести вооружение, вести разведку, создавать помехи радарам противника или принимать огонь на себя, реагируя на угрозы с помощью ИИ. Первые прототипы (например, XQ-58A Valkyrie и австралийский MQ-28 Ghost Bat) уже совершили полёты. К концу 2020-х ожидается ввод в строй первых эскадрилий ИИ-дронов, а к 2030 году — их полная боеготовность airforce-technology.com. Китай и Россия также разрабатывают подобные системы («Dark Sword» у Китая и S-70 «Охотник» у России), стремясь усилить авиацию автономными комплексами. С воздушным боем 2030-х связано также понятие совместного применения пилотируемых и беспилотных аппаратов.
- Ройная война и массовая автономия: Следующее десятилетие обещает зрелость роёв автономного оружия. Рой — это десятки/сотни дронов, действующих совместно и, благодаря коллективному «интеллекту», прорезающих оборону количеством и синхронностью. К примеру, в июне 2024 года армия КНР провела учения с роями дронов для захвата островов — явная отработка сценария вторжения на Тайвань armyupress.army.mil. Будущие рои могут объединять воздушные, сухопутные и даже морские автономные аппараты. Всё это благодаря развитию машинной коммуникации и распределённого ИИ, позволяющих адаптироваться и действовать группой без ожидания приказа от человека. Аналитики предупреждают, что рой способен за минуты вывести из строя ключевые системы обороны, массово атакуя их armyupress.army.mil. Для противодействия понадобятся ИИ-системы нового типа — вероятно, «анти-ройные» ИИ, координирующие свои рои-оборону или мгновенную реакцию (например, использование мощных микроволн или лазеров). За лидерство в «ройной гонке» борются США, Китай, Израиль и др.: победа гарантирует решающее преимущество.
- ИИ-управление боем и поддержка командных решений: По мере развития искусственного интеллекта его роль в командовании и стратегии возрастет. Через 15 лет нас ждут ИИ-«копилоты» в штабе — сложные помощники, непрерывно анализирующие ситуацию и предлагающие оптимальные сценарии. Это шаг дальше сегодняшних систем поддержки: в будущем подобные комплексы на базе новых алгоритмов и, возможно, квантовых вычислений смогут мгновенно координировать действия на суше, воде, воздухе, в кибер- и космосфере. Проект JADC2 США — ранний шаг к этому: создание полностью ИИ-управляемой сети командования. К 2030-м командир сможет поручить ИИ планирование сложнейших операций: тот порекомендует момент манёвра, создание радиопомех, осуществление кибератаки или вызов удара беспилотниками — синхронизируя всё это быстрее любого штаба человека. Такие ИИ учатся на массивах данных военных учений и реальной практике, быстро совершенствуясь в тактике и стратегии. Уже сегодня есть примеры: ИИ-пилот от DARPA победил реального пилота F-16 в виртуальном бою со счетом 5:0 armyupress.army.mil, а в конце 2023 года ИИ управлял настоящим F-16 на реальных испытаниях darpa.mil. Всё это говорит: завтра ИИ не только будет советовать, но и самостоятельно выполнять часть боевых задач. Впрочем, военные уверяют: цели и правила всё равно будет ставить человек, а ИИ останется инструментом — хоть и мощнейшим.
- Расширение роли ИИ в кибервойне и радиоэлектронной борьбе: Уже сейчас и в будущем роль ИИ в киберпространстве возрастет — как в атаке, так и в защите. Появятся системы, которые автоматически запускают киберответные удары или радиопомехи через миллисекунды после нападения. Когнитивная радиоэлектронная борьба — новая дисциплина, где ИИ-приборы мгновенно меняют частоты, перестраивают сигналы, адаптируют методы создания помех, чтобы запутать радары и коммуникации врага. К 2030 году подобные ИИ-«электронные комплексы» станут стандартным оснащением боевых самолётов и дронов, реагируя на угрозы быстрее, чем враг сможет придумать защиту. К тому же, генеративный ИИ (основа современных чат-ботов и дипфейков) будет использоваться для психологических операций и обмана. Уже есть свидетельства, что, например, Китай применял генеративный ИИ для создания поддельных аккаунтов и пропагандистских изображений в соцсетях armyupress.army.mil armyupress.army.mil — тенденция только усилится, ведь отличить подделку от реальности всё труднее. Армиям предстоит бороться с ИИ-дезинформацией и выводить собственные «инфовойны»-ИИ для борьбы за информационное превосходство.
- Более компактное, умное и доступное оружие на базе ИИ: Технологический прогресс обычно делает устройства меньше и дешевле, и ИИ — не исключение. Уже в ближайшие годы нас ждут умные ракеты и взрывные устройства, использующие ИИ для выбора цели и корректировки курса — это повысит их точность, особенно по движущимся целям или в сложной среде. Карликовые автономные дроны — даже размером с ладонь («slaughterbots») — могут стать новым видом оружия пехоты, используя распознавание лиц для поиска целей (пусть концепция и пугающая, но она уже близка к реальности). Кроме того, ИИ-управляемые спутники улучшат наблюдение и наведение в реальном времени из космоса. Многие страны разрабатывают миниатюрные спутники, которые автономно координируют съёмку или даже совершают манёвры для защиты. К 2035 году армии будут использовать целые рои автономных мини-дронов, умных мин и сенсоров по всему полю боя, постоянно координирующихся и реагирующих благодаря ИИ. Этот тотальный контроль создаст гигантский поток данных — и он снова будет поступать в системы ИИ, замыкая цикл развития ИИ-осознанности и управления.
Смотря на 5–15 лет вперёд, ясно одно: начинается гонка вооружений ИИ, и её исход определит будущее войны. Страны спешат освоить военный ИИ, считая его ключом к стратегическому лидерству. Как заметил президент России Владимир Путин, «тот, кто станет лидером в этой сфере — станет властелином мира» — именно на этом основаны масштабные инвестиции Китая и срочная технологическая модернизация США rusi.org. Хотя полностью автономные войны пока не наступили, тенденции показывают: к 2030-м в армии появится беспрецедентный уровень автономии и скорости. Это способно революционизировать бой — однако потребует новых стратегий для сохранения человеческого контроля и предотвращения неконтролируемых конфликтов. Следующее десятилетие станет решающим, ведь армии мира стремительно раздвигают границы применения ИИ на — и над — полем боя.
Глобальные игроки и их стратегии в области военного ИИ
Гонка за лидерство в военном ИИ носит глобальный характер и возглавляется несколькими ключевыми игроками. Каждая крупная держава — Соединённые Штаты, Китай, Россия — и такие альянсы, как НАТО, имеют свои уникальные подходы к интеграции ИИ и автономных систем в свои вооружённые силы. Ниже приведён обзор того, как эти игроки выстраивают стратегии «революции ИИ» в сфере обороны.
США
Соединённые Штаты рассматривают искусственный интеллект как краеугольный камень будущей военной мощи и активно инвестируют средства, чтобы сохранить лидерство. Официальная стратегия ИИ Пентагона (впервые опубликованная в 2019 году) предусматривает быстрое внедрение ИИ «в масштабах» по всему министерству обороны — от внутренних служб до передовой. Это подкрепляется растущими бюджетами: министерство обороны запросило около 1,8 миллиарда долларов на проекты ИИ в 2024 финансовом году (и аналогичную сумму на 2025 год) defensescoop.com, по сравнению с примерно 800 миллионами долларов в 2020 году. Кроме того, США тратят миллиарды на автономные системы, такие как беспилотники, часто оснащённые ИИ nationaldefensemagazine.org. Ключевые инициативы, иллюстрирующие подход США:
- Специализированные подразделения и программы по ИИ: Министерство обороны создало Объединённый центр искусственного интеллекта (JAIC) в 2018 году (теперь реформирован под Офис цифровых и ИИ-технологий), чтобы объединить усилия по НИОКР в области ИИ. Ранние программы, такие как Project Maven, подтвердили ценность ИИ, задействовав алгоритмы для поддержки аналитиков разведки на Ближнем Востоке defense.gov. В настоящее время портфель военных проектов по ИИ насчитывает десятки направлений — в 2021 году финансировалось более 600 проектов nationaldefensemagazine.org, от инструментов прогнозно-технического обслуживания до полуавтономных боевых систем.
- Стратегия третьего асимметричного преимущества и JADC2: Стратегически США реализуют так называемое «третье асимметричное преимущество» — использование ИИ и передовых технологий для компенсации растущих возможностей противников. Центральное место занимает Единое командование и контроль всех сфер (JADC2) — концепция бесшовной связи всех сил. ИИ критичен для JADC2: он должен связывать датчики, принимающих решения и средства поражения в реальном времени. Это означает, что сеть, управляемая ИИ, может получать данные со спутника или беспилотника, определять угрозу и мгновенно наводить соответствующее оружие (истребитель или артиллерийскую батарею). Программы, такие как Advanced Battle Management System (ABMS) ВВС и Project Convergence Армии — испытательные площадки этой системы командования с использованием ИИ.
- Сотрудничество человека и машины: Военные США видят команды «человек–машина» в качестве оптимального применения ИИ — с сохранением контроля человека, но значительным повышением эффективности благодаря автономным системам. Яркий пример — план ВВС по Collaborative Combat Aircraft, то есть беспилотникам-компаньонам, которые будут летать с пилотируемыми истребителями. Эти дроны будут использовать ИИ для разведки, радиоэлектронной борьбы и даже автономной атаки вражеских истребителей. Задача — иметь на вооружении флот CCA-дронов к концу десятилетия airforce-technology.com. В Армии, аналогично, проводятся эксперименты по взаимодействию солдат с «роботами-напарниками» — например, наземным роботом, несущим снаряжение, или автономной машиной, ведущей разведку впереди.
- Этические и нормативные рамки: США также активно разрабатывают руководящие принципы использования ИИ в условиях войны. В 2020 году Пентагон утвердил пять принципов этичного ИИ (ответственность, справедливость, отслеживаемость, надёжность, управляемость) для разработки систем. Кроме того, Директива министерства обороны № 3000.09 гласит, что любое автономное оружие должно позволять командирам осуществлять «адекватный уровень человеческого контроля» при принятии решения об использовании силы en.wikipedia.org. Эта политика — обновлённая в январе 2023 года — не запрещает полностью летальное автономное оружие, но требует строгого анализа и авторизации для любых ИИ-систем, способных принимать решения о жизни и смерти. На практике США по-прежнему сохраняют контроль человека в «петле» для применения летальной силы: например, удары дронов и работа систем ПВО требуют подтверждения оператором. Американские официальные лица подчёркивают, что ИИ будет использоваться для усиления возможностей военных, а не для замены человеческого решения, что соответствует как практическим требованиям надёжности, так и демократическим ценностям.
- Сотрудничество с индустрией и союзниками: Американская технологическая отрасль играет ключевую роль в военных программах по ИИ. Компании Microsoft, Palantir, Anduril заключают оборонные контракты на поставку ИИ-решений: от облачных вычислений до боевой аналитики. (Отмечается, что после волны споров, например, ухода Google из проекта Maven в 2018 году из-за протестов сотрудников, партнерства между ИТ-отраслью и военными снова активизировались по мере осознания стратегической важности ИИ.) США также тесно сотрудничают с союзниками по вопросам ИИ — через платформы, такие как Joint AI Partnership в рамках «Пяти глаз», и инновационные инициативы НАТО — чтобы обеспечить совместимость и коллективное развитие.
В целом, подход США сочетает крупные инвестиции с осторожной практикой внедрения. США стремятся использовать ИИ максимально, чтобы сохранить военное превосходство, но действуют осмотрительно, чтобы обеспечить контроль и соответствие законам войны. Вашингтон выступает против международных запретов на автономное оружие, предпочитая развитие норм и лучших практик. Сохраняя технологическое преимущество и моральное превосходство (через принципы ответственного использования), США рассчитывают установить глобальный стандарт военного ИИ.
Китай
Китай сделал стратегическую ставку на ИИ как залог военной модернизации и способ обогнать военную мощь США. Народно-освободительная армия Китая (НОАК) называет эту трансформацию достижением «интеллектуализизированной войны» — концепцией, официально закреплённой в Белой книге по национальной обороне Китая 2019 года carnegieendowment.org. Если ранее реформы НОАК строились на «информатизации» (интеграция информационных технологий), то интеллектуализация идет дальше: внедрение ИИ во все сферы боевых действий ради решающего когнитивного и операционного превосходства.
Стратегия и инвестиции: Китайское руководство рассматривает ИИ как национальный приоритет со стратегическими военными, экономическими и геополитическими задачами. В 2017 году был представлен План развития ИИ нового поколения, который ставит цель сделать Китай мировым лидером в ИИ к 2030 году. По одной оценке, индустрия ИИ в Китае была оценена в 150 млрд юаней (≈$23 млрд) в 2021 году и прогнозируется выше 400 млрд юаней ($55 млрд) к 2025 году armyupress.army.mil (включая гражданский ИИ). Прямые военные расходы на ИИ сложно оценить точно — бюджеты Китая непрозрачны. Тем не менее, исследование CSET Джорджтаунского университета (2022) показало, что НОАК вероятно расходует на ИИ «несколько миллиардов долларов» ежегодно — примерно столько же, сколько США nationaldefensemagazine.org. Деньги направляются как на закупку систем с ИИ, так и на НИОКР в военных лабораториях и частных компаниях (в рамках политики военно-гражданского слияния). Принципиальное преимущество Китая — активное использование наработок гражданского высокотехнологичного сектора: Baidu, Alibaba, Tencent, iFlytek лидируют в ИИ-исследованиях и могут переориентировать двойные технологии для военных нужд.
Ключевые направления: НОАК активно продвигает ИИ в сферах, где видит средства преодоления технологического преимущества противников (прежде всего США). По данным исследований, Китай делает ставку на ИИ в областях разведывательного анализа, прогнозного обслуживания, информационной войны, навигации и распознавания целей nationaldefensemagazine.org. Конкретно:
- НОАК разрабатывает ИИ-инструменты для анализа разведданных (спутниковые снимки, перехваченные сообщения), чтобы находить цели и выявлять закономерности быстрее человека-аналитика.
- В сфере технического обеспечения и логистики китайские подразделения используют ИИ для прогнозирования поломок техники и управления снабжением — это важно для планов по развертыванию войск вдали от границ страны.
- Автономные аппараты и дроны — основное направление. Китай представил множество автономных и полуавтономных БПЛА: от высокотехнологичных стелс-дронов, таких как «Острый Меч» (Sharp Sword UCAV), до роя микродронов. В 2020 году был показан дрон, аналогичный американской концепции Skyborg (FH-97), а в 2022 году китайские исследователи заявили о мировом рекорде: 10 ройных дронов пролетели через сложное препятствие с помощью ИИ — демонстрация прорыва в ройевых технологиях. Ракетные войска НОАК также тестируют ИИ для улучшения наведения и распознавания целей ракет.
- Смертоносное автономное оружие: Китайские официальные лица занимают неоднозначную позицию на международной арене по поводу запрета автономного оружия, но, судя по данным, такие системы разрабатываются. Военные НИИ работают над ИИ-распознаванием целей и комплексами управления огнём для оружия, которое теоретически сможет поражать цели без участия человека nationaldefensemagazine.org. Например, Китай предлагает на экспорт вооружённые беспилотники-вертолёты на базе ИИ (Blowfish A2). Тем не менее, Пекин на словах выступает за глобальное соглашение против применения полностью автономного оружия — анализаторы считают эту позицию тактической, поскольку внутренние НИОКР продолжаются.
- Автоматизация командования: Следуя концепции интеллектуализированной войны, НОАК проводит эксперименты с применением ИИ для моделирования боевых действий и принятия командных решений. Последние китайские публикации обсуждают ИИ-алгоритмы для планирования войны и даже для оперативного командования в рамках симуляций. В военных лабораториях имитируются сценарии вторжения на Тайвань, с участием ИИ в выработке стратегий. Пока нет признаков того, что в реальных операциях командование доверят ИИ, однако цель — свести к минимуму человеческий фактор и ограничения в цикле принятия решений.
Военно-гражданское слияние и техно-авторитарное преимущество: Военные Китая получают преимущество за счёт размытых границ между гражданскими и оборонными технологиями. Через стратегию военно-гражданского слияния достижения в области распознавания лиц, больших данных и финтех-ИИ могут использоваться для военных задач. Например, системы массового наблюдения, отточенные ради внутренней безопасности (тотальные камеры с ИИ-распознаванием лиц, мониторинг соцсетей), дают опыт в аналитике больших данных и компьютерном зрении — а это применяется в военной разведке и кибервойне. Китай уже обвиняют в использовании ИИ для кибер-взлома и инфо-влияния: доклад Microsoft за 2023 год отмечает кампании КНР по распространению ИИ-сгенерированных изображений и видео с целью влияния на мнение в западных соцсетях armyupress.army.mil armyupress.army.mil. Способность Китая задействовать ИИ для жёсткой и мягкой силы — от автономных дронов до дипфейк-пропаганды — уникальная черта его военного подхода.
Глобальная позиция и этика: На международной арене Китай в определённой степени позиционирует себя как сторонник контроля над вооружениями в сфере ИИ. Китай призывал к запрету применения автономного оружия против гражданских лиц и к «ответственному» использованию искусственного интеллекта. Однако Китай не присоединился к тем, кто выступает за полный запрет на летальное автономное оружие: вероятно, Пекин хочет сохранить свободу развивать военные технологии ИИ, избегая международного осуждения. Китайские заявления часто подчёркивают, что управление человеком должно существовать всегда хотя бы на каком-то уровне, однако чиновники также утверждают, что полный запрет отдельных технологий может замедлить прогресс. На практике военные успехи Китая показывают, что страна введёт ИИ в войска, как только посчитает системы достаточно надёжными, особенно если в условиях конфликта это даст преимущество. Например, появились сообщения, что китайские автономные дроны и наземные роботы испытывались в приграничных столкновениях (например, с Индией в Тибете, включая использование роботизированных машин для логистики на высокогорье).
В итоге, подход Китая строится централизованно и чрезвычайно амбициозно: внедрить ИИ в Народно-освободительную армию для повышения эффективности всего — от логистики до нанесения ударов, использовать в военных целях гражданские инновации и достичь или превзойти США к 2030 году. Быстрый прогресс китайских военных — и их готовность смело экспериментировать с новыми концепциями, такими как рой атакующих дронов — объясняют, почему многие считают Китай основным соперником в «гонке вооружений ИИ». Конечная цель Пекина — достичь стратегического преимущества: с помощью превосходящих по возможностям сил на основе ИИ быть способным сдержать или победить противника, переигрывая, превосходя в манёвре и истощая его.
Россия
Россия рассматривает военный ИИ как способ сократить разрыв с западными армиями и как необходимость, продиктованную недавними уроками на поле боя. Несмотря на экономические трудности и меньший технологический сектор по сравнению с США или Китаем, российское руководство — включая президента Путина — открыто заявляет о экзистенциальной важности не отставать в вопросах ИИ rusi.org. Стратегия Москвы — инвестировать в отдельные направления ИИ, которые отвечают её сильным сторонам или острым нуждам, несмотря на санкции и ограниченные ресурсы.
Стратегическая направленность и доктрина: Российская военная доктрина традиционно делает ставку на асимметричные и технологические решения для компенсации конвенциональных слабостей. В ИИ Россия видит возможность «качественного скачка». Национальная стратегия по ИИ (принята в 2019 году) и последующие документы особо выделяют оборону в качестве приоритетного направления развития ИИ. В 2024 году Россия представила новый десятилетний государственный план вооружений, впервые включающий раздел, посвящённый искусственному интеллекту — это сигнал о высшем приоритете разработки автономных вооружений и систем на базе ИИ defensenews.com. Данный рывок во многом стимулирован продолжающейся войной в Украине: конфликт превратился в своего рода «лабораторию войны ИИ», где обе стороны активно используют дроны и электронную борьбу defensenews.com. Столкнувшись с неудачами, российские стратеги всё больше говорят об ускорении внедрения ИИ для модернизации армии.
Ключевые программы и достижения в сфере ИИ: Хотя финансирование военного ИИ в России не сопоставимо с США или Китаем, есть заметные успехи по ряду направлений:
- Автономные и беспилотные системы: Российская промышленность разработала ряд наземных беспилотников (UGV) — например, боевой робот Уран-9, UGV Маркер. Оба применялись для опытной эксплуатации в Сирии и на Украине: результаты были противоречивыми (Уран-9 показал много проблем в Сирии), но работа по совершенствованию продолжается. Война в Украине привела к широкому применению барражирующих боеприпасов (дронов-камикадзе), а также многочисленных разведывательных беспилотников. Некоторые, такие как барражирующий дрон Ланцет, по сообщениям, обладают полуавтономным выбором цели (распознавание радиосигналов, типов техники). РФ также вкладывает средства в подводные дроны для ВМФ и внедряет ИИ в существующие платформы (например, возможные автономные режимы для танка Т-14 Армата).
- Ракетные комплексы и ПВО: Российские военные традиционно автоматизировали ключевые стратегические системы — например, во времена «холодной войны» существовала система retaliatory «Периметр» (Мертвая рука) с автоматическими алгоритмами принятия решений defensenews.com. Сейчас Россия интегрирует ИИ в новые системы. Пример — комплекс ПВО С-500, для которого разрабатывается модуль управления на базе ИИ для оценки угроз и прогноза траектории ракет defensenews.com. Эксперты отмечают, что ИИ значительно ускоряет реакцию в системах, где время на решение ограничено (ПВО, РЭБ) defensenews.com. Аналогично, ведутся работы по внедрению ИИ для систем наведения на танках и артиллерии, что способно повысить точность и скорость реагирования.
- Модернизация существующего арсенала: Вместо создания совершенно новых видов вооружений на базе ИИ, Россия часто оснащает ИИ уже проверенные платформы. Обсуждается внедрение элементов автономного управления и распознавания целей в старые БМП и танки, а также создание беспилотных модификаций для опасных задач (например, доставка грузов под огнём). На Украине российские части получили обновления ПО, включающие ИИ-функции — автоматическое слежение за целью в оптике, дистанционное управление турелями на отремонтированной бронетехнике defensenews.com. Такой поэтапный подход позволяет быстрее и дешевле интегрировать элементы ИИ — пусть и менее эффектно, чем при создании оружия с нуля.
- Исследования и производственная база: Государство стимулирует НИОКР по ИИ через государственные оборонные концерны и новые программы. Ростех — крупнейший оборонный холдинг — оснавал лабораторию искусственного интеллекта в 2022 году для исследований военных применений машинного обучения defensenews.com. Создан и Военный инновационный технополис «Эра» — кампус на Черноморском побережье, где молодые инженеры и учёные работают над стартапами для обороны, включая проекты в ИИ. Тем не менее, Россия сталкивается с большими трудностями: дефицит современной микроэлектроники (усугублённый санкциями против чипов), утечка кадров и слабая экосистема стартапов. Для компенсации Россия привлекает гражданскую сферу — например, в Сбербанке сильная команда по ИИ, а его президент регулярно подчёркивает возможности ИИ для роста ВВП и обороны rusi.org. Это похоже на гражданско-военный синтез, наблюдаемый в Китае, но в меньших масштабах.
- На поле боя — уроки Украины: Идущая война стала испытательным полигоном для вынужденной адаптации. ВСУ — с помощью западной разведки и технологий — используют инструменты с поддержкой ИИ (например, спутниковое картографирование для наводки артиллерии). В ответ российские части учатся глушить или обманывать ИИ-разведку, развивают барражирующие беспилотники с большей автономией для уничтожения украинской артиллерии. Большие потери в людях и технике особенно подчеркивают для РФ привлекательность автономных систем для сокращения риска для солдат. Российские военные теоретики часто говорят об использовании ИИ для снижения уязвимости личного состава — от автономных конвоев снабжения до роботов для эвакуации раненых defensenews.com. Ожидаемо, в ближайшем будущем Россия будет фокусироваться на проектах, немедленно облегчающих военные трудности (дроны, средства РЭБ, автоматизация обороны важных объектов) по мере восстановления вооружённых сил.
Этика и политика: Россия в целом выступает против упреждающего запрета на летальное автономное оружие на международных встречах, соглашаясь с США и Китаем в нежелании вводить жёсткие ограничения. Российские официальные лица считают, что существующего международного права достаточно, и подчёркивают, что «человек должен оставаться ответственным», однако избегают любых договорённостей, реально лимитирующих разработку новых видов оружия. На практике Россия, похоже, готова развёртывать системы с всё большим уровнем автономии, если они дают тактический эффект. Например, полностью автономная атака российским барражирующим дроном публично не подтверждена, но при её эффективности РФ вряд ли станет отказываться от таких решений. Внутри страны развитие ИИ в военной сфере преподносится как вопрос национального выживания — Путин сравнивал значимость ИИ с изобретением ядерного оружия rusi.org. Подобная риторика показывает, что Россия считает недопустимым оказаться в отстающих. Правда, военная культура в РФ весьма консервативна и иерархична — можно ожидать внутреннего сопротивления доверию к ИИ системам. Медленное внедрение некоторых передовых концепций (например, центрически-сетевой войны) в прошлом позволяет думать, что тотальная интеграция ИИ также будет сложной.
В заключение, военный подход России к ИИ — оппортунистический и целенаправленный. Он направлен на то, чтобы внедрить ИИ в критически важные области — дроны, ракеты, электронную борьбу — чтобы усилить военные возможности, особенно в сравнении с НАТО. Война в Украине ускоряет эти усилия из-за необходимости. Хотя экономические и технологические ограничения сдерживают Россию, ее решимость оставаться в гонке ИИ очевидна. Превратится ли это в несколько «чудо-оружий» или приведет к более масштабной трансформации — покажет время, но Москва решительно настроена не остаться в стороне в эпоху автономных вооруженных конфликтов.НАТО и союзные государства
НАТО и его государства-члены коллективно признают, что ИИ станет ключевым для будущей обороны, и работают как совместно, так и индивидуально над его интеграцией таким образом, чтобы это соответствовало их ценностям. В отличие от отдельной страны, роль НАТО заключается в координации и выработке общих принципов по вопросам ИИ, чтобы армия союзников оставалась совместимой и на передовой технологий. Вот как НАТО и ключевые союзники подходят к вызову военного ИИ:
Стратегия НАТО по ИИ: В октябре 2021 года НАТО опубликовал свою первую Стратегию по искусственному интеллекту, обозначив приверженность Альянса внедрению и защите ИИ в обороне armyupress.army.mil. В этой стратегии изложены принципы ответственного использования ИИ в военном контексте — в том числе законность, ответственность, объяснимость и отслеживаемость, надежность и управляемость. Эти принципы созвучны принципам ведущих стран, таких как США, и призваны гарантировать, что союзники при внедрении ИИ будут действовать в соответствии с международным правом и этическими нормами. На саммите НАТО 2022 года лидеры стран также учредили инновационный фонд НАТО объемом в один миллиард евро для инвестирования в двойные и перспективные технологии (ИИ — главный приоритет). К июлю 2024 года НАТО уже обновил свою ИИ-стратегию, выделив безопасность и совместимость ИИ, что отражает быстро меняющийся технологический ландшафт armyupress.army.mil. В НАТО убеждены, что необходимо идти в ногу с противниками в области ИИ — генеральный секретарь Йенс Столтенберг отмечал, что отставание поставит под угрозу основополагающий принцип коллективной обороны НАТО.
Сотрудничество союзников — DIANA: Ключевой инициативой НАТО стала Accelerator Defense Innovation for the North Atlantic (DIANA). Запущенная в 2023 году DIANA — это сеть, объединяющая государственные, частные и академические инновационные центры в странах НАТО для ускорения развития новых технологий, в том числе ИИ armyupress.army.mil armyupress.army.mil. DIANA организует «челленджи», в рамках которых стартапы и исследователи решают конкретные задачи обороны (например, устойчивость энергообеспечения, защищенная связь, наблюдение) — многие из них предполагают ИИ или автономные системы armyupress.army.mil. Участникам предоставляют доступ к общенациональным испытательным центрам и финансированию, чтобы создавать передовые решения, которыми могут воспользоваться все союзники. По сути, НАТО стремится использовать объединенные инновационные экосистемы 31 страны для соперничества с крупными централизованными программами таких соперников, как Китай. Кроме того, НАТО создало центры передового опыта и группы, специализирующиеся на ИИ, данных и киберзащите, чтобы обмениваться лучшими практиками между армиями.
Главные усилия стран-участниц: Внутри НАТО ведущие страны как Великобритания, Франция и Германия имеют собственные военные программы по ИИ:
- Великобритания опубликовала Стратегию по ИИ в обороне в 2022 году и создала «Подразделение оборонного ИИ и автономии» для ускорения внедрения новых технологий. Британия инвестирует в проекты, такие как iLauncher (ИИ для распознавания целей в стрелковом оружии), а также уже тестировала автономные логистические машины. Британские вооруженные силы экспериментируют с роевыми технологиями (так, в одном тесте 20 дронов управлялись одним оператором). Министерство обороны Великобритании в 2022–2023 гг. потратило 2,1 млрд фунтов стерлингов на НИОКР в областях робототехники, автономных систем и ИИ post.parliament.uk, что отражает серьезную приверженность развитию новых технологий.
- Франция развивает масштабную программу по ИИ, финансируя научные исследования в обороне по направлениям видеонаблюдения, предиктивного обслуживания и планирования миссий. Французский подход подчеркивает концепцию «усиленного солдата» — человек остается в центре операций, но оснащается ИИ-инструментами. Например, истребители Rafale получают ИИ-модули для выявления угроз, а армия Франции применяет ИИ для обработки видеопотока с дронов в операциях против терроризма в регионе Сахель, Африка.
- Германия инвестирует в ИИ для интеграции данных (data fusion) в командных системах и проявляет осторожность в вопросах автономного оружия, придерживаясь этики сохранения осмысленного человеческого контроля. Германия вместе с Нидерландами совместно руководит проектом по тестированию и оценке ИИ в НАТО, чтобы система ИИ соответствовала стандартам надежности.
- Малые страны НАТО тоже вносят уникальный вклад: например, Эстония преуспела в военной робототехнике и использует автономные наземные роботы на учениях; Нидерланды занимаются исследованиями ИИ для миротворчества и миссий ООН, а Канада разрабатывает ИИ для арктического наблюдения.
Совместимость и обмен данными: Задача (и преимущество) НАТО — координация большого числа государств. Ключевой аспект работы НАТО с ИИ — обеспечение совместимости: чтобы системы с ИИ, разработанные разными союзниками, могли работать вместе без сбоев. Это требует согласования стандартов данных, коммуникационных протоколов и даже совместного использования обучающих выборок для машинного обучения. Федеративные базы данных НАТО и совместные учения между странами этому способствуют. Например, воздушные силы могут обмениваться радиолокационными данными для улучшения алгоритмов ИИ по отличию дронов от птиц или объединять базы изображений для тренировки ИИ по распознаванию целей. Объединяя данные и ресурсы, союзники рассчитывают превзойти любой отдельный ИИ противника.
Этическое лидерство: НАТО позиционирует себя как нормотворческий лидер в вопросах этики военного ИИ. На форумах НАТО официальные лица часто подчеркивают, что соблюдение международного права и демократических ценностей отличает союзников от авторитарных соперников. В октябре 2021 года, одновременно с публикацией стратегии по ИИ, НАТО сформулировало требование, что любое использование ИИ в войне должно быть управляемым и отслеживаемым, то есть чтобы человек-командир мог деактивировать или отменить решение ИИ, а сами решения могли бы быть проверены armyupress.army.mil. НАТО прямо заявляет, что все применения ИИ союзниками в ведении войны должны предполагать человеческую ответственность. Такая позиция призвана как убедить общественность и мировое сообщество в том, что ИИ НАТО не выйдет из-под контроля, так и способствовать доверию партнеров друг к другу. (Было бы недопустимо, если бы, например, один союзник сомневался в безопасности ИИ-систем ПВО другого союзника при совместных боевых действиях.)
Война России в Украине — катализатор для НАТО: Недавняя война в Украине существенно повысила срочность внедрения ИИ для НАТО. Украина, хотя и не является членом НАТО, получила западные технологии и показала, как малые дроны, спутниковые каналы и ИИ-аналитика (для распознавания целей или расстановки приоритетов ремонта техники) способны сдерживать более крупного противника. Армии НАТО отметили использование Россией иранских барражирующих дронов и ИИ-глушителей — это стало тревожным сигналом, что угроза ИИ уже здесь. В результате ускорились такие программы, как Инновационный фонд НАТО, а также, вероятно, запущено больше закрытых разработок по борьбе с автономным оружием (например, системы обнаружения и поражения дронов или защиты бронетехники от ИИ-управляемых боеприпасов с атакой сверху). Поддержка НАТО Украине в ряде случаев стала испытательным полигоном и для западных технологий: некоторые ИИ-платформы для борьбы с дронами, поставленные Украине, проходят тестирование для последующего внедрения в армиях Альянса.
В заключение, НАТО и его союзники подходят к ИИ с сочетанием энтузиазма и осторожности. Они полны решимости не уступить технологическое преимущество соперникам, что приводит к всплеску инвестиций и совместных инновационных проектов. При этом союзники стремятся внедрять ценности НАТО в практику использования ИИ — сохраняя человеческую ответственность, действуя по закону и защищаясь от злоупотреблений. Коллективная модель НАТО, если окажется успешной, может стать эталоном международных стандартов по военному ИИ. Способность Альянса объединить усилия многих государств может стать сильной стороной в соревновании с более монолитными противниками. Предстоит узнать, окажется ли демократическая координация более эффективной, чем централизованные, но односторонние программы военного ИИ.
Этические, правовые и политические аспекты
Появление ИИ и автономных систем в войне порождает серьезные этические и правовые вопросы. Как обеспечить, чтобы машины, принимающие решения о жизни и смерти, действовали в соответствии с человеческими ценностями и международным правом? Кто отвечает, если автономная система совершает ошибку? Эти вопросы вызвали ожесточенные дебаты среди политиков, правозащитников и военных лидеров. Ниже приведены ключевые этические, правовые и политические проблемы, связанные с военным ИИ:
- Смертоносные автономные вооружения (LAWS) — спор о “роботах-убийцах”: Возможно, самой неотложной темой споров являются вооружения, которые могут выбирать и поражать цели без участия человека. Гражданское общество и многие страны предупреждают, что передача решения о лишении жизни алгоритмам неприемлема. К 2019 году 30 стран призвали к превентивному запрету смертоносных автономных вооружений по этическим причинам post.parliament.uk. В этот список не входили крупные державы, такие как США, Россия или Китай, выступающие против запрета. Дискуссии в ООН в основном ведутся в рамках Конвенции о некоторых видах обычных вооружений (CCW), где с 2014 года Группа правительственных экспертов обсуждает LAWS. Особое внимание уделяется необходимости “существенного человеческого контроля” над любым оружием, способным применять смертельную силу carnegieendowment.org. По сути, даже если оружие использует ИИ для идентификации и отслеживания целей, многие считают, что человек должен рассматривать и подтверждать атаку. Страны расходятся во мнениях: например, Европарламент и Генеральный секретарь ООН призвали к полному запрету, тогда как США и Россия предпочитают необязательные кодексы поведения. По состоянию на 2025 год не существует международного договора, специально регулирующего автономные вооружения, но формирование норм набирает обороты. В конце 2023 года значимым событием стало внесение первой резолюции по автономному оружию на Генассамблее ООН, и совместный призыв Генсека ООН и Международного комитета Красного Креста к государствам начать переговоры о договоре к 2026 году autonomousweapons.org.
- Ответственность и соблюдение международного права: Непредсказуемость и сложность ИИ делают вопрос ответственности чрезвычайно важным. Согласно законам войны (международное гуманитарное право), стороны должны различать мирные и военные цели и применять соразмерную силу. Может ли автономная система стабильно поддерживать такие принципы? Многие эксперты и чиновники опасаются, что существующие ИИ не могут в полной мере понять контекст или нюансы — увеличивается риск противоправного вреда. Если беспилотник с ИИ атакует гражданского, ошибочно посчитав его комбатантом, кто будет нести ответственность? Командир, разработчик программного обеспечения или сама машина (которая в глазах закона не является субъектом)? Эти вопросы остаются без ответа. Ясно лишь то, что армии не могут избегать ответственности, ссылаясь на алгоритмы; скорее всего, доктрина командной ответственности по-прежнему применима. Для минимизации проблем некоторые армии (например, США, НАТО) требуют строгих тестов и наличия механизма человеческого вмешательства в ИИ-системах. Тем не менее, возможность “черного ящика” в ИИ вызывает беспокойство — продвинутые нейросети бывают настолько сложны, что даже создатели не могут объяснить конкретное решение. Это отсутствие прозрачности усложняет юридический анализ и доверие на поле боя. Соблюдение МГП — еще один камень преткновения: на встречах в ООН многие страны заявляют, что без человеческого суждения полностью автономное оружие может не различать гражданских и не оценивать соразмерность удара post.parliament.uk. Сторонники, наоборот, утверждают, что грамотно разработанный ИИ может быть более точным и сократить сопутствующий ущерб. Пока что единого мнения нет, потому армии осторожничают, оставляя человека “в петле” при смертельных решениях до тех пор, пока не будет доказано, что ИИ полностью соответствует закону.
- Новые инициативы по управлению: В отсутствие специального договора реализуются различные “мягкие” подходы к регулированию. Обсуждения в ООН на площадке CCW породили необязательные руководящие принципы (например, что МГП полностью распространяется на автономное оружие, а ответственность несут люди). Однако прогресс идет медленно — отсюда и появление альтернативных форумов. В частности, коалиция НПО (Кампания за запрет роботов-убийц) и сочувствующих стран лоббирует самостоятельный договорный процесс вне рамок ООН, если потребуется. В феврале 2023 года на конференции в Коста-Рике страны Латинской Америки и Карибского бассейна выразили поддержку созданию юридического инструмента по автономному оружию autonomousweapons.org. МККК (страж МГП) в 2021 году выпустил рекомендации: призвал запретить автономные системы, которые выбирают людей в качестве целей или являются непредсказуемыми, а все остальные регулировать, предусматривая человеческий контроль autonomousweapons.org autonomousweapons.org. Регионально ЕС предпринимает шаги — хотя знаменитый AI Act (первый крупный акт по регулированию ИИ) исключает военные применения, Европарламент неоднократно выступал за глобальные нормы по “роботам-убийцам” carnegieendowment.org. Другая идея, набирающая популярность — создание надзорного агентства по аналогии с МАГАТЭ, но для ИИ — “МАГАТЭ для ИИ”. Даже гендиректор OpenAI высказывал эту мысль летом 2023 года carnegieendowment.org. Однако многие отмечают, что ИИ принципиально отличается от ядерного оружия: он двойного назначения, широко распространен и быстро развивается carnegieendowment.org, что делает классическую модель контроля над вооружениями трудно реализуемой. Тем не менее, сам тот факт, что некоторые лидеры считают ИИ потенциальной “технологией уровня вымирания” carnegieendowment.org, порождает серьезные дискуссии о какой-либо форме международного управления — будь то формальный договор или неформальные нормы. Картина может резко измениться, если, скажем, произойдет крупный инцидент с автономным оружием — это почти наверняка вызовет срочные требования к действиям.
- Саморегуляция армии и индустрии: Параллельно с международной дипломатией нарастает движение за внутренние политики по управлению рисками ИИ. Как уже упоминалось, Минобороны США обновило свою директиву по автономии вооружений (3000.09) в 2023 году, фактически подтвердив, что автономные системы должны предоставлять возможность человеческого суждения и установив процедуры утверждения en.wikipedia.org. Ответственные принципы ИИ НАТО руководят союзными армиями. Такие страны, как Франция и Великобритания, публично заявили, что оставят человека “в петле” при принятии решений о применении смертельной силы (министр обороны Франции в 2019 году заявил, что Франция “отказывается доверять машине полностью автономное решение о жизни и смерти”). Эти заверения призваны уравновесить развитие ИИ-вооружений и недопущение их бесконтрольности. В индустрии крупные IT-компании принимают собственные этические принципы ИИ и иногда с осторожностью относятся к военному применению. Но тренд меняется: в январе 2024 года OpenAI (создатель ChatGPT) тихо отменил прежний запрет на использование своей технологии для “вооружений или войны”. Это сняло общее ограничение и дало сигнал о готовности к военным контрактам carnegieendowment.org. Это отражает более широкую тенденцию — компании вроде Microsoft и Google публикуют принципы работы с ИИ, но все чаще сотрудничают с военными (например, Microsoft и Army HoloLens, небольшие контракты Google по облачному ИИ для Пентагона). Многие фирмы оправдывают участие тем, что будут помогать армии использовать ИИ ответственно, и что западные демократии должны иметь лучшую технологию. Этическое равновесие для индустрии — гарантировать, что их ИИ не использован во зло или вред гражданским; некоторые включают в контракты условия о человеческом контроле, другие отказываются от высокорискованных проектов. Однако граница между гражданским и военным ИИ очень размыта, опасения по двойному назначению весьма велики. Алгоритм распознавания лиц для розничной торговли можно приспособить для наведения целей; автопилот автомобиля — для беспилотной военной машины. Поэтому даже некоторые ИТ-лидеры настаивают на глобальных стандартах или хотя бы “красных линиях” (например, никаких полностью автономных систем запуска ядерных ракет).
- Риск распространения и злоупотреблений: С этической точки зрения вызывает тревогу вопрос, кто получает доступ к такому продвинутому ИИ. Если США, Китай и Россия разрабатывают ИИ-вооружения, рано или поздно технология может попасть к менее ответственным режимам или негосударственным акторам (террористы, повстанцы). Примитивный автономный дрон или смертоносное ПО ИИ может быть скопировано и применено без учета законов войны. Это аргумент сторонников превентивного регулирования — чтобы не допустить хаотичного распространения ИИ-оружия. Уже в Ливии в 2020 году был случай, когда дрон Kargu-2 (производства Турции), возможно, охотился за отступающими бойцами автономно autonomousweapons.org. Если это подтвердится, то пример показывает: даже страны среднего звена или их прокси могут использовать автономную смертоносную силу. Этическая и безопасность дилемма — как только одна страна начнет использовать такие системы, другие почувствуют вынужденную необходимость догонять, иначе окажутся в невыгодном положении. Это классическая гонка вооружений, но ускоренная. Потенциал ИИ снизить порог для начала конфликта реален: лидеры могут быть более склонны развязывать боевые действия, если их солдатам ничего не угрожает, а “грязную работу” сделает ИИ. Это вызывает глубокие моральные вопросы о природе войны и мира: если война становится “проще” (меньше потерь для агрессора), не приведет ли это к ее учащению? Гуманитарные голоса настаивают: нельзя позволять убирать человеческую совесть из решений о начале войны.
В итоге мир сталкивается с задачей контролировать и ограничивать военный ИИ так, чтобы использовать его преимущества, не разрушая этику и стабильность. Пока ни одна единая система не согласована, но обсуждение становится все острее. Оно охватывает технические меры (встроенные средства безопасности и системы тестирования), нормативные принципы (например, требование человеческого надзора) и правовые инструменты (национальные политики, потенциальные договоры). Ближайшие годы — вплоть до 2030-го — могут стать определяющими для установления базовых правил применения ИИ на войне. Сделать все правильно очень важно — от этого зависит, станет ли ИИ инструментом, сохраняющим жизни через сокращение сопутствующего ущерба, либо инструментом, уничтожающим жизни с нечеловеческой эффективностью. Главная задача мировой общественности — обеспечить, чтобы человечество оставалось хозяином ситуации в вопросах применения смертельной силы, даже если машины становятся все более совершенными.
Преимущества и риски военного ИИ
Искусственный интеллект, безусловно, приносит существенные преимущества военным операциям, но вместе с тем несет значительные риски. Ниже мы рассматриваем основные потенциальные выгоды, которые ИИ приносит для обороны, а также соответствующие опасности и непредвиденные последствия, требующие контроля.
Ключевые преимущества ИИ в армии и обороне:
- Ускорение и повышение точности принятия решений: ИИ способен анализировать данные с поля боя и предлагать варианты действий гораздо быстрее персонала, эффективно ускоряя цикл OODA (наблюдение–ориентация–решение–действие). Такая скорость может обеспечить решающее преимущество. Как отметила заместитель министра обороны США Кэтлин Хикс, интеграция ИИ помогает командирам принимать решения с большей скоростью и точностью, предоставляя «преимущество в принятии решений» перед противником defense.gov. Например, система командования на базе ИИ может объединять данные с десятков датчиков и рекомендовать оптимальный оборонительный маневр за считанные секунды после обнаружения входящей ракеты — с такой скоростью человек справиться не сможет.
- Умножение сил и повышение операционной эффективности: ИИ позволяет армии делать больше с меньшими ресурсами. Автономные системы функционируют круглосуточно без усталости, выполняют рутинные или опасные задачи и контролируют больше пространства с меньшим количеством людей. Это значительно повышает оперативную эффективность. Такие задачи, как постоянное воздушное наблюдение или повторяющиеся логистические операции, за которые отвечал бы многочисленный персонал, могут быть переложены на дроны и транспортные средства с ИИ. ИИ также оптимизирует распределение ресурсов — от графиков техобслуживания до размещения войск, снижая потери и издержки. Исследование в области военной логистики показало, что применение ИИ в управлении цепочкой поставок может повысить эффективность более чем на 20%, что ведет к более быстрой доставке запчастей и предотвращению поломок army.mil army.mil.
- Снижение риска для солдат: Одно из самых гуманных преимуществ военного ИИ — возможность вывести людей из самых опасных ролей. Беспилотные системы могут искать засады, разминировать территории или брать на себя огонь врага вместо солдат. В зонах особого риска (например, в радиоактивно зараженных областях) роботы могут вести разведку, куда людей посылать смертельно опасно. Даже в активных боевых действиях использование автономных или дистанционно управляемых систем для «3 D» (скучные, грязные и опасные задачи) спасает жизни. Известная цель — чтобы «первыми врывались» в здание на штурме не солдаты, а роботы. Аналогично, эвакуацию раненых или снабжение под огнем могут выполнять автономные машины, сохраняя жизнь медикам и водителям. Со временем по мере совершенствования ИИ целые миссии (например, опасная атака вглубь обороны или поиск субмарины) могут быть поручены беспилотным устройствам, а значит, домой вернется меньше «грузов 200».
- Экономическая эффективность и масштабируемость: Хотя сложные системы ИИ дороги на начальном этапе, многие платформы с ИИ (особенно небольшие дроны и ПО) относительно дешевы и легко масштабируемы. Это дает асимметричное преимущество по стоимости. Например, в недавних конфликтах мы видим, как дешевые дроны уничтожают более дорогую технику — дрон за $2 000 способен вывести из строя систему ПВО стоимостью $2 млн armyupress.army.mil. Рои дешевых беспилотников могут просто количественно подавить элитную оборону. Если армия способна развернуть 100 ИИ-дронов по цене одного истребителя, соотношение затрат явно на стороне ИИ-стратегии. Кроме того, автоматизация сокращает расходы на персонал (один оператор может контролировать десяток машин). Обучение ИИ (данные и симуляции) иногда быстрее и дешевле подготовки живых специалистов. В долгосрочной перспективе использование ИИ, например, для предиктивного обслуживания, также приводит к экономии за счет продления срока службы техники и предотвращения поломок.
- Улучшение точности и снижение сопутствующего ущерба: Грамотно разработанные системы наведения на базе ИИ могут повысить точность ударов и идентификации угроз. Например, ИИ способен различить замаскированную технику на спутниковом снимке, которую человек-аналитик бы не заметил, а значит, уничтожается именно цель, а не случайный объект. Боеприпасы под управлением ИИ могут точнее попадать в цель и даже отменить удар, если параметры не соответствуют, предотвращая случайные выстрелы. Противоракетная оборона с ИИ быстрее среагирует на ракету и рассчитает перехват так, чтобы обломки не упали на жилые районы. Сторонники считают, что с развитием ИИ возможно выполнение критериев огня более строго, чем в состоянии афекта у человека, что снижает жертвы среди гражданских на войне. (Это возможно только при очень тщательной проверке ИИ, но это важное потенциальное достоинство.)
- Стратегические и сдерживающие преимущества: На еще более высоком уровне обладание продвинутым ИИ само по себе может выступать сдерживающим фактором для противников. Если армия одной страны заведомо способна реагировать с помощью ИИ быстрее и эффективнее, враг подумает дважды, прежде чем развязать конфликт. ИИ поддерживает стабильность ядерного сдерживания, помогая раннему оповещению и аналитике для руководства, снижая риск просчетов. Также ИИ помогает в военных играх и стратегическом планировании, моделируя бесчисленные сценарии «что, если» для выбора наилучшей стратегии — это интеллектуальное преимущество может перейти в реальное преимущество в бою. Например, перед крупной операцией командиры могут использовать симуляции ИИ для предугадывания действий врага и совершенствования собственных планов, тем самым обыгрывая соперника заранее.
Основные риски и недостатки военного ИИ:
- Непреднамеренная эскалация и потеря контроля со стороны человека: Главная опасность — что ИИ-системы, действуя на машинной скорости, могут вызывать эскалацию конфликта вопреки намерениям людей. Если автономное оружие с обеих сторон начнет взаимодействовать напрямую (например, воздушные бои между дронами или ИИ-системы киберобороны, реагирующие друг на друга в реальном времени), ситуация может выйти из-под контроля быстрее, чем командиры успеют вмешаться. Исследование RAND Corporation 2020 года показало, что высокая скорость автономных систем способствует неосознанной эскалации autonomousweapons.org. Проще говоря, кризис может выйти из-под контроля просто потому, что алгоритмы, в отличие от людей, не способны к осторожным оценкам — ИИ может воспринять электронный сбой как атаку и открыть огонь, начав опасную перепалку, которую ни одна сторона не желала. Этот риск «молниеносной войны» особенно опасен ядерным державам: можно представить, как ИИ ошибочно принимает стаю птиц за ракетный залп. Если ответный удар произойдет автоматически — результат будет катастрофическим. Поэтому вклад человека в контроль важен, но по мере ускорения решений с помощью ИИ до миллисекунд сделать это технически все сложнее.
- Уязвимость ИИ и кибератаки: Парадоксально, но ИИ, который защищает киберпериметр, сам становится мишенью для атак. Противник может попытаться взломать или подменить военные системы ИИ с катастрофическими последствиями. Например, с помощью «отравленных» данных враг может заставить ИИ ошибочно обозначить дружественные войска как врага, или наоборот. Есть риск внедрения вредоносного ПО, позволяющего перехватить управление дроном или военной машиной, — наш ИИ станет оружием против нас или просто не выполнит задание в критический момент. По мере интеграции ИИ в командные центры успешная кибератака парализует всю армию. Защита ИИ (включая обучающие данные и алгоритмы) крайне сложна. Дополнительно — угроза адверсариальных атак — специально созданных входных данных, которые вводят ИИ в заблуждение (например, узор из пикселей, который заставит вид компьютерного зрения «увидеть» танк там, где его нет). Враг, придумавший такую уловку, буквально обманывает «глаза» ИИ. Любой ИИ — это софт, а софт можно взломать — страшная угроза там, где под контролем ИИ настоящее оружие. Военные системы усиливают защиту, но абсолютной нерушимости нет, а захваченный боевой ИИ может стать смертельно опасным.
- Ошибочные поражения и вред гражданским: Ошибочная идентификация — постоянная угроза. Современные ИИ, особенно на базе глубинного обучения, иногда совершают абсурдные ошибки — например, принимают фотографию черепахи за ружье из-за особенностей распознавания образов. На войне такие сбои могут привести к стрельбе не по тем целям. Например, автономный дрон может перепутать гражданское авто с военным в сложной обстановке. Охранная система на базе ИИ может ошибочно воспринять действие как враждебное и открыть огонь по гражданам. В отличие от человека ИИ не обладает интуицией или здравым смыслом: он выполняет то, чему обучен. Если программирование или данные обучения не охватывают определенный случай — поведение непредсказуемо. Действительно, ИИ часто называют «черным ящиком», и его склонность к неожиданным сбоям — это проблема. Эпизод в Ливии в 2020 году (когда автономный дрон возможно самостоятельно атаковал боевиков без прямого приказа) — тревожный сигнал: хорошо, что не произошло массовых жертв, но опасность есть. Главное этическое последствие — потеря жизней из-за технического сбоя или «слепой зоны». Каждый такой инцидент может иметь огромные моральные и стратегические последствия (если автономная система по ошибке атакует союзников или нейтральных лиц — возможны политические кризисы). Поэтому многие военноначальники требуют, чтобы человек контролировал ИИ и мог остановить его в любой момент, но если ИИ-системы будут массовыми и действовать роем, нагрузка на человеческий контроль становится чрезмерной.
- Алгоритмические предвзятость и злоупотребления: ИИ учится на данных, а если данные носят предвзятый или ошибочный характер, ИИ воспроизводит эти ошибки. В армии это может привести к ошибочному предпочтению или исключению определённых целей. Например, если ИИ обучен в основном на изображениях мужчин-комбатантов, он может не распознавать женщин-боевиков или мирных граждан, что ведет к ошибкам. Существует также опасность авторитарного злоупотребления: режим может использовать военный ИИ для подавления населения (например, беспилотники для разгона протестов или ИИ-наблюдение для слежки за оппозицией). Грань между внешней обороной и внутренним применением размыта, что чревато нарушениями прав человека. После разработки смертоносного ИИ есть риск применения его вне закона (например, когда недобросовестный лидер использует ИИ-убийц против политических соперников, ссылаясь на самостоятельность машины). Эти риски кажутся умозрительными, но их нельзя игнорировать при разработке политики.
- Гонка вооружений и стратегическая нестабильность: Стратегический риск ИИ — это неконтролируемая гонка вооружений, когда страны спешат развернуть ИИ-оружие, опасаясь отстать. В итоге возможна поспешная разработка, недостаточные испытания и больше аварий. Также это дестабилизирует: если сложно оценить потенциал противника (ИИ — это софт, в отличие от танков или ракет его не видно со спутника), растет недоверие. Возможен и взаимный автоматизированный недоверие: каждая сторона может неверно интерпретировать действия ИИ противника, что приведет к кризисам на пустом месте. Аналитики сравнивают это с ситуацией ранней ядерной эры, когда решения принимались мгновенно — но теперь это может делать алгоритм. Да, ИИ может укреплять сдерживание, но может и разрушить человеческие каналы связи, которые позволяли избегать войны (вспомните Карибский кризис — если бы решения принимал ИИ, была бы та же сдержанность?). Некоторые эксперты предупреждают: стихийная конкуренция военного ИИ повышает вероятность войны, пусть и невольно carnegieendowment.org. Есть и противоположная точка зрения: при грамотном управлении ИИ может сделать систему более стабильной (например, совершенное наблюдение уменьшит риск внезапной атаки), но это оптимистичный подход. Опасность в том, что просчеты станут более вероятны, если на поле появятся автономные системы — если не будут приняты серьезные меры по доверию и контролю вооружений.
Взвешивая эти плюсы и минусы, очевидно: военный ИИ — это обоюдоострый меч — зачастую то, что дает ИИ преимущество (скорость, автономия, решительность), несет и оборотную сторону (молниеносная эскалация, потеря контроля, жесткость). Военные и политики активно работают над максимизацией выгод (путем строгого тестирования, поэтапного внедрения, сочетания работы человека и машины вместо полной автономии) и снижением рисков (через механизмы защиты, надзор, международный диалог о нормах). Надежда в том, что при грамотном управлении ИИ действительно сделает войну более точной, менее затратной и короткой, избежав массовых бойнь ХХ века. Опасение же в том, что без осторожности ИИ сделает войну разрушительнее и менее контролируемой. Ближайшие годы будут крайне важны для правильного баланса — чтобы получить плюсы ИИ для обороны и сдерживания, одновременно обуздав риски и сохранив безопасность человечества, а не поставив его под угрозу в ИИ-эпоху.
Сравнительный анализ военных ИИ-возможностей и инвестиций по странам
Для понимания глобального ландшафта военного ИИ полезно сравнить, как разные государства инвестируют и развивают эти технологии. В таблице ниже представлен снимок ключевых стран/игроков, их оценочные расходы на оборонный ИИ и примеры их заметных военных возможностей или инициатив, связанных с ИИ:
Страна/Блок | Оценочные инвестиции в оборонный ИИ | Заметные возможности и инициативы в области ИИ |
---|---|---|
США | ~1,8 млрд долларов в год (бюджет Пентагона на ИИ на 2024 г.) defensescoop.com, плюс дополнительные миллиарды на НИОКР автономных систем nationaldefensemagazine.org. | – Project Maven (ИИ для анализа изображений) успешно применялся в борьбе с терроризмом defense.gov. – Объединённое командование и управление всеми доменами (JADC2) — интеграция сил с помощью ИИ; ACE ИИ DARPA управлял F-16 в 2023 г. darpa.mil. – Дроны-ведомые (Loyal Wingman): ВВС США планируют более 1000 автономных CCA к 2030 году airforce-technology.com. – JAIC/CDAO Пентагона централизует разработку ИИ; существуют этические инструкции по использованию ИИ (требование участия человека при применении летальной силы) en.wikipedia.org. |
Китай | «Низкие миллиарды» долларов в год (сравнимо с США) на военный ИИ, по оценкам аналитиков nationaldefensemagazine.org. Совокупная ИИ-индустрия Китая — ~$23 млрд в 2021 г., цель $150 млрд к 2030 г. armyupress.army.mil. | – Доктрина «интеллектуализированной войны»: НОАК инвестирует в ИИ для разведки, автономных дронов, систем поддержки принятия решений carnegieendowment.org. – Акцент на ИИ для анализа информации, предиктивного обслуживания, распознавания целей nationaldefensemagazine.org. – Многочисленные программы БПЛА (стелс-дроны, рои); испытания 2024 г. масштабного дронового роя для захвата острова armyupress.army.mil. – Гражданско-военная интеграция, участие технологических гигантов; разработка ИИ-ракет и морских дронов. |
Россия | Точные расходы неизвестны; ИИ включён в оборонный план 2024–2033 несмотря на санкции. Один из официальных показателей: стоимость российского рынка ИИ (гражданский и военный) ~7,3 млрд долл. в 2023 г. defensenews.com. | – Ставка на автономное вооружение: Новый департамент ИИ в Минобороны, ИИ в С-500 для ускоренного реагирования на угрозы defensenews.com. – Боевые роботы (например, «Уран-9»), барражирующие боеприпасы применялись в Сирии/Украине; модернизация старых систем с помощью ИИ defensenews.com. – Упор на ИИ для радиоэлектронной борьбы и киберопераций (глушение, взлом) против технологических противников. – Ограничения: опора на госсектор (лаборатория ИИ Ростеха), двойные технологии; дефицит специалистов и микрочипов снижает масштаб. |
НАТО (союзники) | Общий бюджет НАТО: 1 млрд евро — Фонд инноваций НАТО (2022) на новые технологии. Вклады стран, например, Великобритания ~2,1 млрд фунтов на оборонные НИОКР 2022 г. (включая ИИ и автономию) post.parliament.uk. | – Стратегия НАТО по ИИ принята в 2021 г., обновлена в 2024 г. с акцентом на ответственное применение armyupress.army.mil. – DIANA — акселератор для стартапов/разработок в ИИ и данных по всему альянсу armyupress.army.mil. – Возможности союзников: США лидируют (см. выше); Великобритания тестирует рои и автологистику; Франция развивает ИИ-БПЛА; Германия — ИИ для обеспечения управления. – Совместные учения НАТО обеспечивают совместимость ИИ-систем различных стран; совместные принципы минимизируют риски нарушения этики. |
Примечания: Объёмы инвестиций приблизительные и методы подсчёта различаются (у одних только ИИ-программы, у других также автономные системы и робототехника). «Ключевые возможности» — лишь некоторые примеры; весь перечень шире. Все эти игроки постоянно расширяют усилия в области ИИ, так что ситуация быстро меняется.
Из приведённого сравнения США и Китай явно выделяются как главные игроки по инвестициям и широте военного применения ИИ — именно они задают темп гонке ИИ-вооружений. США опираются на огромный оборонный бюджет и частные технологические инновации, тогда как Китай мобилизует государственные ресурсы и гражданско-военное слияние. Россия, хотя и уступает по ресурсам, компенсирует это приоритетами в беспилотных боевых комплексах и радиоэлектронной борьбе, исходя из стратегических нужд. Тем временем коллективный подход НАТО выражается в объединённом финансировании и общих стандартах: альянс стремится не отставать от ведущих держав даже при сравнительно меньших национальных бюджетах, а также гарантировать, что военный ИИ применяется в рамках демократических ценностей.
Стоит отметить, что и другие страны, не отражённые в таблице, весьма активны: например, Израиль является мировым лидером по производству автономных дронов и ИИ для охраны границ (часто экспортируя свои разработки), а Южная Корея, Япония, Индия и Турция развивают собственные военные ИИ-программы (у Южной Кореи — роботизированные пограничные комплексы, в Индии — рабочая группа по ИИ в обороне, у Турции — «рои» дронов и барражирующие боеприпасы, что видно по событиям последних конфликтов). Ландшафт становится по-настоящему глобальным, однако стратегические подходы и масштабы инвестиций США, Китая, России и НАТО задают тон, определяя баланс военных сил будущего.
Хронология ключевых событий в военном ИИ
Чтобы представить эволюцию ИИ в обороне, ниже приводится хронология важнейших вех, событий и внедрений, которые характеризуют взлёт искусственного интеллекта и автономии в военном деле:
- 2017 — запуск Project Maven и взлёт ИИ-стратегий: В апреле Министерство обороны США запускает проект Project Maven, межфункциональную команду по алгоритмической войне — цель: внедрить ИИ для анализа видео с дронов defense.gov. Уже к концу года алгоритмы компьютерного зрения Maven применяются на Ближнем Востоке для выявления боевиков на дрон-видео, демонстрируя прикладную пользу ИИ на поле боя. В сентябре Владимир Путин заявляет, что тот, кто будет лидировать в ИИ, «станет властелином мира», подчёркивая высший приоритет технологии. Китай объявляет свою Стратегию развития ИИ нового поколения с явно обозначенными военными целями и устремлениями выйти в мировые лидеры к 2030 году.
- 2019 — «интеллектуализированная война» и этические инициативы: Белая книга национальной обороны Китая концентрируется на продвижении к «интеллектуализированной войне» — глубокой интеграции ИИ в модернизацию НОАК carnegieendowment.org. Минобороны США публикует первую стратегию в области ИИ (декларированная версия), где ИИ выделен как приоритет для противостояния великим державам, и учреждает Объединённый ИИ-центр (JAIC) для координации проектов. В сфере этики Совет инноваций Минобороны США предлагает этические принципы ИИ, получившие официальный статус в 2020 г.; международные дебаты по автономному оружию обостряются, возрастает давление в пользу регулирования.
- 2020 — боевые дебюты автономии: Автономные вооружения впервые участвуют в боевых действиях. Согласно отчёту ООН, в марте 2020 г. в гражданской войне в Ливии турецкий барражирующий дрон Kargu-2 атаковал отступающих бойцов автономно, без приказа человека autonomousweapons.org — вероятно, это первый зафиксированный случай «охоты» оружием на ИИ против людей. В августе ИИ-агент Heron Systems побеждает кадрового пилота ВВС США со счётом 5:0 в имитации воздушного боя на F-16 в рамках AlphaDogfight Trials DARPA armyupress.army.mil, демонстрируя прогресс ИИ в сложных боевых сценариях. Одновременно в войне в Нагорном Карабахе (Азербайджан vs Армения) ИИ-боеприпасы и ударные дроны (в основном израильского производства) уничтожают бронетехнику и ПВО, что иллюстрирует скорую трансформацию войны.
- 2021 — стратегия НАТО по ИИ и тесты роя: НАТО принимает первую стратегию в сфере ИИ в октябре с упором на ответственность и инновации союзников armyupress.army.mil. Армия США создает первый Центр интеграции ИИ, Минобороны вводит официальные Этические принципы для ИИ (прозрачность, управляемость решений). В ближневосточном конфликте Израиль впервые, по сообщениям, применяет боевой роевой дрон для поиска и удара по целям в Газе — одно из первых боевых применений дронового роя. В ООН переговоры о летальном автономном оружии заходят в тупик: блок стран требует запрета, лидеры в ИИ сопротивляются; консенсуса достичь не удаётся.
- 2022 — ИИ впервые в крупномасштабной войне (Украина) и глобальные реакции: Вторжение России в Украину (февраль 2022) становится витриной военных технологий: Украина применяет ИИ для разведки (распознавание лиц российских солдат, анализ спутниковых снимков с помощью ИИ для наведения артиллерии), Россия — иранские Shahed-136 и собственные барражирующие боеприпасы с ИИ-наведением для ударов по инфраструктуре. Конфликт называют «лабораторией ИИ-войны», частные компании (например, Palantir) поставляют Украине ИИ-платформы для наведения и логистики carnegieendowment.org. НАТО, встревоженное этим, запускает акселератор DIANA и утверждает Инновационный фонд на 1 млрд евро для поддержки ИИ-стартапов. В октябре по требованию ускорения реформ JAIC преобразуется в новый офис CDAO. По всему миру страны ускоряют инвестиции в военный ИИ и автономию после шока от событий в Украине.
- 2023 — крупные прорывы и перемены в политике: В январе Минобороны США обновляет директиву 3000.09 по автономности оружия, сохраняя требование контроля человека, но обеспечивая больше ясности по разработке летальных ИИ-систем en.wikipedia.org. Программа DARPA ACE совершает исторический прорыв: в декабре 2022 г. (опубликовано в 2023) ИИ впервые полностью пилотирует настоящий истребитель F-16 (X-62 VISTA), включая воздушный бой, без участия человека darpa.mil. Весной секретарь ВВС США анонсирует закупку более 1000 «умных» дронов-ведомых для сопровождения пилотируемых истребителей — старт масштабных закупок автономных авиационных систем airforce-technology.com. Корпоративная трансформация: OpenAI убирает запрет на военное использование своих ИИ-продуктов, отражая сдвиг позиций крупного технологического сектора по взаимодействию с Пентагоном carnegieendowment.org. На международной арене из-за медленности ООН впервые принимается резолюция Генассамблеи по автономному оружию, а Генсек ООН поддерживает идею договора — тема достигает уровня высшей дипломатии autonomousweapons.org.
- 2024 — учения с роем и призывы к договору: В середине 2024 г. Китай проводит масштабные учения дронового роя, использующегося с моря и воздуха для поддержки «приземления на остров» — шаг, расцениваемый как подготовка к сценарию с Тайванем armyupress.army.mil. Новый ИИ-план НАТО опубликован на вашингтонском саммите в июле — акцент на безопасности ИИ, масштабном тестировании и совместном управлении данными armyupress.army.mil. К осени страны из Глобального Юга и Европы объединяют усилия в Первом комитете ООН, требуя переговоров о регулировании автономных вооружений. Тем временем армия США применяет прототипы автономных боевых машин на учениях, ВМС тестируют первый раз автономное управление кораблями в составе флота. Видя мировые тренды, Генсек ООН осенью 2024 г. называет появление ИИ в войне «серьёзной угрозой для человечества» и призывает к принятию новых правил до 2026 года. В этом году стартует и развёртывание ИИ-обогащённых военных спутниковых созвездий (с бортовым ИИ для улучшенного наблюдения Земли и обнаружения угроз).
На 2025 год ландшафт военного ИИ динамичен и быстро эволюционирует. За пару лет мы прошли путь от первых пилотных ИИ-проектов до реального применения автономных систем в боевых конфликтах и почти развёртывания авиации с ИИ-ведомыми. Из этой хронологии видно: за техническими прорывами (например, победы ИИ над пилотами, рои дронов) быстро следуют попытки выработки политики и стандартов (стратегии НАТО и дебаты в ООН), однако часто технология обгоняет дипломатию. Следующие рубежи могут включать полностью автономные миссии, массовое применение роёв или (к сожалению) ЧП, связанное с ИИ, что позволит резко ускорить разработку глобальных норм и регулирования.
Ясно одно: ИИ в военном деле уже не гипотетическая возможность – он уже здесь. Перед мировой общественностью стоит задача и ответственность — направить эти изменения в русло, которое укрепит безопасность и будет соответствовать нашим этическим принципам, прежде чем джин окончательно вырвется из бутылки.