Война будущего: как искусственный интеллект изменит тактику сдерживания
Могут ли новые технологии повлиять на сложившуюся систему взаимоотношений между государствами, обладающими ядерным оружием?
(Others)

Возможно, самым заметным глобальным сдвигом за последнее десятилетие стала быстрая трансформация технологических инноваций. XXI век принес важные новые разработки для ведения войны — как интуитивно, так и преднамеренно. В частности, все более актуальными становятся разработки в сфере искусственного интеллекта (ИИ). Они меняют наш мир.

Военные теперь стараются максимально использовать возможности ИИ — он считается таким же революционным технологическим прорывом, как и открытие пороха. ИИ позволяет машинам и оружию решать такие задачи, как обучение, планирование, анализ и выполнение миссий, имитирующих человеческий интеллект.

В то время как у ИИ есть захватывающие перспективы для обмена знаниями и инновациями, его значительные темпы развития вызывают серьезную озабоченность из-за возможных последствий в будущем для национальной безопасности и стратегической стабильности на региональном и международном уровнях.

В 2017 году президент России Владимир Путин заявил: «тот, кто совершит прорыв в разработке ИИ, будет господствовать в мире». Он констатировал очевидное и стремился догнать США в технологическом плане.

В случае с ИИ это технология, определяющая стратегию.

Глобальная гонка военных в сфере искусственного интеллекта

Использование ИИ в войне считается спорным, но, несомненно, перспективным. Благодаря беспрецедентной помощи США и НАТО Украина добилась асимметричных результатов против российской агрессии. В этой прокси-войне ИИ, спутники, беспилотники и кибервозможности, предоставленные Украине как испытательному полигону, до сих пор играли центральную роль в конфликте.

Автономные системы летального вооружения (LAWS) представляют особую угрозу, которую необходимо изучить в свете использования ИИ в военных операциях. Если ИИ, используемый в таких системах, допустит ошибку в расчетах и ударит не по той цели, это не только вызовет дефицит доверия между государствами, обладающими ядерным оружием, но также может снизить ядерные пороги — это увеличивает риск упреждающих ударов во время кризисов, особенно учитывая гонку за этим передовым оружием. В период с 2017 по 2021 год прогнозируемые расходы РФ на беспилотники составили $3,9 млрд, Китай потратил $4,5 млрд, а США — $17,5 млрд.

ИИ все чаще интегрируют в беспилотные летательные аппараты (БПЛА), LAWS, системы противоракетной обороны, подводные лодки и самолеты. Стратегия национальной безопасности США до 2022 года фокусируется на совместном развитии потенциала и обмене информацией между союзниками наряду с одновременным своевременным развертыванием таких технологий для защиты общего военно-технического преимущества. Третья офсетная стратегия США (third offset strategy; первая стратегия — тактическое ядерное оружие, вторая — высокоточное оружие, третья — роботизированные или автономные системы вооружений) предполагает внедрение системы глобального наблюдения и нанесения ударов (GSS), чтобы, в частности, противостоять распространению критических прорывных технологий.

Между тем, стремление Китая состоит в том, чтобы к 2030 году стать сверхдержавой с искусственным интеллектом. В 2022 году Пекин заявил, что ему удалось разработать модель системы противовоздушной обороны с поддержкой искусственного интеллекта, которая будет предсказывать траекторию гиперзвуковых планирующих ракет и в то же время иметь возможность проводить быструю контратаку. КНР также разрабатывает ряд автономных систем вооружения: страна развернула робототехнику и беспилотные системы на суше, в воздухе, на море и в космосе. Некоторые из этих систем поддерживают ИИ, но не для таргетирования целей.

Другие страны, такие как Россия, сосредоточены на использовании ИИ в морской сфере, включая подводные боевые дроны. Израильская противоракетная система «Железный купол» самостоятельно обнаруживает и сбивает ракеты.

Индийская тактика

В Южной Азии Индия создала Центр искусственного интеллекта и робототехники (CAIR) при Организации оборонных исследований и разработок (DRDO), чтобы поддержать гонку вооружений в сфере ИИ для военных целей. Более того, в индийской доктрине Land Warfare 2018 года значительный акцент был сделан на ИИ и его интеграции в военные системы. Имея угрозу войны на два фронта — против Пакистана и Китая — Нью-Дели мотивирован получить экономическую, дипломатическую и военную поддержку от США — она также включает новые технологии.

В связи с этим индийские военные эксперты сделали упор на использование ИИ в военных системах, пока не стало слишком поздно. Индия разрабатывает систему роботов Multi-Agent Robotics Framework — она, вероятно, будет действовать как команда солдат и помогать индийской армии в будущих войнах. Нью-Дели также приобрел 200 автономных роботов DAKSH — их еще называют дистанционно управляемыми транспортными средствами (ROV) — для обезвреживания бомб.

В области робототехники и ИИ Индия также сотрудничает с Японией, одновременно работая над более сложным использованием этих технологий в оборонном и военном секторах. К ним относятся интерпретация изображений, распознавание целей, оценка дальности, оценка зоны поражения ракет и использование роботов в более неклассифицированных формах. Недавние индо-американские инициативы в области технологий, космоса и обороны также включают сотрудничество в области ИИ и квантовых вычислений для противодействия Китаю.

Может ли использование ИИ закончиться ядерным ударом?

Эксперты полагают: в этот «‎‎третий ядерный век» необходимо переосмыслить традиционные концепции сдерживания и стратегической стабильности в связи с усилением акцента на новые технологии. Системы, основанные на искусственном интеллекте, могут обрабатывать данные намного быстрее, чем люди — это может помочь сократить цикл OODA («‎‎наблюдай-ориентируйся-решай-действуй»), тем самым рассеяв туман войны.

Тем не менее, ИИ по-прежнему нельзя запрограммировать на ситуационную осведомленность, отражающую человеческое понимание. Во время кризиса, если государства используют ИИ для обнаружения и нацеливания — а противник понимает, что по ту сторону фронта будут действовать быстрее с помощью ИИ — это может вынудить стороны прибегнуть к упреждающим ударам из-за боязни быть атакованным первым. Кроме того, любой сбой в системе может привести к неправильному анализу данных и может закончиться эскалацией или даже применением ядерного оружия.

Группа над/подводных беспилотных аппаратов может использоваться для обнаружения атомных подводных лодок. Однако другие эксперты полагают: из-за обширности океана для обнаружения подводных лодок с баллистическими ракетами (ПЛАРБ) могут потребоваться сотни и тысячи подводных беспилотников, поскольку большинство из них патрулируют открытое морское пространство.

Таким образом, наиболее благоприятным вариантом будет использование возможностей обнаружения с поддержкой ИИ в идентифицируемых узких местах. Однако сам этот шаг в наше время уже можно считать эскалацией. Например, индийская ПЛАРБ — INS Arihant — была развернута у пакистанских вод во время кризиса в мае 2019 года, и это было расценено как эскалация.

Индия также использует прилежащее морское пространство, благодаря чему у нее есть преимущество для картографирования данных в Афро-Азиатском океане с помощью технологий с поддержкой ИИ — их можно использовать в предконфликтных сценариях. Но быстрый анализ данных может привести к гипервойне и оказать сильное влияние на стратегическую стабильность между Индией и Пакистаном.

Интересно, что, как и в случае с ядерным оружием, монополия крупных держав на ИИ и LAWS не будет вечной. Со временем — если эта сфера не будет урегулирована международным правом — LAWS будут широко распространяться и становиться доступными. Последствия распространения таких технологий среди квазигосударственных субъектов могут вызывать серьезную озабоченность.

Вся тактика сдерживания может потерять смысл

Отказ от превентивного запрета на разработку LAWS был бы идеальным шагом, а не попыткой регулировать их развертывание и использование. Кроме того, не имеющие обязательной юридической силы Меры транспарентности и укрепления доверия (МТД) — это лишь промежуточные полумеры для борьбы с серьезной угрозой, с которой сегодня сталкивается мир. Необходим коллективный мораторий на использование ИИ в военных целях до тех пор, пока в качестве наиболее жизнеспособного решения не будет заключен юридически обязывающий документ.

Вся концепция сдерживания заключается в том, что такое оружие используется, чтобы удержать противника от удара. Если каким-либо образом выбор целей и принятие решений будет оставлено за оружием с ИИ, «сдерживание» может просто потерять смысл. В то же время ядерное табу — сохраняющееся с момента первого применения ядерного оружия США в 1945 году — может быть нарушено, если за процесс принятия решений будут отвечать машины.

Это показывает: ИИ уникальным образом изменит всю систему сдерживания и принуждения между государствами, обладающими ядерным оружием.

Точка зрения авторов публикаций не обязательно отражает мнение и позицию TRT на русском. Мы приветствуем любые предложения и открыты к сотрудничеству. Чтобы связаться с редакцией, воспользуйтесь формой обратной связи.