28 февраля 2026 года, за несколько часов до того, как американские ракеты Tomahawk начали рваться на улицах Тегерана, Пентагон объявил вне закона компанию, чей искусственный интеллект в тот же момент помогал выбирать цели для ударов. Это не оговорка и не абсурд — это новая реальность войны, где алгоритм работает быстрее протокола, а частная компания из Сан-Франциско становится полем боя между корпоративной этикой и государственной машиной убийства.
Пока CEO Anthropic Дарио Амодеи отказывался подписывать контракт без гарантий того, что его нейросеть Claude не будет использоваться для автономного убийства и слежки за американскими гражданами — его нейросеть уже делала именно это.
Согласно репортажам The Wall Street Journal и The Washington Post, Claude был встроен в систему Maven Smart System (единая разведывательная платформа Пентагона) совместно с ПО компании Palantir (ее технологический подрядчик и оператор) и применялся для идентификации целей в Иране в режиме реального времени.
Скандал с Пентагоном обнажил не просто корпоративный конфликт — он показал, что эпоха военного ИИ уже наступила. И что правила для нее никто не успел написать.
Как Anthropic поссорился с Пентагоном
История началась не с идеализма, а с бизнеса. Anthropic первой из крупных ИИ-лабораторий разместила свои модели в засекреченных сетях Министерства обороны США — через технологическую платформу Palantir с уровнем доступа «засекречено». Контракт оценивался в $200 млн. Когда пришло время его обновлять, компания уперлась.
Две «красные линии» Anthropic: нейросеть не должна использоваться для автономного управления оружием и для массовой слежки за американскими гражданами. Позиция компании была сформулирована жестко: ИИ недостаточно надежен для принятия решений о применении силы, а законодательной базы для регулирования слежки через ИИ попросту не существует.
24 февраля министр обороны США Пит Хегсет встретился с CEO Anthropic Дарио Амодеи и потребовал открыть доступ к модели Claude для «всех законных целей», дав компании срок до вечера пятницы, 27 февраля. В противном случае Пентагон пригрозил расторгнуть контракт, объявить компанию «риском для цепочки поставок» и рассмотреть возможность принудительного доступа к технологии. Anthropic не сдвинулась с места.
В ответ президент Трамп приказал всем федеральным ведомствам немедленно прекратить использование продуктов Anthropic. Хегсет присвоил компании статус «supply chain risk» — ярлык, который обычно вешают на фирмы, связанные с иностранными противниками. Это автоматически блокировало Anthropic от работы с военными подрядчиками.
Замминистра обороны по науке и технологиям Эмиль Майкл, выступая в подкасте All-In, объяснил свою позицию без дипломатии. «Мне нужен надежный, стабильный партнер, который будет работать со мной по автономным системам. Мне нужен кто-то, кто не «сдастся» на полпути», - заявил он. Амодеи в ответ обвинил Майкла во лжи и назвал обвинения «абсурдными».
9 марта Anthropic подала иск против Министерства обороны в федеральный суд Калифорнии. Компания заявила, что ярлык «supply chain risk (ненадежный поставщик)» нарушает Первую поправку — правительство наказывает ее за публичное высказывание позиции по вопросам безопасности ИИ. Параллельно более 30 ученых из OpenAI и Google DeepMind поддержали Anthropic в открытом письме.
Но главный парадокс конфликта — в другом. Пока разворачивался этот скандал, Claude продолжал работать в Иране. Согласно данным индийского аналитического центра Observer Research Foundation, нейросеть применялась ВВС США для синтеза разведданных и идентификации целей в режиме реального времени. Anthropic оказалась одновременно истцом в суде против Пентагона — и фактическим поставщиком технологий для его операций.
Газа как полигон: что происходит, когда алгоритм убивает
Война в Газе стала одним из первых масштабных примеров системного применения алгоритмических систем ИИ в боевых операциях. Израильские военные, по данным расследований журналистов, использовали как минимум четыре такие системы: Habsora (Евангелие), Lavender, систему отслеживания целей Where’s Daddy? и алгоритм оценки сопутствующего ущерба, название которого не раскрывается.
Habsora, разработанная подразделением Unit 8200 армии Израиля, анализирует здания и инфраструктуру на предмет связи с ХАМАС и «Исламским джихадом». Система способна генерировать до 100 целей в день — против 50 целей в год, которые мог обработать опытный офицер-аналитик. В первый месяц войны армия нанесла более 22 000 ударов — для сравнения, за всю кампанию 2021 года их было 1 500.
Lavender работала иначе. Согласно расследованию +972 Magazine и The Guardian, основанному на показаниях шести офицеров израильской разведки, система присваивала каждому жителю Газы вероятностный балл — насколько велика вероятность его принадлежности к ХАМАС или организации «Исламский джихад». На пике операции список насчитывал 37 000 человек. После того как выборочная проверка показала точность в 90%, командование разрешило массовое применение Lavender для формирования списков целей.
Что происходило дальше — офицеры описывают сами. Среднее время «верификации» цели составляло 20 секунд: оператор проверял, что имя, пол и адрес совпадают с ожидаемым профилем — и не более того. Механизм принятия решения алгоритмом никто не проверял. Низкоуровневых боевиков называли «мусором». Для их убийства допускалась гибель до 20 мирных жителей. Для командиров среднего звена — до нескольких десятков. Для высокопоставленных целей — до 300 человек.
Система Where's Daddy? отслеживала цели по местонахождению — и давала сигнал атаковать в момент, когда человек находился дома, рядом с семьей. Израильские официальные лица объясняли это прагматично: незачем тратить дорогую высокоточную бомбу на рядового боевика — дешевле уничтожить весь дом.
Результат этого подхода задокументирован. Сведения засекреченной военной базы данных, раскрытые в мае 2025 года: из 53 000 погибших в Газе лишь 17% были комбатантами. 83% — мирные жители. ООН верифицировала, что почти 70% убитых составляли женщины и дети.
В сентябре 2025 года Microsoft ограничила использование Azure после того, как The Guardian сообщил об использовании данных телефонных переговоров для выбора целей — что нарушало условия предоставления услуг.
Специальный докладчик ООН Бен Сол был прям: если сообщения о применении Lavender достоверны, многие израильские удары в Газе составляют военные преступления — нарушение принципа соразмерности.
Генеральный секретарь ООН Антониу Гутерриш заявил, что практика применения ИИ в военных операциях «ставит под угрозу мирное население и размывает ответственность».
Протокол Ганнибала — еще одна точка пересечения автоматизации и этики. Согласно расследованию Haaretz (июль 2024) и докладу Комиссии ООН (июнь 2024), 7 октября 2023 года приказ «Ганнибал» был применен в массовом масштабе: армия открывала огонь по транспортным средствам, в которых могли находиться заложники, чтобы не допустить их вывоза в Газу.
По данным расследования, в доме Песси Коэн в кибуце Беэри находились 14 заложников — танк открыл огонь, 13 из них погибли. Беспилотник «Зик» был поднят в воздух по команде «Ганнибал» с командного пункта дивизии. Бывший полковник ВВС Ноф Эрец так описал произошедшее: «Это был массовый Ганнибал».
Иран: алгоритм в активной фазе
28 февраля 2026 года, через несколько часов после того, как Трамп приказал прекратить сотрудничество с Anthropic, американские и израильские ракеты начали уничтожать объекты в Тегеране. Claude работал.
Согласно данным Observer Research Foundation и репортажам The Washington Post, нейросеть Anthropic применялась ВВС США в рамках системы Maven Smart System совместно с ПО Palantir. Система предлагала командирам «возможности видеонаблюдения» для обзора поля боя, определяла приоритеты целей, разрабатывала маршруты отхода — и формировала пресс-релизы. Принятие решений о тысячах ударов было ускорено ИИ до уровня, при котором человеческий контроль стал формальностью.
«Искусственный интеллект дает рекомендации о том, на что следует нацелиться, что в некотором смысле намного быстрее человеческой мысли», — говорит в интервью Guardian Крейг Джонс, политический географ Ньюкаслского университета и автор книги «Военные юристы» о роли ИИ в современной войне. В интервью журналу Fortune он уточняет, что скорость, масштабы и количество американо-израильских ударов по Ирану, в результате которых погиб верховный лидер страны Али Хаменеи были бы невозможны без использования ИИ. «ИИ критически сократил «kill chain» — время от идентификации цели до ее поражения», - говорит исследователь.

По словам старшего научного сотрудника Фонда Карнеги за международный мир Стива Фельдштейна, главная роль ИИ в операциях США в Иране и Венесуэле — системы поддержки принятия решений, обрабатывающие спутниковые снимки, перехваченные переговоры и данные сенсоров в режиме реального времени.
«Меня беспокоит, что непроверенные системы с высокой степенью летальности будут применяться и способны привести к катастрофическим результатам — например, ударам по гражданским объектам: больницам и школам… Есть ли у нас правильные нормы и механизмы ответственности для управления экспоненциальным ростом использования этих инструментов? Мой ответ — нет», - заявил Фельдштейн в интервью Rest of World.
При этом исследование Королевского колледжа Лондона (профессор Кеннет Пейн, arXiv, февраль 2026) показало: когда GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash разыграли 21 сценарий ядерного кризиса, тактическое ядерное оружие было применено в 95% случаев, стратегические ядерные угрозы — в 76%. Ни одна из моделей ни разу не выбрала уступку или отступление. Пейн резюмировал: «Ядерное табу для машин не работает так, как для людей».
Перегрузка системы дала первые сбои. 2 марта зафиксирован инцидент дружественного огня: кувейтская система ПВО открыла огонь по американским истребителям F-15 над зоной действия Центра воздушных операций США на базе Аль-Удейд в Катаре. Эксперты объяснили инцидент «программным сбоем координации».
ВОЗ к 11 марта идентифицировала 18 объектов здравоохранения Ирана, пораженных в ходе ударов. 2 марта на площади Нилуфар в Тегеране в результате американо-израильского удара погибли 20 мирных жителей, сообщили власти Ирана. По данным иранского Красного Полумесяца, к 3 марта жертвами стали более 787 человек.
Независимые эксперты ООН, комментируя первые удары, заявили, что атаки на гражданские объекты и инфраструктуру требуют международного расследования и могут противоречить нормам международного гуманитарного права.
Как отмечает сотрудник Центра международной безопасности и сотрудничества Стэнфордского университета Джаклин Шнайдер, «армии не отказываются от технологий, глубоко встроенных в их военные процессы, особенно накануне конфликта».
Это объясняет, почему Anthropic оказалась одновременно в суде против Пентагона — и на острие его самой масштабной операции десятилетия.
От «безопасного ИИ» к гонке вооружений
Anthropic долгое время позиционировала себя как компания, готовая ограничивать развитие технологий ради безопасности.
В предыдущих версиях своей Политики ответственного масштабирования компания заявляла, что может приостановить развитие моделей, если не удается обеспечить их безопасное использование.
Однако в обновленной версии документа это положение исчезло. Вместо него появилась более гибкая система — «Дорожная карта безопасности передового ИИ», которая предполагает публичные цели безопасности, но не требует обязательной остановки разработки.
«Мы чувствовали, что на самом деле никому не поможет, если мы прекратим обучать модели искусственного интеллекта», - объяснил такое решение сооснователь Anthropic Джаред Каплан.
По его словам, если одна компания остановит развитие технологий, а другие продолжат, глобальный уровень безопасности может даже снизиться.
Для многих аналитиков этот аргумент звучит знакомо. Именно так в середине XX века объяснялась необходимость ускоренного развития ядерного оружия.
По мнению исследователя безопасности ИИ Дэна Хендрикса, развитие наиболее мощных систем искусственного интеллекта может создавать катастрофические риски и требует международного контроля и механизмов управления.
На деле же мы имеем дело с тем, что технологическое развитие обгоняет международное регулирование — в этом сходятся все аналитики. С начала марта в Женеве проходит очередной раунд переговоров ООН по летальным автономным системам оружия. Принятый документ может стать основой для будущих переговоров о запрете и регулировании автономного оружия.
Государство и ИИ-индустрия: кто на самом деле контролирует кого
Конфликт вокруг использования систем искусственного интеллекта в военной сфере не означает, что государства только сейчас начинают подчинять себе технологические компании, считает бывший разработчик глобальной технологической компании Broadcom, согласившийся прокомментировать ситуацию TRT на русском на условиях анонимности.
«Государства и компании создающие ИИ-системы с самого начала действовали синхронно. Государству не нужно брать эти компании под контроль. Оно помогало им с самого начала — например, фактически закрывая глаза на использование общественных данных, и их никогда всерьез не допрашивали по этому поводу. Напротив, правительства стараются открывать перед ними все двери. Эти компании прекрасно понимали цену, которую им придется заплатить, и координируют свои действия с государством с первого дня. А вопрос о том, кто на самом деле контролирует кого и что вообще считать «государством», — чрезвычайно запутанный», — сказал разработчик ПО.
В качестве примера тесного переплетения интересов индустрии и государства специалист привел один из судебных споров вокруг обучения моделей искусственного интеллекта.
«Позвольте привести один из немногих примеров того, как модели ИИ обучались незаконно — и это лишь вершина айсберга. В конце августа 2025 года Anthropic согласилась на историческое соглашение на сумму $1,5 млрд по крупному коллективному иску о нарушении авторских прав в сфере ИИ — делу Bartz против Anthropic. В рамках урегулирования компания должна была выплатить авторам значительные компенсации за незаконное скачивание огромного количества книг с пиратских сайтов», — отметил эксперт.
По его словам, ключевой причиной конфликта Anthropic с Пентагоном стали ограничения на использование ее модели Claude в военных целях.
«Стоит напомнить, что настоящая причина спора заключалась в том, что Anthropic не позволила использовать Claude для полностью автономной летальной войны без человеческого контроля, а также для массового наблюдения за американцами. Иными словами, ее вполне устраивала автономная война и все последствия, которые она может повлечь. Она лишь настаивала на наличии «человеческого контроля», — сказал собеседник.
Комментируя технологические ограничения современных систем искусственного интеллекта, специалист подчеркнул, что общественные представления о возможностях ИИ часто сильно преувеличены.
«Когда мы сегодня говорим об искусственном интеллекте, чаще всего имеем в виду технологии, основанные на больших языковых моделях. Ян Лекун, главный научный сотрудник Meta в области ИИ и лауреат премии Тьюринга, постоянно подчеркивает, что большие языковые модели не способны достичь человеческого уровня общего интеллекта. Они ограничены распознаванием шаблонов и предсказанием следующего токена, что принципиально отличается от человеческого мышления и понимания физического мира», — сказал специалист.
Он отметил, что в своей основе такие модели представляют собой сложные системы статистического прогнозирования.
«Если обратиться к самым базовым принципам работы этих моделей, становится очевидно, что по сути это система генерации текста на основе прогнозирования, обученная на огромном массиве данных. Это очень далеко от «человеческого интеллекта» и от тех роботизированных форм искусственного разума, которые мы привыкли видеть в научной фантастике. Для людей вроде меня, которые ежедневно работают с разработкой приложений на основе ИИ, довольно забавно наблюдать, как широкая публика фантазирует о возможностях этих технологий, основываясь на собственном опыте использования последних новинок. Поздравляю: у вас просто появился «умный» генератор текста и инструмент сбора данных в вашем телефоне — и мне очень жаль, что многие ему слишком доверяют», — сказал эксперт.
По его словам, ситуация может измениться только в случае появления принципиально новых направлений развития искусственного интеллекта.
«Если искусственный интеллект значительно продвинется и в других направлениях — например, в мультимодальных и воплощенных системах, которые одновременно обрабатывают текст, звук, изображения и сенсорные данные и могут взаимодействовать с физическим миром, или в так называемых «мировых моделях», где системы переходят от статистического распознавания шаблонов к причинному пониманию того, как устроен мир, — тогда мы действительно можем приблизиться к уровню автономного принятия решений. И такие технологические изменения окажут куда более серьезное влияние на мировую экономику и политику, чем нынешние языковые модели», — добавил специалист.
Оценивая влияние ИИ на динамику военных решений, разработчик отметил, что сегодня такие технологии в первую очередь ускоряют обработку информации и сокращают бюрократические процессы.
«Этот вопрос кажется слишком абстрактным и политизированным. Короткий ответ — я не знаю. Но интеграция, например, моделей Anthropic в военные инструменты просто ускоряет процессы принятия решений, которые в противном случае требовали бы ручной работы и коммуникации и занимали бы гораздо больше времени. Представьте, что изображение с дрона распознает подозрительный объект без участия человека в зоне конфликта. Оно сразу отправляет сигнал оператору вместе с координатами и всей необходимой информацией. Модели Anthropic могут обобщить эти данные в разных форматах — текст, видео или аудио: один вариант для военного кабинета, другой для политика, третий для медиа», — сказал разработчик.
По его словам, главный эффект таких технологий связан с ускорением бюрократических и аналитических процедур. «Представьте, сколько бюрократии можно устранить благодаря таким моделям. Это похоже на появление печатной машинки в XIX–XX веках, только гораздо быстрее и умнее», — заключил эксперт.
История Anthropic стала лишь первым публичным эпизодом более глубокой трансформации. Искусственный интеллект уже перестал быть экспериментальной технологией и превращается в инфраструктуру современной войны — такой же базовый элемент военной мощи, каким в XX веке стало ядерное оружие или спутниковая разведка.
Пока государства спорят о правилах его применения, алгоритмы смерти уже участвуют в выборе целей, анализе разведданных и управлении боевыми операциями. И вопрос будущих конфликтов, похоже, будет не об использовании ИИ на войне, а о том, кто сможет использовать его быстрее и эффективнее.

















