ИИ с принципами не нужен Пентагону
Минобороны США рассматривает разрыв контракта на $200 млн с Anthropic из-за отказа компании снять ограничения на использование ИИ-модели в военных целях
Пентагон рассматривает возможность разрыва отношений с Anthropic из-за отказа компании снять ограничения на использование Claude в военных целях, сообщает Axios со ссылкой на высокопоставленного чиновника администрации.
Военное ведомство требует от четырех ведущих ИИ-лабораторий разрешить использование их моделей «для всех законных целей» — включая разработку вооружений, сбор разведданных и боевые операции. Anthropic настаивает на сохранении двух «красных линий»: запрета массовой слежки за американцами и полностью автономного оружия.
«Рассматриваются все варианты», включая сокращение партнерства или полный разрыв, заявил чиновник, добавив: «Но потребуется упорядоченная замена, если мы решим, что это правильный ответ».
Напряженность обострилась после операции по захвату венесуэльского президента Николаса Мадуро. По словам чиновника, топ-менеджер Anthropic связался с коллегой из Palantir — связанной с Израилем компании, которую финансирует ЦРУ, — чтобы узнать, использовался ли Claude в рейде.
Представитель Anthropic категорически отверг эти утверждения, заявив, что компания «не обсуждала использование Claude для конкретных операций с Министерством обороны» и не вела подобных разговоров с отраслевыми партнерами за пределами «рутинных обсуждений строго технических вопросов».
Чиновник назвал Anthropic самой «идеологизированной» из ИИ-лабораторий, однако признал, что быстро заменить Claude будет сложно: «Другие компании просто отстают» в специализированных правительственных приложениях.
Летом прошлого года Anthropic подписала контракт с Пентагоном на сумму до $200 млн. Claude стал первой моделью, интегрированной в секретные сети военного ведомства. OpenAI, Google и xAI используются в несекретных системах, и все три компании согласились снять ограничения для работы с Пентагоном. По словам чиновника, одна из них уже приняла условие «для всех законных целей», две другие проявляют больше гибкости, чем Anthropic.
Представитель Anthropic подчеркнул, что компания «привержена использованию передового ИИ в поддержку национальной безопасности США» и напомнил, что именно Anthropic первой вывела свои модели в секретные сети и первой предоставила кастомизированные модели для клиентов в сфере нацбезопасности.