Пентагон рассматривает возможность расторжения контракта с Anthropic

Это решение может стать основой для будущих контрактов с OpenAI, Google и xAI.

16 февраля 2026 г. | 18:30

Автор:
Эми Томсон
Редактор:
Ивета Червенякова

фото: Bloomberg LP

  • Пентагон может классифицировать Anthropic как риск для цепочки поставок
  • Компания вводит ограничения на использование средств массового наблюдения и автономного оружия
  • Правительство настаивает на праве использовать «в любых законных целях»

Пентагон собирается разорвать отношения с антропный и может отнести компанию, занимающуюся искусственным интеллектом, к группе риска в цепочке поставок после того, как она разочаровалась в ограничениях на использование технологии, сообщает Axios.

Раскол возник после нескольких месяцев напряженных переговоров о том, как военные могут использовать инструмент Клода, сообщил Axios со ссылкой на неназванный источник, знакомый с ходом переговоров.

В частности, Anthropic хочет убедиться, что ее искусственный интеллект не будет использоваться для крупномасштабного шпионажа за гражданами или для разработки оружия, которое можно будет использовать без участия человека, говорится в сообщении.

Правительство, со своей стороны, хочет иметь возможность использовать Клод для «любых законных целей».

Риск цепочки поставок

Если компания, занимающаяся искусственным интеллектом, будет признана источником риска для цепочки поставок, любая компания, желающая вести бизнес с военными, будет вынуждена разорвать связи с Anthropic, сообщает Axios со ссылкой на высокопоставленного чиновника Пентагона.

Представитель Пентагона Шон Парнелл сообщил Axios, что отношения пересматриваются. Представитель Anthropic сообщил Axios, что компания ведет «продуктивные и добросовестные переговоры» с Министерством обороны и что она по-прежнему привержена использованию ИИ в целях национальной безопасности.

Представитель Anthropic не сразу ответил на просьбу Bloomberg о комментариях.

Влияние на будущие контракты на ИИ

В прошлом году Anthropic выиграла двухлетний контракт с Министерством обороны США, включая прототип моделей искусственного интеллекта Claude Gov и Claude for Enterprise. Переговоры с Anthropic могут задать тон для разговоров с ОпенАИGoogle и xAI, чьи технологии еще не используются для секретной работы, сообщает Axios.

Anthropic, основанная бывшими учеными OpenAI, позиционирует себя как более ответственная компания в области искусственного интеллекта, стремящаяся избежать катастрофического ущерба от передовых технологий.