Anthropic отвергает последнее предложение Пентагона и обостряет конфликт вокруг ИИ

  • Anthropic отклонила последнее предложение Пентагона по условиям контракта, связанного с использованием ИИ, и конфликт обострился до истечения срока, установленного правительством.
  • Компания настаивает на двух конкретных ограничениях: никакой слежки за американскими гражданами и никаких автономных смертельных ударов без участия человека.
  • Пентагон угрожает объявить Anthropic риском для цепочки поставок и прекратить партнерство, поставив под угрозу работу стоимостью до 200 миллионов долларов и доступ Клода к секретной информации.

Антропный ПБЦ отклонил последнее предложение Пентагона в споре по поводу гарантий использования американскими военными технологий искусственного интеллекта, что привело к эскалации противостояния за день до крайнего срока, установленного правительством для того, чтобы компания сняла свои ограничения — иначе она столкнется с ужасными последствиями.

«Эти угрозы не меняют нашей позиции: мы не можем с чистой совестью согласиться на их просьбу», — заявил в четверг генеральный директор Anthropic Дарио Амодей.

Представитель компании заявил, что новый текст контракта Пентагона не удовлетворяет желанию компании ограничить использование свои инструменты искусственного интеллекта для военных целей. Компания продолжает настаивать на двух конкретных ограничениях: она не хочет, чтобы ее технология использовалась для наблюдения за гражданами США или для нанесения автономных смертоносных ударов без участия человека.

Anthropic заявила, что, хотя последнее предложение Пентагона было недостаточным, компания продолжает переговоры с представителями министерства обороны и по-прежнему привержена сотрудничеству с военными. Никаких немедленных комментариев со стороны Пентагона не последовало.

О чем именно идет речь: Клод против позиции Пентагона

Спор вращается вокруг настойчивых требований компании о том, чтобы военное использование ее инструмента искусственного интеллекта Claude сопровождалось гарантиями, которые Пентагон считает ненужными. Должностные лица учреждения ранее отклоняли запросы Anthropic и настаивали на том, что они могут использовать Claude — один из немногих инструментов искусственного интеллекта, одобренных для работы с секретными документами в облаке, — без каких-либо ограничений со стороны компании.

Если Anthropic не откажется от своих условий, Министерство обороны пообещало объявить компанию рискованной для цепочки поставок, что лишит ее возможности работать с другими оборонными подрядчиками. Пентагон также пригрозил применить Закон об оборонном производстве времен холодной войны для использования программного обеспечения Anthropic, несмотря на возражения компании.

На кону стоит до 200 миллионов долларов, а также контракты с другими государственными ведомствами, которые также могут оказаться под угрозой. Амодей выразил надежду, что министерство обороны пересмотрит свою нынешнюю позицию, заключающуюся в работе только с подрядчиками, которые принимают законное использование технологии в качестве стандарта.

«Министерство имеет право выбирать подрядчиков, наиболее соответствующих его видению», — сказал Амодей. «Но, учитывая значительную ценность технологий Anthropic для наших вооруженных сил, мы надеемся, что они пересмотрят свое решение».

Ставка, конкуренция и сроки

Anthropic с оценкой около 380 миллиардов долларов стала первой компанией в области искусственного интеллекта, получившей одобрение Пентагона на работу с секретными данными, а ее инструмент Клода Гува быстро стал предпочтительным вариантом среди чиновников министерства обороны из-за его простоты использования. Компания сталкивается с растущей конкуренцией со стороны xAI Илона Маска, которая только что получила разрешение на работу с секретными документами, а также конкурентов OpenAI и Gemini от Google.

Последние условия контракта Министерства обороны были представлены официальными лицами США как компромисс, но включали юридический текст, который мог позволить игнорировать две гарантии Anthropic по наблюдению и автономному оружию, добавил представитель компании.

Амодей сказал, что антропный понимает, что окончательные решения относительно вооруженных сил США принимает Министерство обороны, а не частные компании. Он отметил, что два условия компании не являются попыткой установить политику, а призваны гарантировать, что еще незрелая – а иногда и ошибочная – технология искусственного интеллекта не будет использоваться способом, превышающим ее текущие возможности.

Конфликт разразился всего через несколько недель после того, как Пентагон опубликовал новую стратегию искусственного интеллекта, которая призывала вооруженные силы стать силой, ориентированной на искусственный интеллект, путем увеличения экспериментов с передовыми моделями и снижения бюрократических барьеров для их использования.

Этот подход конкретно поощряет Министерство обороны выбирать модели, «свободные от ограничений политики использования, которые ограничивали бы законное военное применение».

Представители Пентагона подтвердили, что военные будут использовать технологию Anthropic в рамках закона. Пентагон не заинтересован в массовом наблюдении или разработке «автономного оружия, действующего без вмешательства человека», заявил ранее в четверг его представитель Шон Парнелл, обращаясь к двум основным опасениям компании.

«Мы не позволим НИ ОДНОЙ компании диктовать нам условия принятия операционных решений», — написал Парнелл в сообщении на X. «У них есть время до 5:01 пятницы, чтобы принять решение. В противном случае мы прекратим наше партнерство с Anthropic и назначим их рисками цепочки поставок».