- Anthropic подает в суд на Пентагон и другие агентства из-за ярлыка «риск цепочки поставок», который, по их словам, является незаконным наказанием за защищенную позицию.
- Спор возник из-за отказа Anthropic разрешить использовать Клода для массового внутреннего наблюдения и для полностью автономных смертельных ударов без участия человека.
- Ученые из OpenAI и Google поддержали Anthropic, предупредив, что ИИ небезопасен для автономного таргетинга и что действия правительства могут нанести ущерб конкурентоспособности США.
Anthropic PBC подала иск против Министерства обороны за то, что оно назвало гиганта искусственного интеллекта угрозой для цепочки поставок США, что еще больше обострило спор с Пентагоном по поводу гарантий безопасности технологий компании.
Базируется в Сан-Франциско антропный оспорил решение департамента и других федеральных агентств передать свою работу в области ИИ другим поставщикам на основании квалификации риска, обычно предназначенной для компаний из стран, которые США считают противниками.
Anthropic просит судью убрать обозначение «риск цепочки поставок» и обязать агентства США отозвать соответствующие приказы. Компания утверждала, что ее лишили работы из-за разногласий с администрацией и что рассматриваемые правовые принципы применимы к любому федеральному подрядчику, чьи взгляды не нравятся правительству.
«Эти действия беспрецедентны и незаконны», — заявила Anthropic в иске, поданном в понедельник в федеральный суд Сан-Франциско, добавив, что ее бизнес находится под угрозой. «Конституция не позволяет правительству использовать свою огромную власть для наказания компании за ее защищенную речь».
Как появился ярлык «риск» и что утверждает Anthropic
Пентагон официально уведомил Anthropic о своем решении на прошлой неделе. Затем генеральный директор Дарио Амодей выступил с заявлением, в котором заявил, что действия правительства не являются «юридически обоснованными», и не оставил компании «иного выбора, кроме как оспорить их в суде».
Согласно жалобе, действия правительства «наносят непоправимый вред Anthropic», ставя контракты компании с частными фирмами «под сомнение» и потенциально «ставя под угрозу сотни миллионов долларов в ближайшем будущем».
Вероятно, «огромные» последствия будут и для других, в том числе для тех, «чья речь будет ограничена»; для тех, кто извлекает выгоду из экономической ценности, которую компания может продолжать создавать; и для мировой аудитории, которая заслуживает «энергичного диалога и дебатов о том, что значит ИИ для ведения войны и наблюдения», — заявил Антропик.
Споры по поводу ограничений для Клода и реакция администрации
Спор разгорелся в прошлом месяце после того, как Пентагон потребовал использовать Клода для любых целей в рамках закона — и без ограничений использования, наложенных Anthropic. Компания настаивает на том, чтобы чат-бот не использовался для массовой слежки за американцами или в полностью автономных операциях с оружием.
В ответ министр обороны Пит Хегсет 27 февраля приказал Пентагону запретить своим подрядчикам и их партнерам вести дела с Anthropic. В сообщении на X Хегсет установил для Anthropic шестимесячный срок для передачи своих услуг искусственного интеллекта другому поставщику.
В тот же день Трамп раскритиковал Anthropic в своей социальной сети «Правда», заявив, что компания «совершила катастрофическую ошибку, пытаясь выкрутить руки военному министерству». На своем посту президент поручил правительственным учреждениям США прекратить использование Клода.
Научная поддержка и параллельные судебные иски
В иске компании ответчиками названо Военное министерство (так администрация Трампа называет Министерство обороны), а также более дюжины других федеральных агентств.
Белый дом поддержал действия администрации.
«Президент Трамп никогда не позволит радикальной левой, «проснувшейся» компании поставить под угрозу нашу национальную безопасность, диктуя, как действуют величайшие и самые мощные вооруженные силы в мире», — заявила пресс-секретарь Лиз Хьюстон.
Трамп и Хегсет «гарантируют, что у наших храбрых воинов есть правильные инструменты, необходимые для достижения успеха, и что они никогда не станут заложниками идеологических прихотей какого-либо крупного технологического лидера».
Министерство обороны не ответило на просьбу прокомментировать это дело.
В своей жалобе Anthropic утверждает, что ввела «ограничения на использование» на основании «уникального понимания рисков и ограничений Клода», включая способность совершать ошибки и «беспрецедентную способность ускорять и автоматизировать анализ огромных объемов данных, включая данные об американских гражданах».
В совместном письме в суд десятки ученых и исследователей в области ИИ из ОпенАИ и Google — конкуренты, а в случае Google еще и инвестор — выразили поддержку Anthropic. Они заявили, что существующие системы искусственного интеллекта не могут «безопасно и надежно справляться с полностью автономными смертельными целями и не должны быть доступны для массового наблюдения за американским народом внутри страны».
Группа, в которую входит главный научный сотрудник Google Джефф Дин, заявила, что действия правительства «несомненно будут иметь последствия для промышленной и научной конкурентоспособности Соединенных Штатов в сфере искусственного интеллекта и за ее пределами».
В рамках своего иска правительству США Anthropic также подала жалобу в апелляционный суд в Вашингтоне, округ Колумбия, в центре которой находится закон, регулирующий процедуры ограничения рисков в цепочке поставок при государственных закупках.
В этом иске компания утверждает, что министерство обороны превысило свои полномочия, совершив действия, которые были «произвольными, капризными и представляли собой злоупотребление свободой действий».
Технология искусственного интеллекта и более широкий рыночный контекст
В те дни, когда агентство впервые объявило о своем определении риска, пользователи вызвали «беспрецедентный спрос» на чат-бота Claude в поддержку сопротивления компании давлению правительства с целью ограничить использование ее технологии.
Тем временем конкурент OpenAI объявил, что заключил соглашение, позволяющее Пентагону внедрять свои модели искусственного интеллекта в свою секретную сеть. Глава OpenAI Сэм Альтман позже заявил, что работает с Министерством обороны над усилением мер безопасности в отношении слежки.
Основанная в 2021 году бывшими сотрудниками OpenAI, Anthropic быстро зарекомендовала себя как конкурент создателя ChatGPT Клода, которого компания позиционирует как более ориентированного на безопасность и бизнес.
Сегодня у компании из Сан-Франциско более 300 000 бизнес-клиентов, которые используют ее модели для оптимизации рабочих процессов, особенно в программировании, где она зарекомендовала себя как лидер благодаря своему помощнику по программированию Клоду Коду.
Anthropic начал год уверенно, с ростом продаж, несколькими вирусными продуктами и крупным раундом финансирования, что дало стартапу значительное преимущество в дорогостоящей глобальной гонке искусственного интеллекта.
Но ее будущее неопределенно после того, как ее отношения с Пентагоном рухнули в конце февраля — как раз перед тем, как США нанесли удар по Ирану в ходе крупной военной операции на Ближнем Востоке.
«На этой неделе Anthropic провела мастер-класс по высокомерию и предательству, а также хрестоматийный пример того, как НЕ вести дела с правительством Соединенных Штатов или Пентагоном», — написал Хегсет в своем посте.
Некоторые юридические и политические эксперты предупредили, что последствия решения правительства могут быть серьезными.
Дженнифер Хаддлстон, старший научный сотрудник Института Катона, заявила, что дело выходит далеко за рамки контрактного спора и представляет угрозу свободе слова.
«Решимость и попытки внести компанию в черный список выходят далеко за рамки того, что можно было бы считать наименее ограничительной мерой, даже если существуют опасения по поводу безопасности дальнейшего использования продукта», — сказал Хаддлстон.
Дело «Антропик против военного министерства США», 26-cv-01996, Окружной суд США, Северный округ Калифорнии (Сан-Франциско).
