- OpenAI, Google и Anthropic объединяются через Frontier Model Forum, чтобы обмениваться данными и блокировать попытки китайских компаний скопировать их технологии.
- «Неблагоприятная дистилляция» позволяет конкурентам, таким как DeepSeek, создавать дешевые имитации американских моделей, что обходится Кремниевой долине в миллиарды долларов в год.
- Эксперты предупреждают, что в дистиллированных моделях часто отсутствуют встроенные средства защиты, что позволяет злоумышленникам использовать их для опасных действий.
Конкуренты OpenAI, Anthropic PBC и Google Alphabet Inc. объединяются, чтобы помешать конкурентам из Китая перекачивать данные из самых передовых американских моделей искусственного интеллекта в попытке завоевать позиции в глобальной гонке искусственного интеллекта.
По словам людей, знакомых с вопросом, три компании обмениваются информацией через Frontier Model Forum, некоммерческую организацию, которую они основали вместе с Microsoft Corp. в 2023 году для выявления так называемых «попыток враждебной дистилляции», нарушающих их условия обслуживания.
Это редкое сотрудничество подчеркивает серьезность опасений, выраженных американскими компаниями, занимающимися искусственным интеллектом, по поводу того, что некоторые пользователи, особенно в Китае, создают подражательные версии своих продуктов, которые могут снизить их цену и отвлечь клиентов, а также создают угрозу национальной безопасности.
По оценкам США, несанкционированная перегонка обходится лабораториям Кремниевой долины в миллиарды долларов годовой прибыли, сообщил человек, знакомый с результатами и говоривший на условиях анонимности.
OpenAI подтвердила, что участвует в усилиях по обмену информацией о незаконном копировании через Frontier Model Forum, и указала на недавнее письмо Конгрессу.
В нем компания обвиняет китайскую фирму DeepSeek в попытке «бесплатно воспользоваться возможностями, разработанными OpenAI и другими ведущими лабораториями США». Google, Anthropic и Frontier Model Forum отказались от комментариев Bloomberg News.
Что такое дистилляция?
Дистилляция — это метод, при котором старая модель ИИ, называемая «учителем», используется для обучения новой модели, называемой «учеником», которая воспроизводит возможности более ранней системы, часто со значительно меньшими затратами, чем создание совершенно новой модели.
Некоторые формы дистилляции широко принимаются и даже поощряются лабораториями искусственного интеллекта, например, когда компании создают меньшие и более эффективные версии своих собственных моделей или позволяют сторонним разработчикам использовать этот метод для создания неконкурирующих технологий.
Тем не менее, дистилляция вызывает споры, когда ее используют третьи страны — особенно враждебные страны, такие как Китай или Россия — для воспроизведения запатентованной работы без разрешения.
Ведущие лаборатории искусственного интеллекта США предупредили, что иностранные конкуренты могут использовать эту технику для разработки моделей искусственного интеллекта, лишенных мер предосторожности, таких как ограничения, которые не позволят пользователям создавать смертельный патоген.
Большинство моделей, созданных китайскими лабораториями, имеют открытый исходный кодЭто означает, что части базовой системы искусственного интеллекта общедоступны, и пользователи могут свободно загружать и использовать их на своих платформах, что делает их использование более дешевым.
Это представляет собой экономическую проблему для американских компаний, занимающихся искусственным интеллектом, которые запатентовали свои модели. Они рассчитывают на то, что клиенты будут платить за доступ к их продуктам и помогут компенсировать сотни миллиардов долларов, потраченных на центры обработки данных и другую инфраструктуру.
Момент DeepSeek
Впервые дистилляция подверглась серьезному анализу в январе 2025 года, через несколько недель после ДипСик опубликовал модель логического мышления R1, которая потрясла мир искусственного интеллекта. Вскоре после этого Microsoft и OpenAI провел расследование извлек ли китайский стартап неоправданно большие объемы данных из моделей американской компании для создания R1, как ранее сообщало агентство Bloomberg.
В феврале OpenAI предупредила Конгресс, что DeepSeek продолжает использовать все более изощренные тактики для получения результатов из американских моделей, несмотря на усилия по предотвращению неправильного использования их продуктов. В меморандуме Комитету Палаты представителей по Китаю OpenAI заявила, что DeepSeek использовала дистилляцию для разработки новой версии своего чат-бота.
Обмен информацией между американскими компаниями, занимающимися искусственным интеллектом, о состязательной дистилляции соответствует стандартной практике в индустрии кибербезопасности, где фирмы регулярно обмениваются данными о злоумышленных атаках и тактиках в качестве способа усиления сетевой защиты.
Работая вместе, компании, занимающиеся искусственным интеллектом, также стремятся более эффективно выявлять такую практику, выявлять ответственных за нее и предотвращать успех неавторизованных пользователей.
Чиновники администрации Трампа дали понять, что они готовы поощрять обмен информацией между компаниями, занимающимися искусственным интеллектом, чтобы ограничить перегонку. План действий по искусственному интеллекту, обнародованный президентом Дональдом Трампом в прошлом году, предусматривает создание центра для обмена и анализа информации, отчасти для этой цели.
На данный момент обмен информацией о дистилляции остается ограниченным из-за неуверенности среди компаний, занимающихся искусственным интеллектом, относительно того, чем можно делиться в соответствии с существующими антимонопольными правилами для противодействия конкурентной угрозе со стороны Китая, сообщили источники, знакомые с этим вопросом. По их мнению, компании выиграют от большей ясности со стороны правительства США.
Серьезная проблема и «угроза национальной безопасности»
Дистилляция была одной из главных проблем американских разработчиков искусственного интеллекта с тех пор, как DeepSeek потряс мировые рынки в 2025 году. Высокопроизводительные модели с открытым исходным кодом продолжают распространяться в Китае, и многие в отрасли внимательно следят за возможным серьезным улучшением модели DeepSeek.
В прошлом году Anthropic заблокировала контролируемым Китаем компаниям доступ к своему чат-боту Claude, а в феврале выявила три китайские лаборатории искусственного интеллекта — DeepSeek, Moonshot и MiniMax — как незаконно использующие возможности модели.
В этом году Anthropic заявила, что угроза «выходит за пределы какой-либо отдельной компании или региона» и представляет угрозу национальной безопасности, поскольку в шаблонных моделях часто отсутствуют средства защиты, предназначенные для предотвращения использования злоумышленниками инструментов ИИ для злонамеренных действий.
Google опубликовал сообщение в блоге, в котором говорится, что наблюдается рост количества попыток поиска шаблонов. Три американские лаборатории искусственного интеллекта еще не предоставили доказательств того, что китайские модели основаны на дистилляции, но следует отметить, что распространение атак можно измерить на основе объема крупномасштабных запросов данных.
