Закон Ай ЕС нуждается в коротком отсрочке, а не полном прекращении

В арсенале любого, кто пытается повернуть направление развития искусственного интеллекта, есть один общий инструмент: пауза. Два года назад Элон Маск и другие лидеры технологии опубликовали открытое письмо, призывающее технологические компании отложить развитие искусственного интеллекта на шесть месяцев, чтобы лучше защитить человечество. Цель теперь была изменена. Перед лицом растущего страха отставания в гонке за создание более умных компьютеров, чем люди, группа европейских корпоративных лидеров направляет оружие «показания» против Европейского Союза, самопровозглашенного сотрудника полиции мира с точки зрения искусственного интеллекта.

Как и техно -точки, которые хотели ограничить искусственный интеллект два года назад, это грубое предложение, которое пропускает тонкости того, что он пытается решить. Полное замораживание внедрения правил искусственного интеллекта не поможет Европе догнать Соединенные Штаты и Китай, как утверждают более 45 компаний. Это пренебрегает более фундаментальной проблемой финансирования, которую технологические стартапы в регионе отчаянно нуждаются в увеличении своего масштаба и конкурируют со своими более крупными соперниками из Силиконовой долины. Идея, что Европа должна выбирать между новатором и регулятором, была успешно рассказана лоббистами крупных технологических компаний, которые больше всего выиграют от более легкого регулирующего режима.

Но это не означает, что сам закон искусственного интеллекта не может быть отложено даже в ограниченной форме, в которой такие компании, как ASML, владеющие NV, Airbus SE и Mistral AI, призвали к президенту Европейского президента и более сложные. «

В этом отношении они имеют право, но только на эту часть закона 180 -страниц, который был быстро добавлен к окончательным переговорам, чтобы обратить внимание на модели искусственного интеллекта «общего назначения» как Chatgpt. Закон в его первоначальном виде был первоначально составлен в 2021 году, почти за два года до того, как Chatgpt вызвал бум генеративного искусственного интеллекта. Он направлен на то, чтобы регулировать системы искусственного интеллекта с высоким уровнем риска, используемые для диагностики заболеваний, предоставления финансовой консультации или контроля критической инфраструктуры. Эти типы приложений четко определены в законе — от использования искусственного интеллекта, чтобы определить право человека на помощь в области здравоохранения на контроль над водоснабжением. Прежде чем внедрить такой искусственный интеллект, закон требует, чтобы его тщательно проверяли как его создатели, так и компании, которые его реализуют.

Если больница хочет внедрить систему искусственного интеллекта для диагностики заболеваний, это будет считаться «искусственным интеллектом высокого риска» по закону. Поставщику искусственного интеллекта должен будет не только проверить свою модель точности и предвзятости, но и сама больница должна иметь сотрудников, чтобы контролировать систему для мониторинга ее точности с течением времени. Это разумные и четкие требования.

Тем не менее, правила не так ясны в более новом разделе систем искусственного интеллекта общего назначения, приготовленных в 2023 году в ответ на модели генеративного искусственного интеллекта, такие как CHATGPT и генератор изображений MidJourney. Когда эти продукты вышли на сцену, искусственный интеллект мог внезапно выполнять бесконечно много задач, и Брюссель сделал это, делая свои правила шире и, к сожалению, расплывчатыми.

Проблемы начинаются на странице 83 Закона, в котором, как утверждается, он определяет момент, когда система общего назначения, такая как CHATGPT, представляет системный риск: когда она обучена с использованием более чем 10 -й степени — или 10^25 — по меньшей мере 10 000 000 000 000 000 000 000 000 000.

Закон не объясняет, почему это число значительное или что делает его таким опасным. Кроме того, исследователи из Массачусетского института показали, что небольшие модели, обученные высококачественным данным, могут конкурировать с возможностями гораздо более крупных моделей.

Между тем, такие технические пороги не используются для определения важности «общего искусственного интеллекта или» возможностей с большим воздействием, что делает их открытыми для интерпретации и разочаровывающих неоднозначных компаний.

«Они находятся в научных проблемах», -говорит Питер Цанков, генеральный директор Latticeflow AI, который управляет компаниями в соответствии с такими положениями, как Закон об искусственном интеллекте. «Сравнительные критерии неполны».

Брюссель не должен останавливать весь свой акт ИИ. Он должен соблюдать графику, чтобы начать применение правил для систем с высоким уровнем риска с здравоохранением и критической инфраструктурой, когда они были введены в августе 2026 года. Однако правила «общего» искусственного интеллекта вступают в силу гораздо раньше — через три недели — и им нужно время, чтобы улучшить. Цанков рекомендует правильно разработать еще два года.

Европейский закон об искусственном интеллекте может создать столь необходимую прозрачность в секторе искусственного интеллекта, и, если он вступит в силу в следующем месяце, такие компании, как OpenAI, будут вынуждены предоставить конфиденциальные подробности о своих данных и процессах обучения. Это было бы благословением для независимых исследователей этики, которые пытаются изучить, насколько вредным искусственным интеллектом может быть в таких областях, как психическое здоровье. Но преимущества будут недолговечными, если неясные правила позволят компаниям выйти или найти юридические двери, чтобы выйти.

Хирургическая пауза в отношении худших частей закона поможет Брюсселя избежать юридического хаоса и убедиться, что когда правила будут введены, они будут работать.

Парми Олсон — обозреватель Bloomberg, который занимается технологиями. Бывшая Wall Street Journal и Forbes Reporter, она является автором книги «Превосходство: ИИ, ЧАТГПТ и гонка, которая изменит мир».