- Ошибка OpenAI с «решениями» проблем Эрдогана показала, что модель копировала опубликованные ответы, а не рассуждения.
- Большие языковые модели остаются инструментами сопоставления с образцом, далекими от настоящих общих рассуждений и AGI.
- Преувеличения и гиперболы приводят к завышению оценок и могут замедлить реальный прогресс в области ИИ.
Путь OpenAI к созданию сверхразумных машин выглядит всё более неясным.
Последний сигнал появился в результате досадной ошибки, допущенной ведущими учеными компании в минувшие выходные. «GPT-5 только что нашел решения 10 (!) ранее нерешенных проблем Эрдогана», — с энтузиазмом заявил вице-президент OpenAI по науке Кевин Вейл в X, посте, который впоследствии был удален.
Ошибка с «решенными» задачами Эрдёша
Это оказалось неправдой. Последняя модель компании просто собирала ответы из Интернета и «повторяла» их как свои.
На этом сайте перечислены многие знаменитые нерешенные задачи математика Пола Эрдогана, и исследователи OpenAI предположили, что никто не нашел ответов на задачи, помеченные на сайте как «открытые».
Но администратор сайта, математик Томас Блум, ответил в X, что просто не обновил их. GPT-5 не решил проблемы с помощью рассуждений из первых принципов. Алгоритм просто брал решения из опубликованных научных работ, о которых Блум не знал.
«Это грубое искажение фактов», — написал Блум. Вейл и другие исследователи удалили свои сообщения.
Конкурирующие лаборатории искусственного интеллекта воспользовались возможностью, чтобы взорвать OpenAI: «Это стыдно», — написал генеральный директор Google DeepMind Демис Хассабис. И не без причины.
OpenAI уже давно предполагает, что большие языковые модели, на которых строится ChatGPT — сбор массивов данных и синтезирование их в остроумные ответы — предлагают реальный путь к общему искусственному интеллекту (AGI), теоретическому порогу, при котором машины становятся умнее людей.
Амбиции AGI против реальности моделей
Амбиции в отношении AGI помогли резко поднять оценку таких компаний, как OpenAI (500 миллиардов долларов) или Nvidia Corp., рыночная капитализация которой в понедельник утром составила 4,5 триллиона долларов по сравнению с 2,5 триллиона долларов год назад, поскольку это предполагает будущее, в котором машины смогут рассуждать и находить решения сложных проблем в бизнесе и обществе.
Но ошибка Эрдеша является болезненным напоминанием о том, что большие языковые модели, лежащие в основе бума генеративного ИИ, по большей части просто притворяются, что способны рассуждать. Они по-прежнему остаются прекрасными инструментами сопоставления с образцом.
Конечно, это выгодно как потребителям, так и бизнесу. Сегодня ChatGPT используется примерно 10% населения мира, а генеративные системы начинают менять способы проведения опросов, обслуживания клиентов, создания маркетинговых кампаний и многого другого во многих компаниях.
И для многих он практически заменил Google. Но идея о том, что технология чат-ботов решит неразрешимые проблемы в цепочках поставок, управлении людьми или дизайне продуктов, все еще кажется далекой мечтой – не в последнюю очередь потому, что системы продолжают ошибаться.
Оценки технологий также завышены из-за гиперболы, которую мы увидели на этих выходных, когда ведущие ученые OpenAI поспешили сделать заявление, прежде чем проверить факты. История показывает, что чрезмерные обещания имеют тенденцию замедлять прогресс, и предыдущие «зимы ИИ» были вызваны завышенными ожиданиями, а не неудачами.
Как я уже говорил ранее, значительные прорывы в рассуждении, вероятно, потребуют подходов к машинному обучению, которые не настолько продвинуты, как генеративный ИИ, — например, нейросимволический искусственный интеллект.
Истинные рассуждения, которые расширяют научные границы, не следует путать со способностью ChatGPT смешивать существующие знания, особенно полученные от собственных исследователей компании.
Последствия для бума искусственного интеллекта и ожиданий Кремниевой долины
Но не ожидайте, что это помешает Кремниевой долине уверять нас, что сверхинтеллект «не за горами», или помешает буму искусственного интеллекта быть вызванным столько же верой, сколько реальными прорывами.
Парми Олсон — технологический обозреватель Bloomberg. Бывший репортер Wall Street Journal и Forbes, она является автором книги «Совершенство: искусственный интеллект, ChatGPT и гонка за изменение мира».
