Китай предупреждает о риске возникновения пузыря в секторе гуманоидной робототехники, и это неудивительно. В прошлом году никто не думал, что сейчас в Китае будет работать более 150 компаний, разрабатывающих гуманоидных роботов. В заявлении написано — компании работают в одной сфере, дублируются, инноваций почти нет. Единственное, что происходит, это то, что эти компании выкачивают капитал из других ключевых секторов будущего китайской экономики. Вот что он сказал Йонко Чуклев, финансовый аналитик, вице-президент Ассоциации профессиональной робототехники, в программе «В разработке» с ведущим Антонио Костадиновым.
Повторение знакомого сценария
Ситуация напоминает рынок проката электросамокатов и велосипедов в Китае до пандемии – множество игроков, дублирование моделей и быстрое расширение с последующей консолидацией и разочарованием инвесторов, прокомментировал гость.
По его словам, в этом направлении развивается и человекоподобная робототехника — демонстрации человекоподобных роботов происходят в тестовой среде, а не в реальной производственной среде, что создает искаженное представление о зрелости технологии.
Даже сам Илон Маск отложил планы по массовому производству гуманоидного робота Оптимуса. По мнению Чуклева, причины как технические, так и связанные с ожиданиями.
«Первая причина техническая, а вторая заключается в том, что сам Илон Маск делает агрессивные прогнозы относительно того, когда что-то будет произведено и широко использовано».
Эксперт пояснил, что такие проблемы, как мелкая моторика и перегрев, по-прежнему сложно решить с помощью нынешних технологий, а цена в 20-30 тысяч долларов, установленная Маском, делает массовое внедрение в производство экономически нерентабельным.
Пузырь в робототехнике, а не в искусственном интеллекте
Ёнко Чуклев считает, что пузырь скорее лопнет с появлением гуманоидной робототехники, чем с искусственным интеллектом. В отличие от робототехники, даже более слабые модели большого языка уже обладают реальным удобством использования, построены системы и приносят доход.
«Большая проблема — это область применения… Любые роботы, которые собираются выйти на заводы, столкнутся с большой проблемой. Если мощность превысит спрос, этот пузырь лопнет раньше ИИ».
Нереализованный спрос и утечка капитала
Чуклев сравнил робототехнику с электромобилями в Китае, где, в отличие от электромобилей, спрос на которые материализуется, базовый рыночный спрос на робототехнику-гуманоида остается неопределенным.
Он процитировал доклад китайской научной ассоциации. В нем говорится, что этот сектор выкачивает капитал из других приоритетных областей китайской экономики, таких как биотехнологии и космические технологии.
По мнению Чуклева, это приведет к консолидации и переориентации компаний — от роботов-гуманоидов к более явно применимым решениям, таким как коботы.
«То, что это приоритет, не означает, что каждая вторая компания должна заниматься робототехникой, особенно без четкой области применения», — подчеркивает он.
ИИ и безопасность: компании не соответствуют мировым стандартам
Индекс безопасности искусственного интеллекта Института будущего жизни показывает, что ведущие компании не соответствуют мировым стандартам. По мнению Чуклева, это неудивительно — в погоне за всеобщим искусственным интеллектом меры безопасности не являются приоритетом.
Он добавил, что искусственный интеллект остается самой сложной для регулирования сферой. Существуют проблемы, которые разработчики часто не могут объяснить, почему система приняла то или иное решение, а исследователи выявили 32 типа проблемного поведения в моделях ИИ.
По мнению собеседника, временная задержка развития в пользу более контролируемого роста и соблюдения этических норм оправдана.
По словам гостя, европейский подход направлен на навязывание принципов и общих рамок через закон об искусственном интеллекте, но на практике значительная часть регулирования может оказаться недостижимой для реализации. По мнению Чуклева, ответ заключается не только в регулировании, но и в этике и контрольных группах внутри самих компаний, которые возьмут на себя реальную ответственность за управление рисками и развитие искусственного интеллекта.
«Здесь, к сожалению, если процессы не контролируются внутри компании, возможности регуляторов крайне ограничены».
Он приводит пример гипотетического развития модели искусственного интеллекта высокого риска в Болгарии — неясно, какой регулятор мог бы на самом деле измерять уровни риска.
Полный комментарий смотрите в видео.
Вы можете посмотреть всех гостей шоу «В разработке» здесь.
