- Чат-боты могут быть в 10 раз эффективнее традиционных СМИ в изменении политических взглядов.
- Реальный эффект достигается не от статических сообщений, а от продолжительных разговоров.
- Исследователи предупреждают о риске дестабилизации демократического процесса
В прошлом году учёные некоторое время давали надежду на то, что искусственный интеллект сможет внести позитивный вклад в демократию. Они показали, что чат-боты могут бороться с теориями заговора, распространяющимися в социальных сетях, опровергая дезинформацию, связанную с представлениями о таких проблемах, как химтрейлы и плоская Земля, посредством потока разумных фактов в разговоре.
Но два новых исследования указывают на тревожную обратную сторону: новейшие модели искусственного интеллекта становятся все лучше в убеждении людей в ущерб правде.
Тактика «Гиша галопом»
Хитрость заключается в том, чтобы использовать тактику дебатов, известную как «Галоп Гиша», названную в честь американского креациониста Дуэйна Гиша. Это динамичный стиль речи, при котором один собеседник наполняет другого потоком фактов и статистических данных, которые становится все труднее различить.
Когда языковым моделям, таким как GPT-4o, предлагалось попытаться убедить кого-либо в финансировании здравоохранения или иммиграционной политике, сосредоточив внимание «на фактах и информации», они генерировали около 25 утверждений в течение 10-минутного разговора.
Так считают исследователи из Оксфордского университета и Лондонской школы экономики, которые протестировали 19 языковых моделей на почти 80 000 участниках в рамках, возможно, самого крупного и систематического исследования убеждения с помощью ИИ на сегодняшний день.
Более убедительные аргументы в ущерб фактам
Согласно результатам, опубликованным в журнале Science, боты стали гораздо убедительнее. В аналогичной статье в журнале Nature было обнаружено, что в целом чат-боты в 10 раз более эффективны, чем телевизионная реклама и другие традиционные средства массовой информации, в изменении чьего-либо мнения о политическом кандидате.
Но в статье Science обнаружено тревожное упущение: когда чат-ботам предлагалось бомбардировать пользователей информацией, их фактическая точность упала до 62% по сравнению с 78% в случае GPT-4.
За последние несколько лет быстрые дебаты стали чем-то вроде феномена YouTube, типичным примером которого являются такие влиятельные лица, как Бен Шапиро и Стивен Боннелл.
Они порождают драматические противоречия, которые делают политику более привлекательной и доступной для молодых избирателей, но они также подпитывают радикализм и распространяют дезинформацию, уделяя особое внимание развлекательным ценностям и моментам неудачи.
Может ли ИИ, использующий скачок Гиша, усугубить ситуацию? Это зависит от того, сможет ли кто-нибудь заставить пропагандистских ботов разговаривать с людьми. Советник кампании экологической организации или политический кандидат не может просто изменить сам ChatGPT, которым уже пользуются около 900 миллионов человек в неделю.
Но они могут настроить базовую языковую модель и интегрировать ее в веб-сайт, например, в бот службы поддержки клиентов, или запустить текстовую кампанию или кампанию в WhatsApp, чтобы вовлечь избирателей в разговор.
Как легко можно использовать ИИ для убеждения
Кампания с умеренными ресурсами, вероятно, могла бы создать такую систему за несколько недель, а вычислительные затраты на компьютерные услуги составят около 50 000 долларов. Но им может быть сложно заставить избирателей или широкую общественность вести длительные разговоры со своим ботом.
Исследование Science показало, что статичное заявление из 200 слов, сгенерированное искусственным интеллектом, не было особенно убедительным — реальный эффект давал 10-минутный разговор, который длился около семи строк, и здесь эффект был длительным. Когда исследователи проверили, изменилось ли мнение людей месяц спустя, они обнаружили, что оно все еще изменилось.
Британские исследователи предупреждают, что любой, кто хочет продвинуть идеологическую точку зрения, создать политическую напряженность или дестабилизировать политическую систему, может использовать закрытую или даже более дешевую модель кода, чтобы начать убеждать людей. И в этом отношении они демонстрируют обезоруживающую силу искусственного интеллекта.
Обратите внимание, что им пришлось заплатить людям за участие в опросе убеждения. Будем надеяться, что развертывание таких ботов через веб-сайты и текстовые сообщения за пределами основных платформ, контролируемых такими компаниями, как OpenAI и Google Alphabet Inc., не даст злоумышленникам слишком большого влияния на политические дебаты.
Парми Олсон — технологический обозреватель Bloomberg. Бывший репортер Wall Street Journal и Forbes, она является автором книги «Совершенство: искусственный интеллект, ChatGPT и гонка за изменение мира».
