- Люди все чаще ищут в ИИ смысл, утешение и моральные ответы, а не сообщество.
- Технологии начинают брать на себя роль духовных наставников, что порождает новые риски и зависимости.
- Опасность заключается в том, что миллионы людей доверяют смысл своей жизни системам, созданным для взаимодействия.
К кому вы обращаетесь, когда вам нужен совет? В последнее время большинство людей, которых я знаю, склоняют голову к экранам. Самые громкие дебаты вокруг искусственного интеллекта по-прежнему связаны с производительностью и экономическим ростом. Но исследование Harvard Business Review, проведенное в прошлом году, показало, что наиболее распространенное использование генеративный ИИ гораздо более человечны: для терапии и общения, для организации жизни и поиска смысла. Машины незаметно берут на себя роли, которые когда-то выполняли друзья, пожилые люди, консультанты, священнослужители, а для некоторых даже молитва.
ИИ как новый источник комфорта и смысла
Это может показаться абсурдом как верующим, так и неверующим. Но ИИ удовлетворяет очень человеческую потребность во все более неопределенном мире. В Китае DeepSeek стал предпочтительным «предсказателем». В Индии огромную популярность набирают такие платформы, как GitaGPT, обученные на индуистском тексте «Бхагавад-гита». У «AI Иисуса» на платформе Twitch более 85 000 подписчиков. Не говоря уже о различных псевдорелигиозных ИИ-культах, укоренившихся в Кремниевой долине, от «Парадокса Рокко» до печально известной «Церкви будущего».
Неудивительно, что люди начинают рассматривать ИИ как своего рода божество. Он может казаться всеведущим. Он слушает и «любит» — точнее, его обучают этому. огромные массивы человеческих знаний и точно настроен, чтобы быть снисходительным, чтобы держать вас в напряжении.
Технологическая индустрия и язык «чудес»
В течение многих лет технологическая индустрия облачала ИИ в религиозный язык. Раса «сверхразумов» торгуется мессианскими обещаниями: они вылечат болезни, спасут планету и возвестят о мире, где работа не является обязательной, а «машины любящей благодати» наблюдают за нами. Риски также описаны в космическом масштабе: спасение против апокалипсиса. Когда вы рекламируете продукт как чудо, не удивляйтесь, что потребители воспринимают это как пророчество.
Религиозные лидеры начинают реагировать. В октябре Далай-лама провел диалог по искусственному интеллекту, собрав более 120 ученых, академиков и лидеров бизнеса, чтобы обсудить такие вопросы, как то, что отличает живой разум от искусственного. Папа Лев XIV также был откровенным критиком, настаивая на принятии правил, защищающих людей от эмоциональной привязанности к чат-ботам и распространения манипулятивного контента. Он также предупредил об опасности отказа от способности мыслить. Будет задействовано больше голосов, от высшего духовенства до местных религиозных лидеров.
Религиозные лидеры предупреждают о рисках
Это не значит, что технологии и религия должны быть противопоставлены. В Японии исследователи из Киотского университета недавно представили «Протестантского катехизисного бота», предназначенного для предоставления ответов и советов по христианским учениям и повседневной жизни. Это интригующий проект в стране, где менее 1% населения считают себя христианами. Та же команда ранее создала «BuddhaBot» на основе буддийского учения.
Впечатляет, насколько осторожно они действуют. «BuddhaBot» был предоставлен монахам в Бутане в прошлом году и в настоящее время проходит оценку безопасности перед более широким распространением. Христианский чат-бот также недоступен публично — сначала его хотят протестировать в семинариях. Ответственные разработчики будут действовать медленно, потому что они понимают ставки, даже несмотря на то, что рынок вознаграждает скорость и масштаб.
В обществе, более разделенном, чем когда-либо, возможно, будет проще попросить чат-бота о моральной ясности, чем рисковать разговором с другим человеком. На прошлой неделе я спрашивал DeepSeek о корнях зла и о том, как сохранять надежду посреди страданий. В основном я слышал банальности. Но я ценил то, что это часто возвращало меня к связям с реальными людьми. Что меня беспокоило в ответах ChatGPT на одни и те же вопросы, так это привычка заканчивать открытыми вопросами — небольшими зацепками, призванными удерживать меня в разговоре. Это не открытие, это механика удержания. И это может иметь опасные последствия для уязвимых пользователей.
Опасность придания смысла алгоритмам
Когда я думаю о рисках, связанных с ИИ, меня меньше беспокоит идея использования кем-то чат-бота для создания атомной бомбы (для этого все еще требуется такое сырье, как уран). Более тихая опасность возникает, когда миллионы людей начинают передавать смысл своей жизни системам, оптимизированным для взаимодействия. Чем больше мы обращаемся к алгоритмам за советом, тем больше они формируют наш выбор, убеждения и покупки. Частные признания становятся обучающими данными, которые заставляют нас пролистывать и подписываться.
Более десяти лет назад генеральный директор OpenAI Сэм Альтман заметил, что успешные основатели не начинают с идеи основать компанию. «У них есть миссия — создать что-то близкое к религии, и в какой-то момент оказывается, что компания — самый простой способ сделать это», — написал он. (Для справки, в то время он также размышлял об НЛО в том же блоге.) Но эти амбиции, намеренные или нет, оказались пугающе пророческими.
ИИ не предлагает спасения — он предлагает привязанность. Пророк с моделью подписки — всего лишь маркетолог.
—
Кэтрин Торбек является сотрудником Bloomberg Opinion, ранее работал репортером и редактором CNN, ABC News и Business Insider, уделяя особое внимание технологиям, цифровым платформам и их влиянию на общество и экономику.
