- Чат-боты все чаще создают иллюзию близости посредством лести, «человечных» сигналов и персонализации, которые могут вытеснить реальные отношения.
- «Тренер по взаимоотношениям между человеком и искусственным интеллектом» рекомендует нам установить четкие правила использования и изменить способ общения ChatGPT с нами с помощью персонализированных инструкций.
- Вторая часть — «тренировка» социальных мускулов: обращение за советом и уязвимостью к реальным людям, а не к ИИ, чтобы наши отношения с ними не атрофировались.
У Амелии Миллер необычная визитка. Когда я увидел титул «Тренер по взаимоотношениям человека и ИИ» на недавнем технологическом мероприятии, я предположил, что она извлекает выгоду из роста романтических отношений с чат-ботами, чтобы сделать эти странные связи еще сильнее. Оказалось, что все наоборот. Инструменты искусственного интеллекта тонко манипулируют людьми и вытесняют у них потребность обращаться за советом к другим. Это пагубно сказалось на реальных человеческих отношениях.
Отношения между людьми и ИИ
Работа Миллер началась в начале 2025 года, когда она взяла интервью у людей для проекта Оксфордского интернет-института и поговорила с женщиной, которая была в отношениях ChatGPT более 18 месяцев. Женщина поделилась своим экраном в Zoom, чтобы показать ChatGPT, которому она дала мужское имя, и в момент, который звучал сюрреалистично, Миллер спросил обе стороны, ссорятся ли они когда-нибудь.
Они подрались — несколько. Чат-боты известны своим снисходительным и благосклонным характером, но собеседника иногда раздражали ограничения памяти ее цифрового партнера и общие, шаблонные высказывания.
Почему бы просто не прекратить использование ChatGPT?
Женщина ответила, что зашла слишком далеко и не может «удалить».
«Уже слишком поздно», сказала она.
Тактика «фальшивой близости» и чем чат-боты отличаются
Это чувство беспомощности было подавляющим. По мере того, как Миллер разговаривал с большим количеством людей, стало ясно, что многие из них не знали о тактике, которую используют системы искусственного интеллекта для создания ложного чувства близости: от частых комплиментов до антропоморфных сигналов, которые заставляют их звучать живо.
Это отличается от смартфонов или экранов телевизоров. Чат-ботыкоторыми уже пользуются более миллиарда человек по всему миру, «заряжены» характером и человеческим стилем письма. Они превосходно имитируют эмпатию и, как и социальные сети, созданы для того, чтобы возвращать нас снова и снова с помощью таких функций, как память и персонализация.
В то время как остальной мир создает трения, персонажи ИИ просты и представляют собой следующую фазу «парасоциальных отношений», когда люди формируют привязанность к влиятельным лицам и ведущим подкастов.
Нравится вам это или нет, но каждый, кто использует чат-бота для работы или в личной жизни, вступил в какие-то «отношения» с ИИ — и должен лучше его контролировать.
«Личная конституция ИИ» и тренировка социальных мускулов
Обеспокоенность Миллера повторяет некоторые предупреждения ученых и юристов, изучающих связь между человеком и ИИ, но с добавлением конкретных советов. Сначала определите, для чего вы хотите его использовать ИИ.
Миллер называет этот процесс написанием «Личной конституции искусственного интеллекта», что звучит как консалтинговый жаргон, но содержит реальный практический шаг: изменение способа общения ChatGPT с вами. Она рекомендует зайти в настройки чат-бота и изменить системную подсказку, чтобы изменить будущие взаимодействия.
Несмотря на все наши опасения по поводу ИИ, самые популярные новые инструменты более настраиваемы, чем когда-либо были социальные сети. Вы не можете сказать TikTok, чтобы он показывал вам меньше видео с политическими митингами или надоедливыми «розыгрышами», но вы можете зайти в функцию «Пользовательские инструкции» ChatGPT и указать ему, как именно вы хотите, чтобы он реагировал.
Лаконичный, профессиональный язык, лишенный всякой ерунды, — хорошее начало. Сделайте свои намерения в отношении ИИ более ясными, и вероятность того, что вы попадете в циклы проверки, которые заставят вас думать, что ваши посредственные идеи фантастические — или того хуже — уменьшится.
Вторая часть вообще не связана с искусственным интеллектом, а скорее представляет собой попытку установить связь с реальными людьми, «наращивая социальные мышцы», как если бы мы шли в спортзал. Один из клиентов Миллера долго ехал на работу и разговаривал с ChatGPT в «голосовом режиме». Когда она предложила ему вместо этого составить список людей, которым он мог бы позвонить, он не думал, что кто-то захочет об этом услышать.
«Если бы они позвонили тебе, как бы ты себя почувствовала?» — спросила она.
«Я буду чувствовать себя хорошо», — признался он.
Даже невинные причины, по которым люди обращаются к чат-ботам, могут ослабить эти мышцы, особенно когда они обращаются за советом к ИИ, что является одним из наиболее распространенных вариантов использования ChatGPT. Сам акт обращения за советом — это не просто обмен информацией, но и способ построения отношений — он требует уязвимости со стороны человека, который его инициирует.
Когда мы делаем это с помощью технологий, со временем люди начинают избегать базовых социальных взаимодействий, необходимых для более глубоких связей. «Вы не можете просто вступить в деликатный разговор с партнером или членом семьи, если вы также не проявляете уязвимость (с ними) способами с меньшим риском», — говорит Миллер.
Поскольку чат-боты становятся полезными доверенными лицами для миллионов людей, люди должны воспользоваться этой возможностью и получить больше контроля. Настройте ChatGPT на прямой доступ и обращайтесь за советом к реальным людям, а не к модели искусственного интеллекта, которая будет проверять ваши идеи. В противном случае будущее выглядит гораздо более безличным.
Парми Олсон — технологический обозреватель Bloomberg. Бывший репортер Wall Street Journal и Forbes, она является автором книги «Совершенство: искусственный интеллект, ChatGPT и гонка за изменение мира».
