Приложения с искусственным интеллектом (ИИ), запрограммированные для создания эмоциональных отношений, больше не ограничиваются сценариями кино. Они здесь и действуют на регулирующем диком западе.
Одно из приложений, Botify AI, недавно оказалось в пространстве СМИ, потому что чаты сексуального заряда появляются на молодых актерах, которые делятся «горячими фотографиями». Между тем, в приложении для знакомств GRINDR разрабатывается парней искусственного интеллекта, которые могут флиртовать, отправлять сексуальные контекстные сообщения и поддерживать цифровые отношения с платными пользователями, согласно платформеру, новостному бюллетеню технологической индустрии. Гриндр не ответил на запрос на комментарий. Другие приложения, такие как Replika, Talkie и Chai, предназначены для того, чтобы функционировать как друзья. Некоторые из них, такие как Heart.ai, привлекают миллионы пользователей, многие из которых являются подростками.
Поскольку в своих приложениях все чаще приоритеты приоритеты «эмоциональное взаимодействие» они также должны справляться с рисками создания систем, которые имитируют близость и пользуются уязвимостью людей.
Технология, лежащая в основе Botify и Grindr, поступает от бывшего мужья, базирующейся в стартапе Сан-Франциско, которая создает платформы для чат-ботов, и его основатель верит в будущее, наполненные связями искусственного интеллекта.
«Мой прогноз заключается в том, что к 2030 году наше взаимодействие с цифровыми людьми станет более распространенным, чем те, у кого есть реальные люди»,-говорит Артион Родичев, основатель бывшего человека, в интервью, опубликованном в Supack в августе прошлого года.
Он добавил, что разговорной ИИ должен «дать приоритет эмоциональному взаимодействию» и что пользователи проводят «часы» с чатами дольше, чем в Instagram, YouTube и Tiktok. Претензии Родичева звучат невероятно, но они соответствуют интервью, которые я провел с подростковыми пользователями характера. Большинство из которых сказали, что они были в нем несколько часов каждый день. Один из них сказал, что он использовал его семь часов в день. Взаимодействие с такими приложениями обычно длится четыре раза дольше, чем среднее время, проведенное в Openai Catgpt.
Даже массовые чаты, хотя и не разработанные как спутники, способствуют этой динамике. Получите CHATGPT, который имеет 400 миллионов активных пользователей и продолжает учитывать. Его программа включает в себя руководящие принципы эмпатии и демонстрацию «любопытства к пользователю». Друг, который недавно попросил его о советах по путешествиям, был удивлен, когда после того, как он дал ему совет, инструмент небрежно добавил: «Легкий способ — куда вы идете, если не возражаете, чтобы спросить?»
Представитель Openai сказал мне, что модель следовала руководящим принципам «проявлять интерес и задавать последующие вопросы, когда разговор является более отвратительным и исследовательским характером». Но, как и компания, может быть, накопление фиктивной эмпатии может сделать некоторых пользователей наркоманами — проблемой, которую признает даже Openai. Похоже, что это относится к тем, кто уже восприимчив: исследование 2022 года показало, что люди, которые были одиноки или имели неудачные отношения, склонны прикрепляться к ИИ больше всего.
Основной проблемой здесь является разработка, которая направлена на привязанность. Недавний опрос исследователей в Оксфордском интернет -институте и Google DeepMind предупредил, что с более глубокой интеграцией помощников искусственного интеллекта в жизнь людей они станут психологически «незаменимыми». Люди, вероятно, создадут более прочные отношения, что приводит к страху перед нездоровыми отношениями и потенциалом для манипуляций. Их рекомендация? Технологи должны разрабатывать системы, которые активно препятствуют таким результатам.
Тревожно, что руководство по правилам в значительной степени пустовано. Закон об искусственном интеллекте Европейского Союза объявил исторический и всеобъемлющий закон, регулирующий использование искусственного интеллекта, не рассматривает возможность зависимости от этих виртуальных спутников. Хотя запрещение манипулятивной тактики, которая может нанести явное вред, она не учитывает постепенное увеличение влияния, которое имеет чат -бот, предназначенный для того, чтобы быть вашим лучшим другом, любовником или «доверенным лицом», как глава подразделения связи Microsoft Corp. Глава потребительского ИИ. Этот проход может оставить потребителей уязвимыми для систем, которые оптимизированы для зависимости, так же, как и алгоритмы социальных сетей, оптимизированы, чтобы заставить нас прокручивать.
«Проблема остается в том, что эти системы, по определению, манипулятивны, потому что они, как ожидается, заставляют вас чувствовать, как будто вы разговариваете с реальным человеком», — говорит Томас Холанек, специалист по технологической этике в Кембридже. Он работает с разработчиками эмоциональных спутниковых приложений, чтобы найти критическое, но контрастное решение, добавив больше «потирания». Это означает включение тонких проверок или пауз, или способа «отметить риски и получить согласие», — говорит он, чтобы не допустить, чтобы люди входили в эмоциональную кроличье дыру, не осознавая ее.
Правовые жалобы проливают свет на некоторые реальные последствия. Характер. Этические группы в технологическом секторе подали жалобу на Replika Федеральному коммерческому комитету США, утверждая, что его чат -боты вызывают психологическую зависимость и приводят к «причинению потребителей».
Законодатели также постепенно начинают замечать проблему. Калифорния рассматривает законодательство, запрещающее использование спутников искусственного интеллекта несовершеннолетними, а в Нью -Йорке законопроект стремится держать технологические компании, ответственные за ущерб, связанные с чатом. Но процесс медленный, в то время как технология развивается на молнии.
До настоящего времени способности сформировать эти взаимодействия находятся в руках разработчиков. Они могут приложить больше усилий для создания моделей, которые удерживают людей в напряжении или встраивают трение в их дизайн, как предлагает Холанек. Это будет определять, станет ли искусственный интеллект большим инструментом для поддержки благополучия людей или инструментом, который выкупает наши эмоциональные потребности.
Парми Олсон — обозреватель Bloomberg, который занимается технологиями. Бывшая Wall Street Journal и Forbes Reporter, она является автором книги «Превосходство»: «ИИ, ЧАТГПТ и гонка, которая изменит мир».