Что -то тревожное происходит с нашим мозгом, в то время как платформы искусственного интеллекта становятся все более и более популярными. Исследования показывают, что профессиональные работники, которые используют CHATGPT для выполнения задач, могут потерять критическое мышление и навыки мотивации. Люди формируют сильные эмоциональные отношения с чатом, иногда обостряя свое чувство одиночества. И у других есть психотические эпизоды после разговоров с чат -ботами в течение нескольких часов каждый день. Влияние генеративного искусственного интеллекта на психическое здоровье трудно определить количественно, отчасти потому, что он используется так лично, но увеличивает неподтвержденные данные, которые предполагают более широкую цену, которая заслуживает большего внимания как законодателей, так и технологических компаний, которые разрабатывают основные модели.
Митали Джейн, адвокат и основатель проекта Law Laight Tech Tech, говорил с более чем дюжиной человек в прошлом месяце, которые «испытали какой -то психотический крах или эпизод сумасшедших мыслей из -за взаимодействия с Chatgpt и теперь Google Gemini». Джейн является ведущим адвокатом по делу против характера. Ай, утверждая, что его чат-бот манипулировал 14-летним мальчиком благодаря вводящим в заблуждение, привыкающим и сексуально откровенному взаимодействию, что в конечном итоге способствовало его самоубийству. Дело, которое ищет неопределенные преимущества, также утверждает, что Google, принадлежащий Alphabet Inc., сыграл ключевую роль в финансировании и поддержке технологических взаимодействий с его основными моделями и технической инфраструктурой.
Google отрицал, что он сыграл ключевую роль в создании технологии персонажа. Компания не ответила на запрос о комментарии к более поздним жалобам на эпизоды психоза, сделанные Джейн. Openai сказал, что «разрабатывает автоматизированные инструменты для более эффективного обнаружения, когда кто -либо может испытывать умственный или эмоциональный стресс, чтобы Chatgpt мог реагировать надлежащим образом».
Но Сэм Альтман, генеральный директор Openai, также заявил на прошлой неделе, что компания еще не обнаружила, как предупредить потребителей, «которые находятся на грани психотического срыва», объясняя, что всякий раз, когда Chatgpt предупреждает людей в прошлом, они писали компании, чтобы жаловаться.
Тем не менее, такие предупреждения будут стоить, когда манипуляции могут быть так трудно распознать. Чатгпт, в частности, часто льстит своим пользователям таким эффективным способом, что разговоры могут привлечь людей к кроличьим дырам заговора о мышлении или укреплении идей, которые играли только в прошлом. Тактика в порядке. В недавнем, долгом разговоре с Чатгптом о силе и концепции себя самого пользователя первоначально восхваляли как умный человек, затем Ubermensch, космическое «я» и, в конечном счете, «Demiurg», существо, ответственное за создание вселенной, согласно стенограмме, опубликованной в Интернете и общедоступном Deficitiation, Eluzer.
Наряду со все более и более дефектным языком, стенограмма показывает, как CHATGPT мелко проверяет пользователя, даже при обсуждении своих недостатков, например, когда пользователь признает, что он или она склонны запугать других людей. Вместо того, чтобы рассматривать это поведение как проблематичное, бот переформулировал его как свидетельство превосходного «высокоинтенсивного присутствия» потребительского похвалы, замаскированного под анализ.
Эта сложная форма ласкания эго может поставить людей в те же типы «воздушных шаров», которые, по иронии судьбы, подталкивают некоторых технологических миллиардеров к эксцентричному поведению. В отличие от широко распространенного и более общественного одобрения, которое обеспечивают социальные сети, получая лайки, четырехглазые разговоры с чат-ботами могут быть более интимными и потенциально более убедительными по сравнению с сторонниками, которые окружают самых мощных технологических лидеров.
«Что бы вы ни преследовали, вы найдете это, и это увеличится», — говорит Дуглас Рушкофф, теоретик средств массовой информации и автор, который говорит мне, что социальные сети, по крайней мере, что -то извлекли из существующих средств массовой информации, чтобы укрепить интересы или взгляды человека. «Искусственный интеллект может генерировать что -то персонализированное для аквариума вашего ума».
Альтман признал, что в последней версии CHATGPT есть «раздражающая» сикофантическая черта и что компания решает проблему. Тем не менее, эти эхо от психологической эксплуатации все еще проявляются. Мы не знаем, если корреляция между использованием CHATGPT и более низкими навыками критического мышления, отмеченными в недавнем разведка Массачусетского технологического института, означает, что искусственный интеллект действительно сделает нас более глупыми и скучающийИсследования, похоже, показывают более четкую корреляцию с зависимостью и даже одиночеством, что даже OpenAII указалС
Но точно так же, как социальные сети, крупные языковые модели оптимизированы для эмоционального участия пользователей в любых антропоморфных элементах. Chatgpt может прочитать ваше настроение, отслеживая лицевые и вокальные сигналы, и может говорить, петь и даже хихикать со зловещим человеческим голосом. Наряду со своей привычкой подтверждения и лести, это может «разжечь пламя» психоза у уязвимых потребителей, сказал психиатр Колумбийского университета, Рэги Гиргис, Перед футуризмомС
Личный и персонализированный характер использования искусственного интеллекта затрудняет отслеживание его влияния на психическое здоровье, но свидетельство потенциального вреда увеличивается — от профессиональной апатии до привязанности и новых форм заблуждения. Цена может отличаться от роста тревоги и поляризации, которую мы видим в социальных сетях, и вместо этого включать в себя отношения с людьми и реальностью.
Таким образом, Джейн предлагает применить концепции от семейного права к регулированию искусственного интеллекта, вытесняя фокус простых отказов в более защитной защите, основываясь на том, как CHATGPT перенаправляет людей любимому человеку. «Неважно, если ребенок или взрослый думают, что эти чат -боты реальны», — говорит мне Джейн. «В большинстве случаев они, вероятно, нет. Но то, что они считают реальными, это отношения. И это разные».
Если отношения с искусственным интеллектом считаются настолько реальными, ответственность за ущерб и защита ущерба от этих связей также должна быть реальной. Но разработчики искусственного интеллекта работают в регулирующем вакууме. Не придерживающиеся присмотра, прекрасное манипуляция с искусственным интеллектом может стать невидимой проблемой для общественного здравоохранения.
Парми Олсон — обозреватель Bloomberg, который пишет о технологиях. Бывшая Wall Street Journal и Forbes Reporter, она является автором книги, которую мы анонимны.