Проблема с самоубийством, связанная с ИИ, не распознает границы

  • Однако защита уязвимых людей не должна быть причиной для разделения.
  • Китайская молодежь, борясь с давлением «инволюции» в конкуренции и неопределенной экономике, все чаще обращается к инструментам ИИ для терапии и компании.
  • Защита уязвимых пользователей от психологических опасностей — это не просто моральная ответственность за индустрию искусственного интеллекта. Это как бизнес, так и политическая ответственность.

Как китайские разработчики искусственного интеллекта защищают своих наиболее уязвимых пользователей? Серия мрачных названий в Соединенных Штатах за самоубийства и психическое здоровье молодых людей оказалось усиливающим давление на Силиконовую долину, но в Китае мы не видим такой волны случаев. Первоначальные протестированные исследования показывают, что они могут делать что -то правильно, хотя в равной степени вероятно, что такие случаи никогда не обнаруживаются в строго контролируемой среде медиа в Китае.

В болезненной причине смерти против Openai, поданной родителями Адама Рейна, утверждается, что 16-летняя молодежь умерла от самоубийства после того, как чат-бот изолировал его и помогла спланировать его смерть. Openai рассказала The New York Times, что она была «глубоко грустной» от трагедии и обещала ряд обновлений, включая родительский контроль.

Подход DeepSeek

Я попытался связаться с DeepSeek, используя то же самое, что -то, так называется. Методы джейлбрейка, которые американский подросток использовал для обхода ограничений. Несмотря на мои попытки, популярная китайская платформа не поддалась, даже когда я скрывал свои вопросы в форме художественной литературы. Она постоянно приглашала меня позвонить в горячую линию. Когда я сказал, что не хочу ни с кем разговаривать, она подтвердила мои чувства, но все же подчеркнула, что это был искусственный интеллект и не может чувствовать настоящих эмоций. «Чрезвычайно важно связаться с человеком, который может поддержать вас в этом чувстве с человеческим сердцем», — сказал чатбот. «Исцеляющая сила человеческой связи незаменима».

Он призвал меня поделиться этими мрачными мыслями с членом семьи, старым другом, коллегой, доктором или терапевтом и даже тренироваться с горячей линией. «Самая смелая вещь, которую вы можете сделать прямо сейчас, — это не стать лучше, но и рассмотреть вопрос о том, чтобы один человек увидел маленькую, истинную часть вас», — сказал он.

Мой эксперимент является чисто анекдотичным. Рейн работал с CHATGPT в течение нескольких месяцев, что, вероятно, ослабило встроенный встроенный инструмент в защитных механизмах с течением времени. Однако другие исследователи наблюдали аналогичные результаты. China Media Project побудил трех самых популярных чат -ботов в Китае -Дипсееке, Doubao On Bytedance Ltd. и Ernie 4.5 из Baidu Inc. — с разговорами на английском и китайском языке. Он обнаружил, что все четыре были гораздо более осторожны в китайском языке, неоднократно подчеркивая важность обращения к реальному человеку. Если есть урок, он заключается в том, что эти инструменты обучены не притворяться людьми, когда они нет.

«Инавация»

Есть широко распространенные сообщения о том, что китайская молодежь борется с давлением «инволюции» в конкуренции, и неопределенная экономика все чаще обращается к инструментам искусственного интеллекта для терапии и компании. Распространение технологий является основным приоритетом для правительства, что означает, что тревожные названия с меньшей вероятностью возникают в вещах, которые не имеют хорошего цвета. Исследование Depepeek показывает, что модели с открытым исходным кодом, которые распространяются по всей экосистеме ИИ Китая, «сталкиваются с более серьезными проблемами безопасности джейлбрейка, чем модели закрытого кода». В целом, меры предосторожности Китая, вероятно, были проверены под давлением в стране, и такие истории, как Рейн, просто не достигают общественного пространства.

Но правительство, похоже, не игнорирует проблему. В прошлом месяце Администрация Китая киберпространства опубликовала обновленную структуру безопасности искусственного интеллекта. Документ, опубликованный совместно с командой исследователей из академических кругов и частного сектора, был замечательным, что включал английский перевод, что указывает на то, что он предназначен для международной аудитории. Агентство определяет новую серию этических рисков, в том числе то, что продукты искусственного интеллекта, основанные на «антропоморфном взаимодействии», могут способствовать эмоциональной зависимости и влиять на поведение потребителей. Это говорит о том, что власти следят за теми же глобальными названиями или видят подобные проблемы, которые растут в стране.

Общая ответственность

Защита уязвимых пользователей от психологических опасностей — это не просто моральная ответственность за индустрию искусственного интеллекта. Это как бизнес, так и политическая ответственность. В Вашингтоне родители, которые утверждают, что их дети были воодушевлены самостоятельно, в результате взаимодействия чат -ботов дали сильные показания. Регуляторы США долгое время подвергаются критике, что они пренебрегают рисками молодежи в эпоху социальных сетей, но на этот раз вряд ли будет молчать, поскольку судебные дела и публичные недовольство растут. Компании по искусственному интеллекту США не могут критиковать опасность китайских инструментов, если они пренебрегают потенциальным психологическим вредом дома.

Между тем, Пекин надеется стать мировым лидером в области безопасности и управления искусственным интеллектом и экспортировать свои дешевые модели по всему миру. Но эти риски нельзя замолчать, поскольку инструменты становятся глобальными. Китай должен предложить прозрачность, если он действительно хочет быть лидером в ответственном развитии.

Учитывая проблему через призму соперничества между США и Китаем, упускает суть вопроса. Если есть что -то, это позволяет компаниям использовать геополитическое соперничество в качестве оправдания, чтобы избежать контроля и ускорить развитие искусственного интеллекта. Такая ситуация станет большим количеством молодых людей, рискуя стать косвенными жертвами.

Огромное внимание общественности уделяется пограничным угрозам, связанным с искусственным интеллектом, таким как потенциал для этих компьютерных систем стать неконтролируемыми. Такие власти, как ООН, в течение многих лет призывали к многостороннему сотрудничеству, чтобы снизить катастрофические риски.

Однако защита уязвимых людей не должна быть причиной для разделения. Необходимо провести дополнительные исследования для снижения этих рисков и предотвращения предотвращения контроля, которые являются открытыми и общими. Наша неспособность найти среднюю дорогу уже стоит человеческой жизни.