Openai вносит изменения в своего популярного чат -бота после иска, утверждая, что подросток, который покончил жизнь самоубийством этой весной, полагался на Chatgpt как «тренера».
В публикации в блоге во вторник компания по искусственному интеллекту объявила, что обновит CHATGPT, чтобы узнать и лучше реагировать на различные способы, которыми люди выражают пример психических страданий, объясняя опасность отсутствия сна и предлагая потребителям отдыхать, если они чувствуют, что они чувствуют себя непобедимыми после двух бессонных. Компания также заявила, что укрепит защиту разговоров о самоубийстве, что, по ее словам, может «распасться» в длительных чатах.
OpenAI также планирует выпустить контроль, чтобы позволить родителям определить, как их дети используют CHATGPT, и увидеть подробности об этом использовании.
Публикация появляется в тот же день, когда родители Адама Рейна, 16-летний студент из Калифорнии, подали иск против компании и генерального директора Сэма Альтмана. Говорят, что утверждение систематически изолировало Рейна от его семьи и помогло ему спланировать его смерть. Рейн умер после того, как повесился в апреле.
Утверждение является еще одним из ряда пользователей чат -ботов, принимающих опасное поведение. Более 40 главных прокуроров штатов на этой неделе предупредили дюжину ведущих компаний для ИИ о том, что они юридически обязаны защищать детей от сексуально неуместных взаимодействий с чат -ботами.
«Мы выражаем самые искренние соболезнования семье Рейн в это трудное время и рассмотрим представленную документацию», — сказал представитель San Francisco Openai в ответ на претензию.
Выпущенный в конце 2022 года, Chatgpt дал бум генеральный бум ИИ. В ближайшие годы люди все чаще используют чаты для всего, от кодирования до попыток терапевтических сессий, и такие компании, как Openai, запустили более мощные модели для их кормления. CHATGPT остается чрезвычайно популярным и уже имеет более 700 миллионов пользователей в неделю.
В то же время чат -бот — наряду с конкурентными Google и антропными продуктами — находится под повышенным контролем пользователей и экспертов по психическому здоровью. Критики выражают обеспокоенность по поводу потенциального вреда такому программному обеспечению, включая риски, которые OpenAI уже обращается, например, возвращение к обновлению в апреле, после того, как пользователи жаловались на то, что бот был слишком рабским.
По крайней мере, одна группа поддержки — проект Human Line — оказалась помогала людям, которые говорят, что они испытали заблуждения и другие проблемы в результате использования чат -ботов.
В своей публикации во вторник Openai указывает, что он направляет пользователей, выражающих мысли о самоубийстве профессиональной помощи. Компания также начала перенаправлять людей в местные службы поддержки в США и Европе — и активирует доступ к клике к экстренным службам непосредственно в CHATGPT. Компания также заявила, что также рассматривает вопрос о том, как помочь людям в более раннем примере кризиса, создав сеть лицензированных специалистов, с которыми пользователи могут подключаться через чат-бот.
«Требуется время и тщательная работа, чтобы поступить правильно», — сказала компания.
OpenAI также признал, что в настоящее время текущая защита CHATGPT для работы с пользователями в Function Function лучше всего, типичные разговоры и могут быть менее надежными с долгосрочными чатами.
Родители Рейна говорят в его желании, что «Чатгп стал ближайшим доверенным лицом Адама, что заставило его поделиться беспокойством и психическими страданиями». Когда его беспокойство усилилось, он сказал чатботу, что он «успокаивает», узнав, что может «покончить с собой», говорят они. Он сказал, что Чатгпт ответил, что «многие люди, которые борются с беспокойством или навязчивыми мыслями, находят утешение в идее« аварийного результата », потому что это можно рассматривать как способ восстановить контроль».
Openai заявила, что работает для улучшения способности CHATGPT поддерживать защиту во время долгих разговоров. Компания также исследует способы проработки во многих отдельных чатах. CHATGPT может ссылаться на предыдущие элементы разговора с пользователем и использовать детали из одного разговора в другой.
В стартапе также говорится, что он скорректировал свое программное обеспечение, чтобы избежать ситуаций, когда контент, который должен был быть заблокирован CHATGPT «Sneaks» — проблема, которая может возникнуть, когда CHATGPT недооценивает вес сигнала пользователя.
Джей Эдельсон, адвокат родителей Рейна, сказал, что семья оценила тот факт, что компания взяла на себя некоторую ответственность, но добавила: «Где они были в последние несколько месяцев?»
Openai заявила, что планирует предоставить более подробную информацию о том, как она отреагировала на пользователей CHATGPT в психическом и эмоциональном кризисе после следующего крупного обновления продукта, но «недавние подавляющие случаи людей, использующих CHATGPT в разгар острых кризисов, сильно взвешивают нас, и мы думаем, что сейчас это важнее».
В отдельном случае, персональная технология Inc. в мае он не смог убедить федерального судьи полностью отклонить утверждение о том, что компания якобы была разработана и рекламирована в незначительных хищных чатах, поощряет неуместные разговоры и привела к смерти подростка через самоубийство.
