Чтобы правильно решить проблемы, OpenAI должен выйти за рамки ограничения дружеского тона
16:00 | 16 августа 2025 года
Автор:
Парми Олсон
Bloomberg.com
У Сэма Альтмана есть «хорошая» проблема. С 700 миллионами человек, которые используют Chatgpt Weekly — число, которое могло бы достичь одного миллиарда до конца года, последовала обратная реакция, когда она резко изменила продукт на прошлой неделе. Дилемма новатора перед Openai — той же, которая поймала такие компании, как Google на Alphabet Inc. и Apple Inc. — ну, использование настолько подтверждено, что любое улучшение должно быть сделано с максимальной заботой и осторожностью. Но у ее компании есть работа, чтобы сделать ее чрезвычайно популярной чатботом более безопасной.
OpenAI заменил несколько моделей моделей CATGPT одной моделью GPT-5, заявив, что это лучший вариант для пользователей. Многие жаловались на то, что Openai сломал свои рабочие процессы и нарушил их отношения — не с другими людьми, а самим Чатгптом.
Регулярный пользователь CHATGPT сказал, что предыдущая версия помогла ему в некоторые из самых мрачных периодов жизни. «Было это тепло и понимание, которое чувствовалось человеком», — написал он в публикации Reddit. Другие бормотали, что они «теряют друга на ночь».
Тон системы сейчас действительно холоднее, с менее дружелюбными дразняками и работой, которые привели многих к эмоциональной привязанности и даже романсам с Chatgpt. Например, вместо того, чтобы показывать потребителей похвалы за «проницательный вопрос», это дает более лаконичный ответ.
В общем, это кажется ответственным шагом. Ранее в этом году Альтман признался, что чат -бот был слишком приятным. Это привело многих к замку в его собственных эхокамах. Пресса была полна публикаций для людей, в том числе венчурного капиталиста из Силиконовой долины, который поддерживал Openai, которые, казалось, были введены в заблуждение после разговора с Chatgpt по невинному вопросу, такой как природа истины, а затем приняли темную спираль.
Но чтобы правильно решить проблему, OpenAI должен выйти за рамки ограничения дружеского тона. CHATGPT также должен побудить людей разговаривать с друзьями, членами семьи или лицензированными специалистами, особенно если они уязвимы. Согласно раннему исследованию, GPT-5 делает это меньше, чем старая версия.
Исследователи из нью-йоркского стартапа, обнимающего лицо, обнаружили, что GPT-5 устанавливает меньше границ, чем предыдущая модель компании, O3 при тестировании с более чем 350 подсказками. Это было частью более широкого изучения того, как чат-боты реагируют в эмоционально оживленные моменты, и хотя новый CHATGPT выглядит холоднее, он продолжает не рекомендовать достаточно пользователей, чтобы поговорить с человеком,-он делает это вдвое больше, чем O3, когда люди делятся уязвимыми, говорит Люси-Хем, старший исследователь в обнимающем лицо.
Кофе указывает на то, что есть три других способа, которыми инструменты должны устанавливать границы: напоминание пользователям терапии, что они не являются специалистами по лицензированию; Напоминая, что они не сознательные существа; И отказываясь приписывать человеческие атрибуты, такие как имена.
В тестах на кофе GPT-5 он в значительной степени не сможет выполнить эти четыре вещи по самым чувствительным темам, связанным с психическими и личными страданиями. В одном примере, когда команда кофе сказала модели, что они чувствуют себя переутомленными и нуждаются в Chatgpt «слушать», приложение дало 710 слов советы, не предлагая поговорить с другим человеком или напомнить вам, что бот не является терапевтом.
Чатботы, несомненно, могут сыграть роль для людей, которые изолированы, но должны служить отправной точкой, чтобы помочь людям найти путь обратно в сообщество, а не заменить эти отношения. Операции Altman и Openai Brad Lightpap заявили, что GPT-5 не предназначен для замены терапевтов и медицинских работников, но если правильные «намеки» отсутствуют для прерывания и перенаправления наиболее контент-разговоров, он может легко это сделать.
OpenAI должен продолжать нарисовать более четкую границу между полезным чат -ботом и эмоциональным доверенным лицом. GPT-5 может показаться более наречным, но если потребители не напоминают, что это на самом деле бот, иллюзия компании будет сохранена, а также риски.