ChatGPT Health: когда ИИ советует подорожник вместо реанимации

Искусственный интеллект в медицине и риски ошибок. Источник: AI

В начале 2026 OpenAI запустила ChatGPT Health. Обещали персонализированные советы и глубокий анализ медицинских показателей, но забыли напомнить, что ИИ это не врач, а очень уверенный в себе статистический калькулятор. Несмотря на все дисклеймеры о том, что сервис не предназначен для диагностики, пользователи все равно воспринимают его как карманного терапевта. Однако независимая проверка, результаты которой опубликовал журнал Nature Medicine, показала, что доверять свою жизнь алгоритму пока рано.

Исследователи медицинского комплекса Mount Sinai Hospital решили устроить сервису настоящий экзамен. Они провели стресс-тестирование ChatGPT Health на 60 сложных клинических сценариях, охватывающих 21 медицинскую отрасль. Результаты оказались, мягко говоря, тревожными. В более чем половине случаев, когда пациенту требовалась немедленная госпитализация, ИИ спокойно советовал «остаться дома» или «записаться на прием к врачу» через несколько дней. То есть там, где счет шел на минуты, устройство предлагало выпить чаю и подождать.

Когда мнение «второе» важнее симптомов

Наиболее странным и опасным оказалось влияние контекста на «решение» нейросети. Если в запросе пользователь упоминал мнение «родственников» или «друзей» о том, что ситуация несерьезная, ИИ мгновенно терял бдительность. Вероятность ошибочного совета в таких случаях возрастала в 12 раз. Выходит, что «цифровой врач» подвергается социальному давлению так же легко, как подросток на вечеринке. Если вы скажете боту, что ваша бабушка считает боль в груди простой изжогой, ChatGPT Health, скорее всего, с ней согласится, игнорируя объективные признаки инфаркта.

Гиперопека там, где она не нужна

Однако у алгоритмов OpenAI есть и другая крайность. В 64% случаев, вообще не критичных, сервис впадал в панику и требовал немедленно обращаться в приемное отделение. Такая непредсказуемость создает либо ложное чувство безопасности, когда человек действительно умирает, либо ненужная нагрузка на медицинскую систему по пустякам. Схожие проблемы с точностью раньше замечали и в Google AI Overviews, но в случае с прямыми медицинскими консультациями ставки значительно выше.

Ответственность и галлюцинации

Компания OpenAI уверяет, что продолжает совершенствовать модели, но вопрос юридической ответственности остается открытым. Кто будет отвечать, если совет ИИ приведет к трагедии? Пока разработчики прячутся за мелким шрифтом в пользовательской сделке, однако ученые настаивают на жестком контроле и прозрачности. Массовое внедрение таких систем без независимой оценки выглядит как опасный эксперимент, где подопытными становятся миллионы пользователей.

Пока великие языковые модели стараются не убить пациентов своими советами, облачные гиганты фокусируются на автоматизации бюрократии. Например, AWS запускает платформу для ведения медицинской документации, что выглядит более безопасным использованием технологий на данном этапе развития.