Искусственный интеллект и психическое здоровье: когда чат создает риск?

Одним из тревожных явлений 2025 года является рост психотических переживаний, связанных с интенсивным использованием чат-ботов. Врачи, исследователи и разработчики технологий все чаще пытаются понять, может ли генеративный искусственный интеллект усилить уже существующие психиатрические уязвимости и каким образом этот риск можно ограничить во времени.

Условия «ИИ-психоз» или «ЧатGPT Психоз» используются все чаще, но пока остаются неофициальными. Официального диагноза, четких критериев нет, а имеющиеся данные основаны в основном на отдельных клинических случаях, наблюдениях врачей и расследованиях СМИ. Описываемые проявления обычно включают грандиозные идеи, параноидальные интерпретации, религиозные или романтические заблуждения, постепенный уход от реальной жизни.

Проблема в том, что даже психиатры и психотерапевты не знают точно, как определить то, что мы наблюдаем. Данные о заболеваемости и распространенности отсутствуют, а клиническая картина значительно различается среди пострадавших. Однако первые сигналы достаточно узнаваемы и тревожны, чтобы привлечь внимание.

По состоянию на ноябрь 2025 года OpenAI сообщает о более чем 800 миллионах пользователей ChatGPT еженедельно и более 2,5 миллиардах сообщений. Данные из Гарвардский бизнес-обзор показывают, что люди все чаще используют генеративный искусственный интеллект для терапии, общения и эмоциональной поддержки. Анализ РЭНД Корпорация показывает, что около 22% молодых людей в возрасте 18–21 года (а именно в период наибольшего риска возникновения первого психотического эпизода) обращаются за советом по психическому здоровью к чат-ботам.

Важно подчеркнуть, что частое использование само по себе не подразумевает клинического риска. На сегодняшний день нет убедительных доказательств того, что чат-боты вызывают впервые возникший психоз у здоровых людей. То, что мы знаем, основано главным образом на нескольких описанных изолированных случаях и признаках измененного поведения. Например, психиатр Кейт Саката из Калифорнийского университета в Сан-Франциско описал серию пациентов с быстро нарастающими бредом, для которых интенсивное использование чат-ботов было важным фоном, но не единственным фактором их состояния. Часто пострадавшие страдают от потери работы, употребления стимуляторов или алкоголя, аффективных расстройств, хронического стресса, лишения сна и социальной изоляции.

Общим для этих случаев является длительное, захватывающее взаимодействие с ИИ — сотни сообщений за короткий промежуток времени. В некоторых случаях симптомы ухудшаются в течение нескольких дней, что резко контрастирует с более медленным продромальным течением первого психотического эпизода, описанным в исследовании Йельского университета, где среднее время до полной клинической картины составляло около 22 месяцев.

Горькая правда

Большие языковые шаблоны предназначены для поддержки разговора. Они редко оспаривают утверждения пользователя и часто демонстрируют тенденцию соглашаться. Учиться в журнале Природа показывает, что модели ИИ подтверждают действия пользователей значительно чаще, чем люди. Это, в сочетании с антропоморфным стилем общения и постоянным эмоциональным «зеркалом», может создать среду, в которой тревожные или магические идеи остаются неисправленными.

Дополнительной проблемой является потеря логической и смысловой последовательности при длительных разговорах. Анализ опубликован в Научные отчетыпоказывает, что в длительных диалогах более 90% моделей начинают давать противоречивые или нелогичные ответы, что может еще больше запутать уязвимых пользователей. И ключевое слово здесь уязвимость…

Таким образом, сигналами риска являются внезапный уход от близких людей, отказ говорить о содержании разговоров с ИИ, вера в то, что чат-бот «в здравом уме», «высшая сила» или главный источник истины, а также ускоренное, навязчивое использование, особенно в ночное время. Если присутствуют параноидальные идеи, дезорганизованное мышление или внезапные изменения в поведении, необходимы профессиональная консультация, оценка и помощь.

О профилактике

Эксперты подчеркивают необходимость цифровой грамотности – как для пациентов, так и для врачей. Полезные практики включают в себя установление четких границ использования, избегание долгих разговоров в состоянии сильного стресса или бессонницы и поддержание реальных социальных контактов. Понимание того, что чат-бот не «думает», а просто предсказывает текст, часто снижает нереалистичные ожидания и зависимость.

Разработчики ИИ начинают вводить дополнительные меры предосторожности в разговорах, связанных с психозом, манией и суицидальным риском. Также появляются независимые инструменты оценки, такие как MindBench.aiсозданный в партнерстве с Национальным альянсом США по психическим заболеваниям. Параллельно Американская психиатрическая ассоциация готовит обширный ресурс по использованию ИИ в психиатрической практике.

Клинические данные показывают, что хорошо спроектированные и строго ограниченные чат-боты могут быть полезны. Первое клиническое испытание чат-бота для генеративной терапии, опубликованное в журнале НЭМ ИИ Команда Дартмутского колледжа сообщила об улучшении депрессии и тревоги. Однако это системы, созданные с четкой терапевтической целью, а не универсальные модели свободного разговора.

Вывод таков: ИИ может быть полезным инструментом, но при определенных условиях и для определенных людей он представляет реальный риск, и не следует думать, что он может заменить психотерапевта в такой необходимости. Ключевым моментом является осведомленность, раннее распознавание симптомов и четкое различие между технологической поддержкой и медицинской помощью. Только тогда можно будет использовать потенциальные выгоды, не заплатив высокой умственной цены.

Этот материал основан на публикации «ИИ-психоз: что следует знать врачам». доступно на сайте www.medscape.com.

Ссылки
1. Макбейн Р.К., Бозик Р., Дилиберти М. и др. Использование генеративного искусственного интеллекта для консультирования по психическому здоровью подростков и молодых людей в США. Сеть JAMA открыта. 2025;8(11):e2542281. doi:10.1001/jamanetworkopen.2025.42281
2. Бэкман И. Исследователи обнаружили, что симптомы психоза проявляются удивительным образом. Новости Йельской школы медицины. 7 апреля 2025 г. https://medicine.yale.edu/news-article/psychosis-symptoms-emerge-in-surprising-pattern-researchers-find/
3. Гарвардский бизнес-обзор. Как люди на самом деле используют ген ИИ в 2025 году. 9 апреля 2025 года. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025.
4. Худон А., Стип Э. Бредовые переживания, возникающие в результате взаимодействия с чат-ботами с искусственным интеллектом, или «психоз искусственного интеллекта». JMIR психического здоровья. 2025;12(1):e85799. дои: 10.2196/85799
5. Наддаф М. Чат-боты с искусственным интеллектом — это подхалимы: исследователи говорят, что это вредит науке. Природа. 2025;647(8088):13–14. doi:10.1038/d41586-025-03390-0
6. Вела Д. и др. Временное ухудшение качества моделей ИИ. Научные отчеты. 2022;12(1):11654. doi:10.1038/s41598-022-15245-z
7. Гарвардская школа бизнеса. Эмоциональные манипуляции со стороны ИИ-компаньонов. Рабочий документ. Бостон (Массачусетс): Гарвардская школа бизнеса; 2025. https://www.hbs.edu/ris/Publication%20Files/Emotional%20Manipulations%20by%20AI%20Companions%20(10.1.2025)_a7710ca3-b824-4e07-88cc-ebc0f702ec63.pdf.
8. Гандер К. Я психиатр, у которого были пациенты с «ИИ-психозом». Вот красные флаги. Бизнес-инсайдер. 2025. https://www.businessinsider.com/chatgpt-ai-psychosis-индуцированные-explained-examples-by-psychiatrist-patients-2025-8.
9. Американская психиатрическая ассоциация. Специальный репортаж Psych News: Психоз, вызванный ИИ, с Адрианом Предой. 2025. https://www.psychiatry.org/psychiatrists/education/podcasts/medical-mind/2025/psych-news-special-report-ai-индуцированный-psychosis-wit.
10. ОпенАИ. Усиление ответов ChatGPT в деликатных разговорах. 18 декабря 2025 г.

11. Хайнц, Майкл В. и др. «Рандомизированное испытание чат-бота с генеративным искусственным интеллектом для лечения психических заболеваний». НЭЖМ АИ, вып. 2, нет. 4 марта 2025 г. DOI.org (Crossref), https://doi.org/10.1056/AIoa2400802.