Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11
Перетяжка, Премия ТПрогер, 13.11

Психотерапевты тайно используют ChatGPT. Пациенты чувствуют себя обманутыми

Новости

Некоторые психотерапевты начали использовать ChatGPT для анализа сессий и ответов пациентам — тайно. Что стоит за этой тенденцией, какие риски она несёт для конфиденциальности и почему пациенты чувствуют себя преданными.

93 открытий1К показов
Психотерапевты тайно используют ChatGPT. Пациенты чувствуют себя обманутыми

С каждым месяцем становится всё очевиднее: ИИ проникает даже туда, где его меньше всего ждут. Американское издание MIT Technology Review рассказало о тревожной тенденции — некоторые психотерапевты стали использовать ChatGPT для анализа сессий и ответов клиентам, не уведомляя об этом пациентов.

31-летний Деклан из Лос-Анджелеса узнал об этом случайно. Во время онлайн-сеанса у терапевта начались проблемы со связью, и тот по ошибке включил демонстрацию экрана. На глазах у пациента специалист копировал его фразы в ChatGPT, получал ответы и тут же пересказывал их как собственные. «Я просто сидел и смотрел, как он чатится с ИИ, пока делает вид, что слушает меня», — рассказал Деклан. После неловкого разговора терапевт признался, что «испытывал профессиональный тупик» и решил искать вдохновение в нейросети.

История Деклана — не единичный случай. На Reddit и форумах психотерапевты и клиенты всё чаще обсуждают похожие эпизоды. Некоторые пациенты жалуются на «неестественные» письма от терапевтов: слишком выверенные формулировки, американизмы и одинаковый стиль изложения. В одном из случаев пользовательница по имени Хоуп получила от своего психотерапевта ответ на сообщение о смерти питомца, где в начале письма случайно сохранилась подсказка: «Here’s a more human, heartfelt version with a gentle, conversational tone».

Психологи и исследователи предупреждают, что такие эксперименты могут разрушить доверие — основу терапевтических отношений. Согласно исследованию, опубликованному в PLOS Mental Health в 2025 году, ответы ChatGPT на клиентские кейсы оказались неотличимы от человеческих и даже оценивались выше по профессиональным стандартам. Но как только участники узнавали, что их автор — ИИ, доверие резко падало. Аналогичные результаты получили учёные из Корнелла: эффективность и эмпатия обрушивались, если человек хотя бы подозревал участие нейросети.

Эксперты подчёркивают, что главная угроза — не только эмоциональная. Терапевты, использующие публичные модели вроде ChatGPT, потенциально нарушают законы о защите медицинских данных (HIPAA). Как отмечает исследовательница из Университета Дьюка Пардис Эмами-Наэини, большинство пользователей ошибочно полагают, что ChatGPT безопасен для передачи личной информации. На деле любая фраза, введённая в такой инструмент, может стать частью тренировочных данных и раскрыть детали частной жизни пациентов.

Тем временем на рынке появляются специализированные решения — от Heidi Health до Upheal — которые обещают безопасное хранение данных, HIPAA-сертификацию и ИИ-помощь для психотерапевтов. Но даже сторонники таких платформ предупреждают: запись сессий и автоматическая расшифровка неизбежно создают риски утечки. В 2020 году взлом психиатрической клиники в Финляндии привёл к публикации тысяч терапевтических записей, включая истории о насилии и зависимостях.

Следите за новыми постами
Следите за новыми постами по любимым темам
93 открытий1К показов