Как чат GPT может навредить психике

Наталья Арефьева, психолог, гипнолог, АСТ-терапевт, эксперт по коммуникациям

Искусственный интеллект уже не «роскошный максимум», а «базовый минимум» каждого человека. Пользование нейросетями стало настолько доступным и автономным, а простые и понятные промты разбросаны по интернету, поэтому человеку легко получить чит-код от нового умного бота и адаптировать его к своей жизни. И все бы ничего, когда современные технологии используются с умом, для решения рабочих задач, помогая в рамках креативных концепций, но все становится совсем иначе, если человек видит в чате GPT помощника, соратника и друга. Почему обращаться за советом к нейросети может быть не только бесполезно, но и вредно, рассказала психолог и АСТ-терапевт Наталья Арефьева. 

1
Наталья Арефьева, психолог, гипнолог, АСТ-терапевт, эксперт по коммуникациям

ИИ-терапевт

Соцсети пестрят историями, где пользователи делятся своим опытом общения с нейросетью, которую воспринимают как психолога или психотерапевта. Кто-то рассказывает о том, как нейроробот умело попал в болевую точку, достал травматический опыт и дал нужный план действий; кто-то рассказывает о чудесной поддержке, которая так необходима. 

Этот формат максимально простой и понятный: ты пишешь свои проблемы не человеку, а машине, которая точно не осудит, не расскажет никому, а также всегда будет под рукой в нужное время. Это очень удобный механизм для людей, которые либо не были в работе с психологом, либо получили негативный опыт и теперь ИИ — выход. Но не все так однозначно. 

Позитивный собеседник

Чат GPT всегда на стороне человека, который задает ему вопрос. Он не спорит, не критикует, подбадривает и дает похвалу. Цифровой собеседник не покажет слепые пятна, а создает иллюзию поддержки, но псевдоэкспертность в уязвимом состоянии может оказаться опасной. 

Например, попадая в болевую точку, чат GPT легко интерпретирует состояние, но поверхностно, без акцента на телесных реакциях, ощущениях, чувствах. И его дежурная поддержка в виде попсовых фраз: «Я буду рядом, пока тебе это необходимо. Ты всегда можешь вернуться, и мы продолжим». 

Тем самым он может что-то вскрывать у человека, а вот обратно это вскрытое закрывается не всегда. И это чревато не просто перевозбуждением нервной системы, но и ретравматизацией.

Разговор с ИИ не равно терапия

Конечно, разговор с нейросетью может подбадривать, облегчать состояние и давать поддержку. Но это никак не может заменить настоящий терапевтический процесс, в основе которого всегда лежат отношения, а не слова и алгоритмы. Это живое взаимодействие, где есть границы, динамика, развитие, а также возможность научиться выдерживать собственные чувства, не наделяя их плюсами или минусами. 

В отношениях между специалистом и клиентом могут подниматься темы прошлого опыта, внутренние конфликты. Иногда фигура терапевта и весь процесс может вызывать у человека злость, раздражение, боль. А при взаимодействии с ИИ данный механизм будет отсутствовать по причине нереальности и обезличенности собеседника. Также чат никогда не сможет в моменте отследить телесную реакцию, увидеть, как меняется мимика, учащается дыхание, как выбирается новая поза. 

Живой терапевт не будет на каждую фразу говорить: «Я слышу, что тебе сейчас больно. Ты прав». Он действует в настоящем и не всегда бывает удобным и комфортным для человека. Но именно в этом взаимодействии и происходит настоящий рост, важный для терапевтического процесса. 

Польза

Чат GPT не заменит личного взаимодействия, но все же в ряде случаев он может быть полезным инструментов для самоподдержки. Например, когда человеку нужно структурировать собственные мысли или выгрузить то, что накипело. Тем самым ИИ может быть помогающим цифровым специалистом, давая краткосрочное облегчение в какой-то ситуации, помогая оценить собственное состояние и развивать способность к рефлексии. 

Риски

В настоящее время нет ни одной модели ИИ, которая могла бы заменить живой контакт. И это скорее хорошо, чем плохо. Но важно знать, что все же чат GPT — это не всегда добрый друг и позитивный соратник. И даже когда он дает поддерживающую интерпретацию, важно понимать, что его алгоритмы не способны разделить и отличить личный кризис от накопленной усталости, не заметит усиление симптоматики, легко пропустит суицидальный риск, а также может усугубить негативные убеждения и установки. 

Чат может поддержать вредную для человека идею, усугубить тревожное состояние и подвести его к принятию решения, потенциально опасного для него. Система не способна выстраивать и выдерживать границы, поэтому рекомендации чата не всегда безопасны и безоценочны. А для людей в уязвимом состоянии — это настоящая бомба замедленного действия. 

Западные исследователи опубликовали ряд историй, где люди, находящиеся в зависимой связи от GPT, принимали решения, посоветовавшись с чатом, уходили из семей, бросали работу, внушали себе идею сверхценности и значимости, отворачивались от близких, а некоторые и вовсе получили одобрение для самоповреждающего поведения. 

Поэтому крайне важно понимать ограничения нейросетей и не ждать от них качественной помощи реального специалиста. Ведь ИИ в целом для того не предназначены. И в вопросах, касающихся физического и ментального здоровья, не стоит пренебрегать обращением к специалисту. Это единственная и, к счастью, доступная мера помощи себе и близким.