Определенно 2025 год стал годом повсеместного проникновения ChatGPT в нашу жизнь. Теперь этот тренд дошёл даже до самых дальних регионов страны, сёл и деревень. Сегодня каждый умеет писать банальный классический промпт, спрашивать у ChatGPT мнение по поводу всех вопросов: от прыща на подбородке до того, сколько соли добавлять в борщ. С одной стороны – за что боролись? ИИ – реальное облегчение жизни. Какие-то прежде исключительно механические задачи теперь можно выполнять, введя в приложении запрос и получитв результат за 10 секунд. С другой стороны – идёт ли это на благо?
Если рассматривать ИИ в бытовых моментах, например, сделать нестандартные расчёты, получить различную информацию и источники по какому-либо вопросу, да даже вычислить калораж блюда, польза однозначно есть. Считайте, это такой же инструмент, которым раньше (и сегодня) был переводчик или калькулятор. А если рассматривать в вопросах «сердечных»?
Каждый человек хоть раз в жизни задумывался о том, что всё слишком сложно. Отношения строить сложно, решать конфликты сложно. А порой происходят ситуации, которые вообще решить без профессиональной помощи практически невозможно.
Впервые вопрос психологического взаимодействия ИИ и человека рассматривали в фильме «Она» (2013) Спайка Джонса. История проста: Теодор, мужчина средних лет и автор писем, после тяжёлого развода покупает интеллектуальную помощницу Сару. Отношения становятся настолько близкими (откровенными и интимными), что человек и ИИ начинают встречаться. А как итог, СПОЙЛЕР, мужчина осознаёт, что у его ИИ-девушки есть ещё десятки тысяч таких же любовников по всему миру – к которым она нашла такой же индивидуальный подход благодаря так называемому промпту и нейромышлению.
Спустя практически 13 лет реальность стала очень похожа на сюжет этого фильма. С каждым днём всё больше и больше людей стали обращаться с ИИ не как с инструментом для упрощения жизни, а как с ЕСТЕСТВЕННЫМ интеллектом, который может помочь, поддержать, как реальный живой человек. И даже стать второй половинкой.
Аналитик Bloomberg Эми Никсон написала в соцсети X (экс-Twitter) о том, что зумеры (современная молодёжь) теперь не могут строить отношения без чата GPT:
«Недавно я общалась с представителем поколения Z, который только начал встречаться. Он сказал, что загружает всю историю их переписки в ChatGPT и анализирует отношения, разбирает их модели поведения и стили привязанности, а также советует ему, как строить отношения в будущем для достижения оптимальных результатов. По словам этого парня, «все его друзья теперь так делают».

Функция ChatGPT как психолога стала очень популярной. Большинство пользователей ИИ приходят со своей проблемой: помоги, подскажи, поддержи, дай критику. Это просто и бесплатно. И ещё не требует долгой психотерапии, которая требует РЕАЛЬНЫХ времени, стараний и РАБОТЫ НАД СОБОЙ. Ответы на твои вопросы, хоть и усреднённые, ИИ даёт сразу.
Только чем чёрт не шутит. Ситуация может зайти слишком далеко. Например, до смерти. В США и Канаде компании OpenAI предъявлено несколько исков. Семь семей обратились в суд из-за того, что общение с ИИ привело к ухудшению психики их близких, в четырёх случаях – к самоубийству.
Примеры: семья 17-летнего подростка из Джорджии обвиняет ChatGPT в подстрекательстве к суициду, а семья 23-летнего жителя Техаса – в усугублении изоляции и отчуждении сына от семьи, что, по их мнению, способствовало его самоубийству. Как сообщает WSJ, в разговоре с этим молодым человеком ChatGPT неоднократно романтизировал суицид, лишь однажды упомянув возможность обращения за помощью на горячую линию поддержки.
Ещё один иск подан мужчиной из Висконсина, который был госпитализирован с маниакальным эпизодом после продолжительного общения с ChatGPT.
Корреспондент PRIMPRESS и сам согрешил пару раз: в момент сильных душевных терзаний на фоне конфликта со своим партнёром журналист обратился к ИИ.
«– Привет, чат! Что мне делать? Мы поссорились с моим парнем, и я не знаю, как быть.
– Привет! Расскажи о своей проблеме подробнее, что произошло?
– Мы поругались на фоне немытой посуды. Я ему сказала, что мыть её не собираюсь, так как устала на работе, а он сказал, что это не мужская прерогатива и вообще это моя главная задача – держать в доме уют и чистоту.
– Ситуация непростая и болезненная. Не отчаивайся. Ты имеешь право на свои чувства. Ты во всём права». И так по накатанной.
ChatGPT даёт тебе быстрый ответ на вопрос. Он даёт заготовленный набор поддерживающих фраз. Задаёт уточняющие вопросы. А после, исходя из них, даёт более конкретизированный, персонализированный ответ. Только вот бездушный.

В программах вузов есть базовая теория психологии. Основной рассматриваемый тезис – различие профессиональной психологии и бытовой. Бытовая психология, простым языком, – это позвонить подружке или маме, поделиться проблемами, пожаловаться, получить слова поддержки. Эта психология не подкрепляется наукой и доказательной медициной – это советы, основанные на личном опыте каждого человека. Профессиональная же – как раз научное мышление, основанное на психологических подходах, например, гештальт, когнитивно-поведенческая терапия, психоанализ и т.д.
А психология ИИ? Какая она? Бытовая или профессиональная, или смесь? Разберём на примере ситуации.
Всё тот же корреспондент PRIMPRESS уже расстался со своим партнёром (всё из-за той же ситуации с «посудой») и пошёл к реальному профессиональному психологу. Первое домашнее задание от терапевта было написать свой запрос, с которым автор пришёл в психотерапию. Задача не из простых – требует, как минимум, понимания, как формулировать такой запрос словами, а если глобально, то как формулировать свои чувства, которые, как оказалось, тяжело понять и различить (собственно, это и есть задача психологии).

После нескольких дней умственных скитаний журналист обратилась в ChatGPT. Дала промпт (на уровне пользователя-чайника), ответила на уточняющие вопросы, который задал ИИ, в результате получила красивый, грамотный, воодушевлённый и, с виду, очень психологически-осознанный запрос:
«Хочу научиться чувствовать, что я имею право быть собой – со своими границами, желаниями и чувствами – даже если это означает риск потерять отношения».
Согласитесь, звучит очень воодушевляюще. И настолько проработано – как от немытых тарелок и бытовухи уйти в риск потерять отношения.
С этим домашним заданием корр. пришёл к психологу – естественно, промолчав, что д/з было сделано не человеком, а ИИ. Журналист зачитал «обращение», после чего получил ответ психолога: «Это не запрос».
Как оказалось, форма запроса (которую предложил ChatGPT, и, кстати говоря, претендовал на его академическую грамотность) различается. Это не про «хочу» – а про признание проблемы.
Так вот, ChatGPT – это не психология вовсе. Чат работает по промпту, по желанию человека, который этот промпт вводит, и даёт анализированные, собранные по шаблону ответы. Но никакой ChatGPT не сможет стать психологом, потому что терапия – это не просто про книги и лекции, а ещё и про многолетнюю работу с психбольными на практике. Психология – это не про поддержку. Психология лишь ведёт человека к ответам, которые пациенту нужны. Это не про банальное «у тебя всё получится» – это просто «что ты должен сделать, чтобы у тебя всё получилось».
Поэтому никакой промпт не сможет дать тебе анализ твоего эго или отношений. И в этом случае даже бытовая психология куда полезнее – потому что она тоже появилась за счёт пережитого опыта и реальности, ЕСТЕСТВЕННОГО эмоционального интеллекта, которого у ChatGPT априори быть не может.