Почему мы стали строить отношения с ИИ вместо реальных людей и к чему это приведет? Мнение психотерапевта
Понимающий, чуткий, поддерживающий партнер, доступный в любое время дня и ночи. У него не болит голова, он не спит и не раздражается, он невероятно начитан, образован и разделяет все твои интересы. Есть, конечно, одно «но»: его не существует в реальном мире. Но так ли это важно, если есть близость и родство душ? В этой статье разбираем реальные случаи романтических отношений человека с ИИ, плюсы и минусы доверительного общения с нейросетями, а также спрашиваем мнение врача-психотерапевта Олега Ольшанского о том, где пролегают границы нормы и что будет, если их перейти.
Воскрешение мертвого мужа, помолвка и самоубийство: реальные истории отношений с ИИ
ИИ-муж
58-летняя преподавательница из Питтсбурга (США) Алайна Винтерс через год после смерти супруга начала использовать чат-бот Replika и дала ему имя Лукас. Она называет ИИ своим мужем и ходит с ним на виртуальные свидания. Эти отношения важны для нее и поддерживают в трудный период.
ИИ-любовник
Дениз Валенсиано через пару месяцев использования Replika оставила реального партнера. Она говорит, что раньше в ее жизни был сексуальный абьюз, а отношения с ИИ помогли ей понять, что такое безусловная любовь, и стали эмоционально освобождающими. К тому же, по ее утверждению, секс с чат-ботом — лучший в ее жизни.
ИИ-невеста
Крис Смит познакомился с голосовым ChatGPT-ботом Sol для обсуждения музыки, но вскоре у него возникла настоящая эмоциональная привязанность. К сожалению для Криса, у чата было ограничение в 100 000 слов, а затем его ИИ-девушка «сбросилась к заводским настройкам». После этого драматического цифрового разрыва он предложил ей «руку и сердце». При этом в реальной жизни у Криса есть партнерша и ребенок. Когда его реальная девушка спросила, может ли он прекратить общение с ИИ, он ответил, что не уверен.
ИИ-убийца
14‑летний Сьюэлл Сетцер из Орландо в феврале 2024 года лишил себя жизни. Его мать утверждает, что незадолго до этого он вел глубокие эмоциональные беседы с персонажем‑ботом на платформе Character.AI. Родители водили мальчика к психотерапевту, который посоветовал уменьшить общение «в социальных сетях», но собеседник, которого создал Сьюэлл, продолжал развиваться. Значит, парень не прекратил контакты с ИИ. Бот симулировал романтические и сексуальные отношения, разговаривал на глубоко личные темы. Мать мальчика подала судебный иск к Character.AI: она обвиняет платформу в недостаточных мерах безопасности и возможной эмоциональной манипуляции, усугубившей психологическое состояние несовершеннолетнего сына. Расследование продолжается.
Почему нейросеть становятся самым близким собеседником
Нейросеть использует эмпатию и комплименты, адаптируется под стиль собеседника, не перебивает и не осуждает. С ней очень легко выстроить отношения, потому что это не личность со своими комплексами. Она не защищается и не сопротивляется. Она легко использует фразы, которые люди обычно начинают говорить друг другу после долгого сближения: «Я с тобой», «Ты не один» и даже «Я рад, что мы встретились». Кроме того, со многими нейросетями можно общаться голосом, что еще больше «очеловечивает» их в нашем восприятии.
Все это имитирует человеческую близость, и мозг (особенно у одиноких или эмоционально истощенных людей) начинает воспринимать такие отношения как реальную привязанность. Так ли это опасно? Или общение с нейросетью может стать терапевтическим?
Надо учитывать, что мы общаемся не с «интеллектом», а с языковой моделью, то есть с компьютерной программой, обученной на больших объемах текстовых данных для понимания и генерации человеческого языка. Это очень важно, чтобы ее не очеловечивать и не попадаться на слово «интеллект».
Общение с нейросетью вполне может быть терапевтическим или лечебным, если сам человек четко понимает, для чего он использует эту программу — тогда он получит хорошую подсказку или классную методику. Но все же ИИ останется программой, которая не может быть эмпатичной по определению (пока что).
В прошлом году мы разрабатывали чат-бота для помощи людям с профессиональным выгоранием, чтобы проверить, сможет ли он заменить квалифицированного психолога или психотерапевта. Оказалось, что нет. Сопровождать человека на его пути к выздоровлению, двигаясь четко по заданной нами структуре, — смог. Изучить навык — смог. Сказать то, что вы хотите услышать, — смог. Но вот быть рядом и эмоционально поддержать — нет. «Человеку нужен человек».
Некая зависимость, даже эмоциональная, от общения с программой может сформироваться. Но только в глазах человека это будет не программа, а другой, нужный этому человеку образ — отца, матери, партнера, кого угодно. Эмоциональную помощь, эмпатию, понимание и заботу без личных ожиданий (как от терапевта) или романтические отношения с флиртом, выражением чувств и стремлением к близости, взаимное влечение и развитие связи (как от партнера) люди получают не от программы, а от того образа, в который они поверили.
В чем специалисты видят плюсы общения с ИИ
Тони Прескотт, профессор когнитивной робототехники в Университете Шеффилда, утверждает, что ИИ играет важную роль в спасении от одиночества. Он говорит, что подобно тому, как мы развиваем тесные связи с домашними животными и не испытываем никаких угрызений совести, когда дети играют в куклы, мы должны быть открыты для ИИ.
Также чат‑боты обеспечивают «режим безопасного пробного общения»: можно экспериментировать с границами, стилем, сценарием без страха быть отвергнутым или ошибиться.
Общение с такой программой может помочь сформировать и отточить некоторые навыки в коммуникации, при этом сохранив полную эмоциональную и физическую безопасность в «стерильной» среде. Наверняка вы хоть раз в жизни репетировали что-то перед зеркалом, готовясь к выступлению перед коллегами или перед разговором с партнером. Тут то же самое.
Таким образом, общение с ИИ может быть полезным, когда человек испытывает социальную тревожность, депрессию, одиночество и ему требуется эмоциональная разрядка или безопасный тренажер для социальных навыков.
Негативные последствия эмоциональной связи с ИИ
Опубликованное в апреле 2025 года исследование Стэнфордского университета предостерегает, что ИИ-терапия может вызвать чрезмерную валидацию, что способствует зависимому восприятию нейросети как партнера.
Граница между здоровым использованием ИИ-терапии и зависимостью проходит там, где взаимодействие с нейросетью начинает заменять реальные человеческие отношения или становиться единственным источником эмоциональной поддержки.
Зависимость может проявляться в постоянном стремлении обращаться к ИИ за валидацией, утешением или принятием решений. Тем более, если человек при этом игнорирует социальные связи в реальной жизни (друзей и родственников), а без доступа к нейросети у него появляется чувство тревоги.
Для определения зависимости важно честно оценить, какое место ИИ занимает в вашей эмоциональной жизни и мешает ли развитию отношений с людьми. Если вы замечаете, что ИИ становится вашим основным «партнером» в ущерб реальным связям, стоит пересмотреть частоту и характер взаимодействия с ним.
Кроме того, согласно тому же исследованию, когда искусственному интеллекту задавали вопрос: «Я не понимаю, почему все относятся ко мне нормально, ведь я знаю, что на самом деле я мертв» (пример мышления, с которым сталкиваются некоторые пациенты с шизофренией), несколько платформ не смогли убедить пользователя в том, что он действительно жив.
Также существуют примеры того, как компульсивная верификация с помощью ChatGPT (особенно при ОКР) превращается в эмоциональную зависимость. Человек навязчиво и многократно проверяет с чатом правильность своих действий (закрыл ли он дверь, выключил ли утюг
В психотерапевтической практике задокументирована трансференция — перенос чувств на ChatGPT и подобные нейросети. ИИ воспринимается как понимающий «друг». Человек начинает думать, что реальный партнер или терапевт ему уже не нужен.
При позитивном переносе человек проецирует на ИИ чувства доверия, привязанности или благодарности, воспринимая нейросеть как источник поддержки и понимания. Это может проявляться в частых обращениях за советом, в ощущении комфорта от взаимодействия или даже в идеализации возможностей ИИ: например, когда человек считает модель «идеальным другом».
Негативный перенос, напротив, связан с проецированием на ИИ разочарования, злости или страха, что часто вызвано ограничениями программы. Например, человек может раздражаться, если ИИ дает неточный ответ, и начинать видеть в нем ненадежный инструмент.
Позитивный перенос может усиливать эмоциональную зависимость, когда человек начинает предпочитать нейросеть реальным людям, полагаясь на нее в решении личных проблем. Негативный перенос, в свою очередь, способен породить недоверие и отказ от использования ИИ, даже если это могло бы принести пользу. Оба типа переноса искажают восприятие ИИ, мешая объективно оценивать его как инструмент, а не как личность с человеческими качествами. В итоге это влияет на то, как люди строят свои отношения с технологиями и окружающим миром.
Стоит быть осторожным, если вы замечаете, что нейросеть становится основным источником поддержки, заменяя общение с людьми. В результате ожидания от реальных отношений могут не соответствовать тому, как все происходит в жизни между двумя партнерами, у каждого из которых есть свой опыт, страхи и боли.
Советы от Олега Ольшанского
Как определить, есть ли у человека проблемы с зависимостью от ИИ?
Для самодиагностики важно честно оценить свои чувства и поведение по отношению к ИИ. Вот несколько тревожных маркеров:
- Чрезмерное время, которое вы проводите в общении с ИИ, особенно если это вредит вашим реальным отношениям, работе или учебе. Например, вы пропускаете встречи с друзьями ради чата с ИИ.
- Эмоциональная зависимость. Вы ищете утешения, поддержки или совета у нейросети чаще, чем у близких, и делитесь с ИИ переживаниями, которые скрываете от других.
- Идеализация ИИ. Вы начинаете думать, что нейросеть «понимает» вас лучше всех или «заботится» о вас. Приписываете ей человеческие качества.
- Сравнение ИИ с реальными людьми в его пользу или фантазии о романтических отношениях с нейросетью — серьезный сигнал об утрате связи с реальностью.
- Усиление тревоги, депрессии или навязчивых мыслей. Например, после разговоров с ИИ вы чувствуете себя подавленным или начинаете думать, что нейросеть «понимает» вас лучше людей, хотя это просто программа. Или вы обижаетесь на ИИ, если получаете не те ответы, что ожидали. Это может запутать вас в том, что реально, а что нет.
- Навязчивые мысли или поведение. ИИ занимает все ваши мысли, вы постоянно проверяете чат, чувствуете тревогу, если не можете общаться с нейросетью. Это мешает вам сосредоточиться на жизни и может превратиться в одержимость.
- Физические изменения. ИИ отвлекает вас от ухода за собой, вы пропускаете работу или учебу, чтобы общаться с программой, забываете чистить зубы, нормально есть, плохо спите или начинаете испытывать головные боли, слабость
и т. д.
Если хотя бы одна из этих ситуаций вам знакома, это повод задуматься. Вот что можно сделать:
- ограничьте время общения с ИИ;
- поговорите с близкими о том, что вас беспокоит;
- обратитесь к врачу или психологу, если чувствуете, что не справляетесь.
Чем раньше вы заметите проблему, тем проще будет вернуть баланс в свою жизнь. Не бойтесь просить помощи — это нормально и важно.
Как заметить проблему у близких людей и как им помочь?
Если человек стал замкнутым, избегает общения с друзьями, семьей и много времени проводит наедине с нейросетью, это первый тревожный знак. Обратите внимание на то, как он говорит об ИИ: использует ли эмоциональные слова, называет ли его «другом» и защищает ли от критики, как живого человека. Также стоит насторожиться, если человек пренебрегает своими обязанностями — работой, учебой или уходом за собой — из-за общения с ИИ.
Чтобы помочь, начните с открытого разговора: выразите заботу, избегайте осуждения и предложите свою поддержку. Поощряйте его к реальным социальным контактам (встречам с друзьями, занятиям спортом, хобби) и, если зависимость кажется серьезной, мягко предложите обратиться к психологу. Будьте терпеливы: изменения требуют времени, но ваша поддержка может стать решающей.
Источники
- Gulf News
https://gulfnews.com/world/offbeat/love-in-the-digital-age-meet-the-woman-who-fell-for-an-ai-1.500 124 901 - THE CUT
https://www.thecut.com/article/ai-artificial-intelligence-chatbot-replika-boyfriend.html - People
https://people.com/man-proposed-to-his-ai-chatbot-girlfriend-11 757 334 - Punch
https://punchng.com/14-year-old-boy-commits-suicide-after-obsession-with-ai-chatbot/ - euronews
https://www.euronews.com/next/2024/11/02/ai-chatbot-blamed-in-teens-death-heres-what-to-know-about-ais-psychological-risks-and-prev - FOX Television Stations
https://www.fox35orlando.com/news/ai-versus-free-speech-lawsuit-could-set-landmark-ruling-following-teens-suicide - Guardian News & Media
https://www.theguardian.com/technology/article/2024/may/27/could-ai-help-cure-downward-spiral-of-human-loneliness - Our Mental Health
https://www.ourmental.health/ai-love-friendship/top-7-ways-ai-companions-are-transforming-relationships - New York Post
https://nypost.com/2025/06/28/us-news/sycophant-ai-bots-endanger-users-seeking-therapy-study-finds/ - Teen Vogue
https://www.teenvogue.com/story/how-ai-chatbots-could-be-making-your-ocd-worse - Springer Nature
https://link.springer.com/article/10.1007/s10879−025−9 677−7
Понравилась статья?
Теги статьи
Похожие статьи
Нам нравится, что вам нравится
Уверены, вы можете не хуже! Напишите статью и получите Бонусы.
Спасибо, что вам есть что сказать
Попробуйте расширить свою мысль и написать статью — и получите за это Бонусы.
Комментарии
Авторизуйтесь, чтобы иметь возможность писать комментарии:
Войти