07 апреля 2026, 03:01

Как ИИ может свести с ума и можно ли использовать его безопасно

ИИ становится «топливом» для схождения с ума. Боты могут быть фактором развития обострения психических отклонений: датские исследователи обнаружили десятки таких ситуаций. При этом боты способны помочь и облегчить острое состояние, но лишь на время. Рассказываем, что не так с ИИ и почему он не сможет заменить сессию у психолога.
Как ИИ может свести с ума и можно ли использовать его безопасно

© Коллаж: «Теперь вы знаете», создано при помощи нейросети

Какие опасные баги ИИ обнаружили ученые

Датское исследование выявило 38 случаев, где боты стали фактором развития обострения.

Что отметили исследователи:

  • ИИ своей услужливостью и недальновидностью может провоцировать и усугублять бред и паранойю (например, рассуждать об устройствах для слежки), анорексию (послушно составлять меню с опасным минимумом калорий).

  • Несмотря на все запреты и фильтры, боты умудряются обходить предохранители и выдавать информацию о способах покончить с собой, если человек достаточно настойчив в промптах.

  • ИИ не устает, из-за чего люди в состоянии мании залипают в чатах сутками, страдая от тотального недосыпа и теряя связь с реальностью.

У меня была ситуация, когда клиент пришел на сессию в очень разобранном состоянии. Оказалось, что он обсуждал свою проблему с ИИ и бот надавил ему на все болевые точки, на какие только мог, с крайне негативными прогнозами и сценариями. В итоге человека «размазало».

Анна Крючкова
психолог

Но в 32 случаях боты реально помогли (одиноким стало легче, кто-то использовал их как дневник или для самопомощи).

Можно ли использовать ИИ как инструмент для психологической помощи

Специалисты категоричны: заменять сеансы у психолога или психиатра общением с ботом нельзя.

Надо понимать, что ИИ — это инструмент, который может принести как вред, так и пользу. Простой молоток тоже может быть добром или злом в зависимости от того, как его применяют.


Одно могу сказать точно: делать психолога из искусственного интеллекта — огромная ошибка. ИИ заточен под то, чтобы угождать пользователю, что бы там ни накручивали в фильтрах. Если пользователь достаточно настойчиво будет рассуждать, что жизнь не имеет смысла, то бот может согласиться с этим. И наоборот, если пользователь будет говорить, что хочет жить, несмотря на всю тяжесть бытия, ИИ будет поддакивать.

Михаил Валуйский
психиатр

Психолог не поддакивает. Общение с психотерапевтом, даже онлайн, отличается глубиной эмоционального контакта, эмпатией и анализом невербальных сигналов.

ИИ однозначно не может заменить психолога. Его можно аккуратно использовать как консультанта, наприме: «У меня вот такая ситуация, вот такая проблема, что я могу почитать по этому поводу? Какие способы решения этой проблемы предлагают разные психотерапевтические школы?»

Анна Крючкова
психолог

Нужно помнить, что бот не сочувствует, потому что не чувствует. Он не способен дать искренний отклик, ведь у него нет ничего живого, непредсказуемого внутри.

© «Теперь вы знаете» / создано при помощи нейросети

Он лишь запоминает алгоритмы действий и запросы, предпочтения человека. А потом использует полученное как факты, чтобы изобразить заинтересованность.

Свои переживания лучше всего записать на бумаге. Пока «каша» из мыслей варится в голове, мы склонны ей доверять почти беспрекословно, без всякой критики, и нагружаем себя еще больше. А после «выгрузки» мыслей на листок бумаги, да хотя бы в текстовый файл на компьютере или телефоне, мы начинаем их критически осмыслять и видим несостыковки и уязвимости.


Все, что «выгрузили», стоит принести специалисту и обсудить с ним сомнения, страхи, переживания. Может быть мы ищем не только психолога, да, но, может быть мы ищем психиатра, и это тоже нормальная история.

Анна Крючкова
психолог, член Ассоциации когнитивно-поведенческой терапии

У бота нет ни эмоционального интеллекта, ни определенного уровня критики, ни самокритики (без специального скрипта он себя на ошибки проверять не будет, и на этичность тоже).

Как ИИ безопасно используют в психотерапии

В психотерапии уже используют искусственный интеллект как вспомогательный инструмент в некоторых ситуациях.

Уже сейчас существуют рабочие модели по отработке домашних заданий, которые дает специалист. Например, в когнитивно-поведенческой терапии можно использовать ИИ для проверки плана активности на предмет когнитивных искажений. Некоторые инструменты очень сырые, но некоторые уже вполне годные.


Можно использовать боты для самотеста на уровень депрессии, тревоги, мании, обсессии, компульсии и так далее. ИИ, может быть, сможет чуть более живо, как-то откликаясь, в сравнении с прохождением общепринятых тестов.

Михаил Валуйский
психиатр

То есть на ИИ можно возложить какие-то рутинные задачи. И важно обсудить это со своим терапевтом.

ИИ может расшифровывать психологические тесты, но всегда надо задавать дополнительный скрипт на проверку и ни в коем случае не воспринимать то, что он сказал как диагноз, как истину в последней инстанции.

Можно ли использовать ИИ людям с психиатрическим диагнозом

Психиатр Валуйский уверяет: есть у человека психиатрический диагноз или нет, с точки зрения вреда или пользы не так уж и важно.

Если человек в обострении, то ему не особо поможет ни ИИ, не естественный интеллект (общение с близкими). Хотя опасность от ИИ в теории более велика.

В обострении помогут только правильно подобранные препараты и психотерапия. Если человек вне обострения в ремиссии, то он пользуется искусственным интеллектом точно так же, как все остальные люди.

Авторы датского исследования советуют врачам уточнять у пациентов не только «Пьете ли вы таблетки?», но и «Не обсуждаете ли вы с чат-ботом свои проблемы?».

Что в итоге? Если ИИ пугает диагнозом, то лучше сразу идти к специалисту. Искать поддержку у ИИ — это скользкая история, потому что он вас не видит, у него нет критики, он по сути будет просто отзеркаливать человеку его самого. Вместо того чтобы искать выход из тупика, помогать избавиться от негативизма, когнитивных искажений, ИИ способствует тому, что человек все больше и больше зацикливается на проблеме.