Аналитика


На бота надейся, а сам не плошай
Общество | В России

Популярность сервисов вроде Bible Chat, которые менее чем за год в мире скачали более 30 млн раз, вызвала серьезную дискуссию среди технологов, психологов и представителей традиционных конфессий. Люди делятся с "виртуальными священниками" своими переживаниями и тревогами, надеясь обрести умиротворение, однако РПЦ уже заявила, что такая замена живого общения может представлять опасность как в духовном, так и в физическом плане. Подробнее о ситуации — в материале Накануне.RU.

Феномен "цифровой исповеди" вышел далеко за рамки курьезного тренда, обнажив глубокий запрос на доступную и анонимную психологическую поддержку. В эпоху, когда технологии стремительно меняют привычный уклад, искусственный интеллект начал претендовать на роль, традиционно отводившуюся доверительному общению между людьми. Пока законодатели только начинают осознавать масштаб вызова — специализированного закона об ИИ в России нет — алгоритмы уже вовсю работают с тонкой материей человеческих чувств.

Человек пользуется чатом с нейросетью(2025)|Фото: Накануне.RU

Зампред комитета Госдумы по информполитике, информационным технологиям и связи Андрей Свинцов констатирует, что парламент только приступает к изучению проблемы.

"На сегодняшний день пока даже определения мы не выработали, потому что слово "искусственный интеллект" в обиходе используется, но на самом деле оно не совсем отражает реальность", — поясняет депутат.

Иерей Валерий Сосковец видит в практике исповеди чат-боту три главные ошибки. Первая и фундаментальная — подмена цели таинства. "Конечная цель исповеди – это получить прощение грехов. Ходить за этим к искусственному интеллекту довольно бессмысленно", — убежден священник.

Он напоминает, что даже в традиционном таинстве священник является лишь совершителем, а не тем, кто прощает. "Се чадо Христос невидимо стоит, принимая исповедание Твое", — цитирует он Требник. Таким образом, алгоритм, лишенный благодати, не может даровать то, что дает Бог.

Вторая ошибка, по мнению отца Валерия, — поиск индивидуального совета. Даже если бы алгоритм обучали величайшие духовники, он неспособен учесть уникальность каждого человека.

"При одном и том же вопросе ответ будет разный разному человеку", — объясняет священник, опираясь на свой двадцатилетний опыт. Живой пастырь видит глаза кающегося, "зеркало души", и ему, по молитве, может быть подан совет, который никакая программа сгенерировать не в состоянии.

Наконец, третья опасность — практическая. "Ты пишешь на себя донос подробный", — предупреждает иерей Валерий Сосковец. Все, что пользователь доверяет чат-боту, становится уязвимыми данными, которые могут быть скомпрометированы и использованы для шантажа.

Руководитель компании по разработке сервисов на базе ИИ "Hi-Tech Anatomy" Сергей Журавлев подтверждает техническую реальность этих рисков.

"Безопасность наша с вами как пользователей тех или иных сервисов, она находится в руках разработчиков и владельцев этих сервисов", — констатирует он.

Обработать историю переписки и вычленить самые уязвимые места для последующего шантажа, по его словам, не составляет труда.

"Эту таблицу, если ты ее скачал, можешь распарсить через определенные программы, через тот же самый искусственный интеллект, поставить задачу, чтобы вычленить какие-то максимально уязвимые моменты этой переписки", — поясняет Журавлев.

Почему же люди сознательно идут на такой риск? Эксперт видит причину в простоте доступа и агрессивном маркетинге. "Люди, которые не сильно крепки в вере, люди, которые являются психологически, ну, скажем так, не обремененными какими-то твердыми правилами, им гораздо проще открыть смартфон", — рассуждает он. Яркий дизайн, мгновенное вовлечение и низкая стоимость подписки создают иллюзию простого решения сложных внутренних проблем.

Психолог Анна Седельникова смотрит на эту проблему с профессиональной точки зрения и ее оценка однозначна: замена живого общения взаимодействием с алгоритмом не просто бесполезна, но и вредна. Она приводит слова Карла Юнга: "Знай все теории, владей всеми техниками, но когда прикасаешься к человеческой душе, будь просто человеческой душой".

Искусственный интеллект может лишь имитировать эмпатию, но не обладает ею. "Он соглашается с запросом. То есть когда ему пишут переживания, когда ему пишут какие-то проблемы, он говорит: "Да, ты прав. Да, все так и есть", — объясняет специалист.

Крест на православной церкви(2024)|Фото: Накануне.RU

Это создает у пользователя ложное и опасное ощущение понимания, в то время как настоящая проблема, лежащая в глубине психики, остается нераскрытой. Седельникова предупреждает о риске зависимости и о том, что для людей с серьезными травмами такие "советы" могут причинить настоящий вред.

Объединяя мнения экспертов, можно сделать вывод: искусственный интеллект продолжит менять мир, взяв на себя рутинные задачи, но он неспособен заменить человека в сферах, требующих подлинной духовности, живого участия и эмоционального интеллекта. Опасность заключается не в самом технологическом прогрессе, а в добровольном отказе от сложности и глубины человеческих отношений в пользу удобной, но пустой симуляции.

Как резюмирует иерей Валерий Сосковец, "человеку ведь нехорошо быть одному", и никакой, даже самый совершенный алгоритм, не сможет заполнить экзистенциальную пустоту, возникающую от утраты настоящего общения.



Елена Рычкова