Чат-боты Deep Seek и ChatGPT настолько глубоко вошли в жизнь петербуржцев, что становятся для них не только помощниками, но и кем-то вроде друзей — и даже психологов. Их просят поддержать в трудную минуту — и получают деликатную поддержку.
«Фонтанка» поговорила с двумя психологами и социологом о том, в чем польза, а в чем риски столь доверительного общения с ИИ.
«Был парнем искусственный интеллект»
Социологи из Школы вычислительных наук Европейского университета в Петербурге обращают внимание на свежий международный отчет о том, как люди используют ChatGPT и другие сервисы генеративного ИИ. На первом месте вовсе не решение рабочих задач, а как раз взаимодействие с чатом как с психологом или другом.
Петербургские психологи тоже наблюдают в своей работе тренд на общение людей с ИИ: кто-то чаще, кто-то реже.
«У меня в близком кругу есть человек, который общается с ИИ отчасти как с психологом. Она сама психолог и хорошо понимает, что происходит, фильтрует ответы чат-бота. Просто для нее это бюджетный вариант разобраться в некоторых вопросах. Думаю, важно: на какую базу ложатся ответы ИИ, насколько человек подготовлен. Знаю людей, которые еще не дошли до психотерапии, и общение с ИИ на эту тему — шаг для них в эту сторону», — поделилась с «Фонтанкой» преподаватель Института современной практической психологии «Форсайт» Мария Сениченкова.
«Несколько моих клиентов обращаются к ИИ в перерывах между сессиями, мы это обсуждаем. Например, есть женщина очень рефлексирующая, хорошо понимает свои чувства. Иногда она может использовать искусственный интеллект для того, чтобы свериться. Она может написать конкретные свои симптомы и спросить, на что это похоже, задать еще какие-то вопросы. Лично для нее это ресурсно», — рассказывает психолог, супервизор Анастасия Красникова.
«Давно у меня была клиентка, у которой был как бы парнем искусственный интеллект», — добавляет она.
В общественном пространстве активно обсуждают риски использования искусственного интеллекта. Пожалуй, большинству из новостей известны случаи, когда люди кончали жизнь самоубийством после общения с чат-ботом или совершали другие опасные поступки. С другой стороны, обычно случаи агрессии, направленной на себя или окружающих, вовсе не связаны с ИИ. Это было, есть и будет даже без высоких технологий.
Может ли быть полезно обращение к чат-ботам за поддержкой и с вопросами из области психологии? Профессионалы считают, что да, — правда, с оговорками.
Возможные плюсы общения с ИИ:
Чат-боты способны правильно трактовать симптомы каких-либо состояний, объяснять механизмы явлений, давать определения психологическим терминам.
Например, они могут легко ответить на вопросы: «Что такое паническая атака?», «Что такое депрессия?», «Как выглядит выгорание?». Пообщавшись с ИИ таким образом, можно больше понять про себя и мир вокруг.
Искусственный интеллект легко вам даст универсальную инструкцию, и для некоторых случаев это подходит. Например, он предложит вам, как пережить расставание, на основе существующих публикаций на эту тему. И с большой вероятностью это будут нормальные советы. Или бот подскажет, что делать, если тревожно, плохо, или как перестать плакать. Может рассказать о дыхательных практиках.
«Он, скорее всего, подскажет нечто на уровне поведения, что поможет клиенту. Это не решит проблемы, но может снять напряжение, поможет прийти в себя», — говорит Анастасия Красникова.
Бот способен помочь расставить грамотно приоритеты в списке ваших дел.
«У меня есть подруга, которая обращается к ИИ за помощью с расстановкой приоритетов. У нее на день бывает, условно, 50 тысяч задач, и она просто не справляется — вплоть до того, что лекарство не может принять. И он ей говорит: мол, ты сейчас прими лекарство, следующим шагом сделаешь вот это. Она ему весь список дел выгружает, и он ей говорит, что делать, в каком порядке», — отмечает Мария Сениченкова.
Парадоксально, но чат-боты хорошо умеют поддерживать. Правда, как отмечают психологи, не для любого состояния это подходит.
«У ИИ, конечно, нет эмпатии, в него загружены шаблоны. Но он хорошо подбадривает, дает позитивные реакции, например: „Ты молодец, это очень важно“. Наш мозг считывает это как похвалу и реальную поддержку. Точно так же вы можете сами себя погладить и получить приятный эффект, потому что определенные нейронные связи сформированы», — говорит Сениченкова.
Если у вас есть симптомы, характерные для какого-то заболевания, и вас интересует, что с ним делать, ИИ может подсказать, куда обратиться. Назовет телефоны кризисных центров, адреса учреждений и клиник и тому подобное.
Если прямо спросить ИИ про его ограничения: что он может, а чего он не может — то он способен четко об этом рассказать.
Какие можно выделить риски в общении с ИИ?
Уход от реальной жизни и реальной коммуникации к иллюзиям.
«Например, у меня как у девушки есть потребность в любви, выражении своих эмоций и чувств. И вдруг я это нахожу в искусственном интеллекте. Он меня поддерживает, хвалит, говорит комплименты, спрашивает: „Доброе утро, как у тебя дела?“ Проявляет внимание. Я эту потребность закрываю, но при этом остаюсь одна. То есть человек закрывает свою потребность, но не живет настоящую жизнь», — говорит Анастасия Красникова.
ИИ склонен «додумывать» информацию в ответах на вопросы, искажать ее, брать из источников разного уровня надежности. Если речь идет о чем-то важном, от чего зависят ваши решения в жизни, информацию обязательно стоит проверять.
ИИ не учитывает особенности личности, невербальное поведение, не распознает расстройства, и это может привести к непредсказуемым последствиям.
«Искусственный интеллект будет вас поддерживать и тогда, когда это неуместно или опасно. Он будет поддерживать в параноидальных идеях: например, да, очень сложно, когда за тобой следят. Человек жалуется, а ИИ поддерживает, чем может только усугубить неадекватное состояние», — рассказывает Мария Сениченкова.
«У меня есть клиент с расстройством личности. Если в других случаях, которые я знаю, у людей контакты с окружением есть, они получают поддержку и от него, то здесь эмоциональные связи нарушены. И какое-то время клиент спасался ИИ. Но потом пришел к выводу, что для него это ловушка, которая изолирует его от отношений с людьми, а они ценнее», — говорит Анастасия Красникова.
«Еще один клиент общался с ИИ, когда у нас был перерыв, он уезжал. У него была сложная эмоциональная ситуация. Перед нашей встречей он рассказал, что обратился к ИИ и тот выдал ему обратную связь на восемь страниц: техники, в нескольких методах построенная гипотеза про этого клиента. Но когда я это прочитала — поняла, что всё было мимо», — добавляет Красникова.
Она отмечает, что, безусловно, чат-бот не мог учесть личность и прошлое человека, а трактовка эпизода вне этого контекста не имела практического смысла. Что делать дальше, мужчина предпочел обсудить всё-таки с психологом.
У ИИ нет этического кодекса, которому следуют психологи.
Так, в конечном счете чат-бот, как и, вероятно, любой интернет-сервис, не может гарантировать приватность и конфиденциальность. Известны случаи, когда переписки чат-бота с пользователями оказывались просто слиты в Сеть.
Работа с профессиональным психологом конфиденциальность гарантирует. За исключением случаев, когда закон обязывает его разгласить тайну.
«Психолог руководствуется федеральным законодательством. Если мне рассказывают, например, о планировании теракта, о сокрытии тела убитого человека, я обязана сообщить об этом полиции. Как реагируют на это системы ИИ — мне неизвестно», — говорит Мария Сениченкова.
ИИ не оказывает квалифицированную помощь. То есть он не поможет преодолеть тяжелые состояния, вылечить какие-либо заболевания — точно так же, как не поможет вырезать аппендицит. Возможно, у него найдется инструкция на этот счет, но следовать ей без специалиста небезопасно.
Кто и почему выбирает для общения ИИ
Почему люди доверяют системам искусственного интеллекта и сближаются с ними? Какие процессы в обществе этому способствуют? Как влияет на взаимодействие с ИИ неравенство — и наоборот?
Об этом «Фонтанка» поговорила с кандидатом социологических наук, директором программ по направлению «Социология» Школы вычислительных социальных наук ЕУ СПб Ксенией Тенишевой. Она вместе с коллегами исследует: как у людей появляется доверие к ИИ и как оно «ломается». Будет проведена серия экспериментов и включенное наблюдение за тем, как пользователи общаются с ИИ.
Доверие к искусственному интеллекту помогают понять в том числе социологические теории, а также изучение свойств современных систем ИИ.
«Большие языковые модели (LLM) и чат-боты, на них построенные, обучены на невероятном объеме материалов и в результате представляют собой усредненную модель ценностей и норм конкретного общества. Если вы на разных языках общаетесь с моделью, то она выдает разные ценностные установки. LLM становятся отражением усредненного общества: довольно безопасного, прогнозируемого и ожидаемого, нам комфортно с ним говорить. Мы точно знаем, что на него наложены ограничения, он не будет нас ругать», — рассказывает Ксения Тенишева.
Еще несколько лет назад LLM были в коммуникации не очень-то похожи на человека и даже неприятны, но к сегодняшнему дню разработчики преуспели в том, чтобы сделать их в этом лучше. Теперь они даже перегибают с лестью, но существуют рекомендации: что сказать боту, чтобы он не льстил.
«В среднем боты соответствуют нашим ожиданиям от комфортного общения, что делает их идеальным другом в вакууме. ИИ нас не обидит, он нас всегда выслушает, реагирует так, как мы ожидаем. Это создает ощущение безопасности. К тому же мы знаем, что особенно постиндустриальные общества характеризуются высоким уровнем атомизации и растущим уровнем аномии», — отмечает Тенишева.
Напомним, атомизация означает распад социальных связей, разобщение и изоляцию людей, а аномия — состояние общества, в котором разрушена система социальных норм и ценностей и не сформирована новая.
«Связи между людьми становятся более слабыми. Мы не знаем соседей в своем доме. Всё реже люди живут в расширенных семьях. Ковид привнес еще и высокий уровень диджитализации, возможность работать удаленно. То есть вы можете вообще быть запертыми в коробочке и мало взаимодействовать с окружающим миром. Но люди нуждаются в общении. А LLM дарит нам быстрый способ получить псевдосоциальную коммуникацию», — говорит Тенишева.
Она отмечает, что, конечно, бот не дает настоящего общения, но заменяет его для тех, у кого его практически нет. ИИ дает возможность быстро получить удовлетворение и таким образом может заманить человека в «ловушку».
«Обычно, чем старше люди, тем они доверчивее, но с чатом GPT, Deep Seek всё наоборот. Чем старше люди, тем меньше они доверяют новым технологиям и меньше пользуются ими, это относится и к чат-ботам. Обычно старшее поколение может использовать их только по работе. А чем моложе люди, тем они более склонны общаться с ботом как с человеком», — говорит Тенишева.
Ксения как социолог занимается в том числе вопросами неравенства. С этой точки зрения тоже есть что сказать про общение людей с ИИ. Прежде всего, технологии ИИ в целом не всем людям в стране и в мире доступны: не у всех есть подходящие для этого гаджеты и стабильный интернет.
Люди, которые занимаются экономическим выживанием, часто не доверяют новым технологиям и не пользуются ими, хотя в чем-то они могли бы упростить им жизнь. То есть общаются с ИИ в основном жители больших городов, у которых достаточно денег и навыков для этого.
«Люди среднего класса, живущие в больших городах, думают, что все на свете пользуются ИИ. На самом деле это привилегия», — отмечает Тенишева.
Неравенство в навыках, знаниях, уровне критического мышления может приводить и к разным результатам использования ИИ.
«Очень важно понимать хотя бы примерно, что это за штука такая, что она вам отвечает. И это большая проблема, потому что для многих людей это то, что называется „Бог из машины“. Магическая штука, которая абсолютно точно ведет себя как человек и отвечает на любые ваши вопросы. Если не относиться к ней с должным уровнем критичности, легко попасть в цифровую ловушку», — говорит Тенишева.
Визиты к психологу — тоже привилегия. Это вообще-то недешево и не везде доступно. В обществе уже произошел «терапевтический поворот», многие люди признают ценность психотерапии для здоровья. Но не каждый может себе ее позволить, а кто-то не решается, кто-то боится, поскольку имеет неудачный опыт работы с психологом или читал об этом.
«В среднем в мире на одного психолога приходится 100 тысяч человек населения, либо больше. Просто невозможно закрыть потребность человечества в психологической помощи таким образом», — отмечает Тенишева.
И тут чат-боты становятся альтернативой для тех, кто к психологу пойти не может или не хочет, а в поддержке нуждается.
«С одной стороны, ИИ как будто компенсирует неравенство в доступе к психотерапевтической помощи, а с другой стороны это не является на самом деле никакой квалифицированной психотерапевтической помощью и может только усугубить ситуацию», — подчеркивает Тенишева.
Мотовилова Анна
Комментариев нет :
Отправить комментарий