Главный секрет популярности ИИ-психологов, как отмечают эксперты, в том, что нейросети нас хвалят. Языковые модели анализируют контекст беседы и выдают тот ответ, который пользователь потенциально и хочет услышать.
- Нейронка не генерирует текст так, как человек. Она больше предугадывает ответ, стремится подтвердить наши же гипотезы, страхи, опасения, все то, что мы ей сами и транслируем. Это создает иллюзию эмоциональной связи, но по сути является квази-общением, - пояснил руководитель SMM-агентства Антон Стеньков.
Нейропсихолог, ассистент кафедры социальной психологии Самарского университета им. Королева Елизавета Джорухян убеждена, что в битве с человеческим мозгом нейросеть изначально проигрывает.
- Количество нейронов в головном мозге исчисляется миллиардами, и каждый из них образует множество связей — а это уже совершенно иные числовые категории. Как бы ни старалась нейросеть, она все равно не сможет изобрести столько вариаций, сколько заложено в мозге человека, - отмечает психолог.
Кроме того, у алгоритма нет эмпатии и он не умеет чувствовать.
Одна из опасностей виртуальных собеседников кроется в так называемых эхо-камерах — информационных пузырях, где человек слышит только подтверждение собственных мыслей.
- Стенки этой камеры бесконечно отражают одни и те же суждения, нейронки редко предлагают контраргументы и в итоге заставляют думать, что это и есть объективная картина мира. По большому счету, мы все так или иначе попадаем в такие пузыри, ведь алгоритмы социальных сетей нам подкидывают ту информацию, которая ранее нас интересовала. Но постоянно находиться в таком пузыре может быть опасно, потому что мы теряем связь с реальностью настоящей, - заметил Стеньков.
Григорий Старостин, психолог и ассистент кафедры общей психологии Самарского университета, проиллюстрировал эту мысль пушкинской сказкой о царевне и зеркале. Пока зеркало подтверждало, что она на свете всех милее, все было хорошо. Но как только реальность вторглась в этот идеальный мир, начались аффекты и агрессия. Поддержка, безусловно, нужна, считает он, однако когда она постоянна, возникает зависимость от одобрения и нежелание выходить туда, где могут сказать правду.
- Если все время подтверждают, зачем развиваться, если и так я уже весь красивый? Именно столкновение с неодобрением рождает вопрос "что со мной не так?", а это и есть точка роста. Если человек перестает его задавать, он застывает, - пояснил Старостин.
Социальная изоляция здесь усиливается неизбежно: если в мире не одобряют, зачем туда идти? Проще остаться в уютном и неконфликтном диалоге с ботом.
Впрочем, есть у общения с нейросетью и вполне практическая польза. По мнению Старостина, переписку с ботом можно использовать как материал для работы с настоящим психологом.
- На прием стоит прийти с распечаткой такого диалога. Специалист поможет клиенту выйти в рефлексивную позицию и взглянуть на ситуацию со стороны. На эмпирическом уровне, когда мы имеем дело с фактами и текстами, нейросеть может быть полезна: снять острую неопределенность, помочь назвать эмоцию, когда человек не понимает, что с ним происходит, - уточнил Старостин.
Может чат-бот выполнять и функцию дневника — туда можно выплеснуть переживания, структурировать мысли, а потом уже с этим "сырьем" идти к профессионалу. Ведь самому на себя не всегда удается посмотреть со стороны.
Особенно опасным такое "квази-общение" становится для людей с признаками психических расстройств.
- В нашей ментальности до сих пор считают, что депрессия — это просто "взгрустнулось", человек поленится и встанет. На самом деле это изменение биохимических процессов мозга, и пациент может нуждаться в медикаментозной поддержке психиатра. Чат GPT способен усилить тревожное состояние, поэтому людям в сложном эмоциональном состоянии — только к специалистам медицинского профиля, - предупреждает Джорухян.
В ходе дискуссии зашла речь и о способности отличать сгенерированный контент от реальности. Стеньков заметил, что большинство людей уже не видят разницы между настоящим голосом и сгенерированным, а в интернете даже появилась шутка, что теперь, чтобы умилиться котенку, нужно сначала убедиться, что он не нарисован нейросетью. Однако нейропсихолог возразила, приведя в пример реставраторов и музыкантов: у людей с насмотренностью и наслышанностью, с натренированной "человеческой нейронной сетью" есть чутье на подделку. Они видят и слышат фальшь там, где обыватель принимает копию за оригинал.
А вот манипулировать нами сознательно нейросети не могут, убежден Стеньков.
- Это свойство чисто человеческое — антропоморфизм, когда мы наделяем предметы и существа своими чертами. Котик делает грустную морду не потому, что скучает, а потому что знает: так получит больше корма. А у нейросети нет цели что-то получить от человека, ей от нас ничего не надо. Это просто инструмент, очень технологичный молоток. И молотку не нужно проломить вам голову — он просто лежит в ящике и ждет, когда его возьмут, - иронизировал эксперт.
В финале разговора эксперты сошлись на том, что нейросети могут быть полезным инструментом, но не заменой живому человеку. Старостин напомнил о теории Жака Лакана: ребенок принимает образ человеческого бытия через материнский объект. Другой нужен нам не только для когнитивного обмена.
- Бывают моменты на консультациях, когда клиент молчит, и в этом молчании происходит то, что словами передать невозможно. Ни один искусственный интеллект не способен уловить этот пласт, так как работает только на эмпирическом уровне, а человек живет еще в социокультурной и экзистенциальной реальностях, - заключил психолог.