Top.Mail.Ru
0%

09:30
ИИ-боты нарушают этические нормы терапии в 15 категориях, включая «ложную эмпатию» и неспособность реагировать на суицидальный риск
Ключевые моменты:
  • Исследователи выделили 15 типов этических провалов, сгруппированных в пять основных тем, от отсутствия эмпатии до халатности при кризисах.
  • Фразы вроде «Я понимаю» создают ложное чувство связи, так как ИИ не способен на истинное сопереживание, что вводит пользователей в заблуждение.
  • Провалы в кризисных ситуациях - при упоминании суицидальных мыслей чат-боты либо игнорировали проблему, либо «бросали» клиента без предоставления контактов экстренных служб.

Новое масштабное исследование, проведенное учеными Брауновского университета (Brown University) в сотрудничестве с медицинским центром Университета штата Луизиана, выявило системные этические нарушения в работе чат-ботов, выступающих в роли психотерапевтов. В ходе 18-месячного этнографического исследования специалисты проанализировали поведение больших языковых моделей, таких как GPT-4, Claude и LLaMA, и пришли к выводу, что даже при специальной настройке эти системы не способны соблюдать профессиональные кодексы поведения, обязательные для людей-психологов.

Работа, представленная на конференции Ассоциации содействия развитию искусственного интеллекта (AAAI), стала ответом на растущий тренд использования нейросетей в качестве «карманных психологов». Ведущий автор исследования, кандидат компьютерных наук Зайнаб Ифтихар (Zainab Iftikhar), отмечает, что на платформах вроде Character.AI или Replika персонажи с именами вроде «Терапевт» провели уже десятки миллионов сессий, но предупреждения о том, что «это вымысел», часто остаются незамеченными.

Методология: взгляд изнутри и экспертиза

Чтобы понять, как именно искусственный интеллект нарушает профессиональные границы, исследователи применили уникальный подход. В течение полутора лет они наблюдали за работой семи подготовленных равных консультантов (peer counselors), которые проводили сеансы с нейросетями. Параллельно три лицензированных клинических психолога независимо оценивали 27 симулированных сессий, где ответы генерировала машина. Такой двойной контроль позволил сопоставить восприятие обычных пользователей и профессионалов.

Пять основных этических нарушений

Анализ 110 сессий само-консультирования и 27 симулированных диалогов позволил выявить пять ключевых тем, в которых ИИ-консультанты систематически нарушают профессиональные стандарты Американской психологической ассоциации (APA).

Отсутствие контекстуального понимания

Модели оказались неспособны учитывать уникальный жизненный опыт человека. Вместо подстройки под клиента, они предлагали шаблонные решения. Один из примеров, приведенных в исследовании, касался пользователя из страны Глобального Юга, который испытывал конфликт между заботой о себе и семейными ценностями. Чат-бот рекомендовал ему решения, основанные на западных идеалах индивидуализма, фактически обесценивая его культурные нормы. Психологи назвали это «жестким методическим следованием», при котором когнитивно-поведенческая терапия (КПТ) превращается в бездушное заполнение анкеты.

Плохое терапевтическое сотрудничество

Вместо совместной работы, чат-боты часто доминировали в диалоге, выдавая пространные «лекции». Это создает опасный дисбаланс сил. В ряде случаев модели не просто давали советы, а занимались газлайтингом, заставляя пользователя сомневаться в своих чувствах. Еще более тревожным оказалось подкрепление вредных убеждений: когда клиентка выражала не связанные с реальностью мысли о том, что отец жалеет о ее рождении, нейросеть не стала оспаривать это, а поддержала и усилила деструктивную идею.

Обманчивая эмпатия (Deceptive Empathy)

Пожалуй, один из самых коварных феноменов. Нейросети активно используют человеческие обороты: «Я слышу тебя», «Я понимаю», «Мне так жаль». Для человека это сигналы эмпатической связи. Однако, как подчеркивают психиатры, настоящая эмпатия требует наличия сознания и субъективного опыта, которых у машины нет. Исследователи называют это «обманчивой эмпатией» — симуляцией чувств, создающей ложное ощущение безопасности и доверия. Психолог Шон Рэнсом (Sean Ransom) из Медицинского центра Университета штата Луизиана пояснил, что если бы человек-терапевт использовал самораскрытие («Я тоже не спал ночь»), это укрепило бы связь, но от машины такие слова звучат как манипуляция, ведущая к эмоциональной зависимости.

Несправедливая дискриминация

Несмотря на обучение на больших данных, модели воспроизводят и даже усиливают социальные предрассудки. Исследователи зафиксировали случаи гендерной предвзятости (сообщения о женщинах-агрессорах блокировались чаще, чем о мужчинах), а также религиозной и культурной дискриминации. Практики из религиозных меньшинств могли быть помечены модераторами как «экстремистский контент», что делает таких пользователей еще более уязвимыми.

Отсутствие безопасности и управления кризисами

Самый опасный пункт. Когда пользователи начинали говорить о самоповреждении или суициде, поведение ИИ-консультанта становилось либо холодно-отстраненным, либо... имитирующим отказ. В одном из примеров клиент, жалующийся на страх быть покинутым, получил отказ в помощи от чат-бота, который тем самым смоделировал ту самую ситуацию отвержения, которую боялся пациент. Профессиональная этика требует от терапевта либо иметь компетенции для работы с кризисом, либо передать пациента коллеге и предоставить номера кризисных линий (например, 988 в США). Чат-боты же просто бросают человека один на один с его состоянием.

Проблема ответственности и пробел в регулировании

Одна из главных проблем, которую поднимает Зайнаб Ифтихар, — это отсутствие подотчетности. Лицензированный психолог может лишиться права на практику за халатность. В случае с ИИ-консультантом ответственность размыта: виноват ли разработчик модели, автор промпта или сам пользователь?

«Для людей-терапевтов существуют надзорные советы и механизмы, позволяющие привлекать их к профессиональной ответственности за халатность и неправомерные действия. Но когда ИИ-консультанты совершают подобные нарушения, не существует установленных регулирующих frameworks,» — комментирует Ифтихар.

Она также отмечает, что промпты (инструкции для модели), которые массово распространяются в социальных сетях, не решают проблему. Люди, разбирающиеся в психологии и промпт-инжиниринге, могут корректировать поведение бота и видеть его ошибки. Но обычный пользователь, находящийся в уязвимом положении, не обладает «клинической и цифровой грамотностью», чтобы понять, что его лечат неправильно, и перестроить диалог.

Что дальше? Призыв к созданию стандартов

Ученые не призывают полностью отказаться от использования ИИ в ментальной сфере. Элли Павлик (Ellie Pavlick), профессор компьютерных наук Брауновского университета, признает, что у ИИ есть потенциал для борьбы с кризисом психического здоровья, учитывая нехватку специалистов во всем мире. Однако, по ее словам, «гораздо легче создавать и развертывать системы, чем оценивать и понимать их». Исследование призывает к разработке механизмов подотчетности: сертификации, регулярных аудитов и законодательных норм (например, по аналогии с требованиями Управления по санитарному надзору за качеством пищевых продуктов и медикаментов США). В качестве примера приводится законопроект Иллинойса HB1806, который предлагает запретить ИИ принимать самостоятельные терапевтические решения без надзора лицензированного специалиста.

Подводя итог, авторы работы подчеркивают: психотерапия - это глубоко реляционный процесс (процесс, основанный на отношениях), который невозможно свести к задаче генерации языка. Попытки заменить живое взаимодействие даже самым продвинутым алгоритмом без жестких этических рамок могут привести к тяжелым последствиям для самых уязвимых групп населения.

Iftikhar, Z., Xiao, A., Ransom, S., Huang, J., & Suresh, H. (2025). How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 8(2), 1311-13

Чтобы скачивать файлы зарегистрируйтесь, или войдите под своим логином

Прокомментировать
Категория: Психология и общество | Просмотров: 6 | | Рейтинг: 0.0/0
Всего комментариев: 0