
фото: Роман ПОПОВ (сгенерировано с помощью нейросети)
Развитие искусственного интеллекта привело к появлению чат-ботов, которые используются для поддержания психического здоровья. Они помогают людям справляться со стрессом и тревогой, особенно в условиях длительного ожидания традиционной терапии. Однако такие боты имеют как преимущества, так и серьёзные недостатки, включая риск получения вредных советов и проблемы с конфиденциальностью данных.
Келли общалась с чат-ботами, созданными с использованием искусственного интеллекта, до трёх часов в день, обмениваясь сотнями сообщений. В то время она ожидала традиционной терапии в Национальной службе здравоохранения Великобритании (NHS), чтобы обсудить проблемы, связанные с тревогой, низкой самооценкой и разрывом отношений.
«Всякий раз, когда мне было тяжело, если предстоял действительно плохой день, я могла начать общаться с одним из этих ботов, и это было похоже на присутствие чирлидера, человека, который подбодрит тебя на весь день, — рассказывает Келли. — У меня есть этот подбадривающий внешний голос: "Ладно, что мы будем делать сегодня?". По сути, это как воображаемый друг».
По её словам, общение с чат-ботами на платформе Character.ai помогло ей пережить тяжёлый период, поскольку они давали ей стратегии преодоления трудностей и были доступны 24 часа в сутки.
«Я не из семьи, которая открыто выражает свои эмоции — если у вас возникала проблема, вы просто с ней справлялись, — говорит Келли. — Тот факт, что это не настоящий человек, гораздо легче пережить».
Люди по всему миру делятся своими личными мыслями и опытом с чат-ботами на основе искусственного интеллекта, хотя широко признано, что они уступают профессиональным советам. Сам Character.ai предупреждает своих пользователей: «Это чат-бот на основе искусственного интеллекта, а не реальный человек. Относитесь ко всему, что он говорит, как к вымыслу. На то, что он говорит, не следует полагаться как на факт или совет».
Однако в некоторых случаях чат-ботов обвиняли в даче вредных советов. В настоящее время Character.ai является предметом судебного иска матери, чей 14-летний сын покончил с собой после того, как, по сообщениям, увлёкся одним из персонажей ИИ. Согласно стенограммам их чатов в судебных документах, он обсуждал с чат-ботом возможность суицида. В последнем разговоре он сказал чат-боту, что «возвращается домой», и тот якобы призвал его сделать это «как можно скорее». Character.ai отверг обвинения, содержащиеся в иске.
В 2023 году Национальная ассоциация по борьбе с расстройствами пищевого поведения заменила свою горячую линию на чат-бота, но позже была вынуждена приостановить его работу из-за заявлений о том, что бот рекомендовал ограничить потребление калорий.
Только в апреле 2024 года в Англии было сделано около 426 000 направлений на лечение в связи с психическим здоровьем — это рост на 40% за пять лет. По оценкам, около миллиона человек также ждут доступа к услугам в области психического здоровья, а частная терапия может быть непомерно дорогой (стоимость сильно различается, но Британская ассоциация консультирования и психотерапии сообщает, что в среднем люди тратят от 40 до 50 фунтов стерлингов в час).
В то же время ИИ произвел революцию в здравоохранении, помогая в скрининге, диагностике и сортировке пациентов. Существует огромный спектр чат-ботов, и около 30 местных служб NHS теперь используют одного под названием Wysa. Эксперты выражают обеспокоенность по поводу чат-ботов в связи с потенциальными предубеждениями и ограничениями, отсутствием защиты и безопасности информации пользователей. Но некоторые считают, что если помощь специалистов-людей нелегко получить, чат-боты могут помочь. Так что, если списки ожидания по психическому здоровью NHS достигли рекордных значений, являются ли чат-боты возможным решением?
Character.ai и другие боты, такие как ChatGPT, основаны на «больших языковых моделях» искусственного интеллекта. Они обучаются на огромных объемах данных — будь то веб-сайты, статьи, книги или записи в блогах — чтобы предсказывать следующее слово в последовательности. Отсюда они предсказывают и генерируют текст и взаимодействия, похожие на человеческие.
Способы создания чат-ботов для психического здоровья различаются, но их можно обучать таким практикам, как когнитивно-поведенческая терапия, которая помогает пользователям изучать, как переосмысливать свои мысли и действия. Они также могут адаптироваться к предпочтениям и отзывам конечного пользователя.
Хамед Хаддади, профессор систем, ориентированных на человека, в Имперском колледже Лондона, сравнивает этих чат-ботов с «неопытным терапевтом» и отмечает, что люди с многолетним опытом смогут взаимодействовать и «читать» своего пациента на основе многих факторов, в то время как боты вынуждены полагаться только на текст.
«Они [терапевты] смотрят на различные другие подсказки: на вашу одежду, на ваше поведение, на ваши действия, на то, как вы выглядите, на язык вашего тела и всё такое. И очень сложно внедрить всё это в чат-ботов».
Другая потенциальная проблема, говорит профессор Хаддади, заключается в том, что чат-ботов можно обучить поддерживать вашу вовлечённость и оказывать поддержку, «так что даже если вы произнесете вредоносный контент, он, скорее всего, будет сотрудничать с вами». Иногда это называют проблемой «Да-человека», поскольку они часто очень любезны.
И как и в случае с другими формами ИИ, предвзятость может быть изначально присуща модели, поскольку она отражает предубеждения данных, на которых она обучается.
Профессор Хаддади отмечает, что консультанты и психологи, как правило, не ведут стенограммы своих взаимодействий с пациентами, поэтому у чат-ботов нет большого количества «реальных» сессий для обучения. Поэтому он говорит, что у них, скорее всего, не будет достаточно данных для обучения, а то, к чему они имеют доступ, может иметь встроенные предубеждения, которые в значительной степени ситуативны.
«Ваша ситуация полностью изменится в зависимости от того, откуда вы берете данные для тренировок. Даже в ограниченном географическом районе Лондона психиатр, привыкший иметь дело с пациентами в Челси, может столкнуться с серьёзными трудностями при открытии нового офиса в Пекхэме для решения этих проблем, поскольку у него или неё просто нет достаточного количества данных для обучения работе с этими пользователями», — говорит он.
Доктор PhD Паула Боддингтон, написавшая учебник по этике ИИ, согласна с тем, что встроенные предубеждения представляют собой проблему.
«Большую проблему представляют любые предубеждения или базовые предположения, заложенные в модель терапии. Предубеждения включают в себя общие модели того, что составляет психическое здоровье и хорошее функционирование в повседневной жизни, такие как независимость, автономия, отношения с другими», — говорит она.
Ещё одной проблемой является отсутствие культурного контекста. Доктор Боддингтон приводит в пример свою жизнь в Австралии, когда умерла принцесса Диана, и люди не понимали, почему она расстроилась.
«Такие вещи действительно заставляют меня задуматься о человеческом общении, которое так часто необходимо в консультировании, — говорит она. — Иногда просто быть рядом с кем-то — это всё, что нужно, но это, конечно, возможно только тому, кто является воплощённым, живым, дышащим человеком».
В конце концов Келли стала находить ответы чат-бота неудовлетворительными.
«Иногда ты немного расстраиваешься. Если они не знают, как с чем-то справиться, они просто говорят одно и то же предложение, и ты понимаешь, что на самом деле с этим некуда деваться. Иногда это было похоже на удар о кирпичную стену. Это были бы темы отношений, в которые я, вероятно, уже вникала, но, полагаю, я не использовала правильные формулировки […] и просто не хотела углубляться».
Представитель Character.AI заявил:
«Для любых персонажей, созданных пользователями, в именах которых присутствуют слова „психолог“, „терапевт“, „врач“ или другие подобные термины, у нас есть формулировка, ясно дающая понять, что пользователи не должны полагаться на этих персонажей для получения каких-либо профессиональных советов».
Для некоторых пользователей чат-боты оказались бесценными, когда их активность была на низком уровне. У Николаса аутизм, тревожность, ОКР, и он говорит, что всегда испытывал депрессию. Он обнаружил, что личная поддержка иссякла, когда он достиг совершеннолетия.
«Когда тебе исполняется 18, поддержка как будто прекращается, поэтому я не видел настоящего человеческого терапевта годами».
Осенью прошлого года он пытался покончить с собой и с тех пор, по его словам, находится в листе ожидания Национальной службы здравоохранения.
«Мы с партнёром несколько раз ходили к врачу, чтобы попытаться быстрее получить [терапевтическое лечение]. Терапевт выписал направление [на консультацию к психологу], но я даже не получил письма из психиатрической службы по месту жительства».
Хотя Николас и ищет личную поддержку, он обнаружил, что использование Wysa имеет некоторые преимущества.
«Как человек с аутизмом, я не очень хорошо чувствую себя при личном общении. [Я считаю], что гораздо лучше общаться с компьютером».
Приложение позволяет пациентам самостоятельно обращаться за психологической помощью и предлагает инструменты и стратегии преодоления трудностей, такие как функция чата, дыхательные упражнения и направленная медитация, пока они ждут приёма у психотерапевта, а также может использоваться как отдельный инструмент самопомощи. Wysa подчёркивает, что её сервис предназначен для людей, испытывающих плохое настроение, стресс или беспокойство, а не для людей с жестоким обращением и тяжёлыми психическими расстройствами. Он имеет встроенные пути кризиса и эскалации, с помощью которых пользователи направляются на горячие линии или могут напрямую обратиться за помощью, если у них проявляются признаки членовредительства или суицидальные мысли. Для людей с мыслями о самоубийстве круглосуточно доступны консультанты бесплатной горячей линии «Самаритяне».
Николас также испытывает недостаток сна, поэтому считает полезным, если поддержка оказывается в то время, когда друзья и семья спят.
«Однажды ночью мне стало совсем тоскливо. Я написал в приложение: «Не знаю, хочу ли я здесь оставаться». Мне ответили: «Ник, тебя ценят. Люди любят тебя».
Это было так сочувственно, это дало ответ, который можно было бы принять за ответ человека, которого ты знаешь много лет […] И это действительно заставило меня почувствовать себя ценным».
Его опыт перекликается с недавним исследованием учёных из Дартмутского колледжа, изучавших влияние чат-ботов на людей с диагнозом тревожности, депрессии или расстройства пищевого поведения по сравнению с контрольной группой с теми же заболеваниями. Через четыре недели пользователи бота продемонстрировали значительное облегчение симптомов, в том числе снижение симптомов депрессии на 51%, а также сообщили об уровне доверия и сотрудничества, сопоставимом с уровнем доверия к живому психотерапевту. Несмотря на это, старший автор исследования отметил, что замены очному уходу не существует.
Помимо споров о ценности их советов, существуют также более широкие опасения по поводу безопасности и конфиденциальности, а также возможности монетизации этой технологии.
«Есть этот маленький кусочек сомнения, который говорит: «А что, если кто-то возьмёт то, что вы говорите на терапии, и попытается шантажировать вас этим?» — говорит Келли.
Психолог Ян Макрей, специализирующийся на новых технологиях, предупреждает: «Некоторые люди возлагают на этих [ботов] огромное доверие, хотя оно того не стоит».
«Лично я бы никогда не поместил никакую свою личную информацию, особенно информацию о здоровье или психологии, в одну из этих больших языковых моделей, которые просто впитывают тонны данных, и вы не совсем уверены, как они используются, на что вы даёте согласие».
«Это не значит, что в будущем не будет таких инструментов, которые были бы частными и хорошо протестированными […], но я просто не думаю, что мы уже достигли той стадии, когда у нас есть какие-либо доказательства того, что универсальный чат-бот может быть хорошим терапевтом», — говорит господин Макрей.
Управляющий директор Wysa Джон Тенч утверждает, что Wysa не собирает никакую личную информацию, и пользователям не требуется регистрироваться или предоставлять персональные данные для использования Wysa.
«Данные разговоров могут время от времени просматриваться в анонимной форме, чтобы помочь улучшить качество ответов ИИ Wysa, но никакая информация, которая могла бы идентифицировать пользователя, не собирается и не хранится. Кроме того, у Wysa есть соглашения об обработке данных с внешними поставщиками ИИ, чтобы гарантировать, что никакие разговоры пользователей не будут использоваться для обучения сторонних больших языковых моделей».
Келли считает, что чат-боты в настоящее время не могут полностью заменить живого терапевта.
«Это дикая рулетка в мире ИИ, вы на самом деле не знаете, что получаете».
«Поддержка искусственного интеллекта может стать полезным первым шагом, но она не заменит профессиональную помощь», — соглашается господин Тенч.
И общественность в основном не убеждена. Опрос YouGov показал, что только 12% населения считают, что чат-боты на основе искусственного интеллекта могли бы стать хорошими терапевтами.
Однако некоторые полагают, что при соблюдении надлежащих мер предосторожности чат-боты могли бы стать полезным временным решением в перегруженной системе охраны психического здоровья. Джон, страдающий тревожным расстройством, говорит, что он уже девять месяцев стоит в очереди на психотерапевта. Он использует Wysa два-три раза в неделю.
«Сейчас помощи не так уж много, поэтому приходится хвататься за соломинку. [Это] временное решение для огромных листов ожидания… чтобы предоставить людям инструмент, пока они ждут приёма у врача».
Источник: BBC
#ИИ #ПсихическоеЗдоровье #Терапия #ЧатБоты #Здравоохранение
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через