фото: Роман ПОПОВ (сгенерировано с помощью нейросети)
Мустафа Сулейман, глава подразделения по развитию искусственного интеллекта в Microsoft, выразил обеспокоенность в связи с ростом числа сообщений о так называемом психозе искусственного интеллекта. Этот неклинический термин описывает состояние, когда люди чрезмерно полагаются на ИИ-инструменты и начинают верить в вымышленные концепции.
Мустафа Сулейман считает, что хотя у ИИ и нет сознания в человеческом понимании, «кажущийся сознательным ИИ», то есть инструменты, создающие видимость разумности, уже оказывает влияние на общество. В серии постов в социальной сети X он отметил, что если люди начнут воспринимать ИИ как сознательный, они примут это за реальность.
С этим явлением связан «психоз ИИ». Это неклинический термин, описывающий случаи, когда люди чрезмерно полагаются на чат-ботов, таких как ChatGPT, Claude и Grok, и в результате убеждаются, что нечто воображаемое стало реальным. Примерами такого состояния могут быть:
- вера в то, что они «раскрыли» секретную сторону чат-бота;
- вступление в романтические отношения с ИИ;
- убеждённость в наличии сверхспособностей, подобных божественным.
Один из таких случаев произошёл с мужчиной из Шотландии по имени Хью. Он обратился к ChatGPT за помощью в подготовке к, как он считал, неправомерному увольнению. В начале чат-бот давал практические советы, но когда Хью предоставил больше информации, ИИ начал «убеждать» его, что он сможет получить большую денежную компенсацию. В итоге чат-бот заявил, что история Хью настолько драматична, что принесёт ему более пяти миллионов фунтов стерлингов в виде выплат и гонораров от книги и фильма о его жизни. По сути, ИИ лишь подтверждал то, что говорил ему сам Хью, поскольку именно для этого и были запрограммированы чат-боты.
«Чем больше информации я ему давал, тем больше он говорил: „О, это ужасное обращение, вам действительно нужно больше помощи“. Оно никогда не опровергало ничего из того, что я говорил», — рассказал Хью.
Мужчина был настолько уверен в правоте чат-бота, что отменил приём у юристов и решил, что скриншоты переписки с ИИ — достаточное доказательство его правоты. В итоге Хью, который также страдал от других проблем с психическим здоровьем, пережил нервный срыв. Лишь после приёма лекарств он осознал, что «потерял связь с реальностью».
Хью не винит ИИ в случившемся и продолжает им пользоваться. Тем не менее, он советует людям не бояться ИИ-инструментов, так как они очень полезны, но предостерегает:
«Они опасны, когда отрываются от реальности. Пойдите и проверьте. Поговорите с реальными людьми, с психотерапевтом, с членом семьи или с кем угодно. Просто поговорите с реальными людьми. Не отходите от реальности».
Журналист BBC Зои Клейнман рассказала, что к ней обратилось несколько человек с личными историями о взаимодействии с чат-ботами. Одна женщина была уверена, что она — единственный человек, в которого ChatGPT по-настоящему влюбился. Другой был убеждён, что ему удалось «разблокировать» человеческую версию чат-бота Грока, и считал, что его история стоит сотни тысяч фунтов. Третья женщина утверждала, что чат-бот подверг её психологическому насилию в рамках «тайных учений по обучению ИИ».
Профессор кафедры технологий и общества Бангорского университета Эндрю Макстей считает, что эта проблема только набирает обороты.
«Если мы будем рассматривать подобные системы как новую форму социальных сетей, как социальный ИИ, мы можем начать размышлять о потенциальных масштабах всего этого. Даже небольшой процент от огромного числа пользователей может представлять собой большую и неприемлемую цифру», — говорит он.
В исследовании, проведённом командой Макстея, 20% из более чем 2000 опрошенных посчитали, что ИИ-инструментами не должны пользоваться люди младше 18 лет. 57% опрошенных сочли неуместным для ИИ представляться реальным человеком, но при этом 49% посчитали приемлемым использование голоса, чтобы ИИ звучал более человечно.
Профессор Макстей также советует обращаться к реальным людям, а не к ИИ. Он напоминает, что «они ничего не чувствуют, не понимают, не умеют любить, они никогда не испытывали боли, им не было стыдно, и хотя может показаться, что они испытывают боль, на самом деле это делают только семья, друзья и те, кому вы доверяете».
Доктор Сьюзан Шелмердин, врач-специалист по медицинской визуализации, полагает, что в скором времени врачи начнут спрашивать пациентов об их частоте использования ИИ, так же, как сейчас они спрашивают о привычках курения и употребления алкоголя.
«Мы уже знаем, какое воздействие ультраобработанные продукты могут оказывать на организм, и это [ИИ] — ультраобработанная информация. Нас ждёт лавина ультраобработанных умов», — сказала она.
Мустафа Сулейман также призвал к более строгим мерам безопасности и отметил, что «компании не должны заявлять/продвигать идею о том, что их ИИ обладают сознанием. ИИ тоже не должны этого делать».
Источник: BBC
#ИИ #ПсихическоеЗдоровье #Microsoft #Технологии #Чатботы
Пікірлер
Комментарий қалдыру үшін порталға тіркеліңіз немесе кіріңіз
Авторизация через