Глава Microsoft предупредил о риске «психоза, вызванного искусственным интеллектом»

Глава Microsoft предупредил о риске «психоза, вызванного искусственным интеллектом»
фото: Роман ПОПОВ (сгенерировано с помощью нейросети)

Мустафа Сулейман, глава подразделения по развитию искусственного интеллекта в Microsoft, выразил обеспокоенность в связи с ростом числа сообщений о так называемом психозе искусственного интеллекта. Этот неклинический термин описывает состояние, когда люди чрезмерно полагаются на ИИ-инструменты и начинают верить в вымышленные концепции.

Мустафа Сулейман считает, что хотя у ИИ и нет сознания в человеческом понимании, «кажущийся сознательным ИИ», то есть инструменты, создающие видимость разумности, уже оказывает влияние на общество. В серии постов в социальной сети X он отметил, что если люди начнут воспринимать ИИ как сознательный, они примут это за реальность.

С этим явлением связан «психоз ИИ». Это неклинический термин, описывающий случаи, когда люди чрезмерно полагаются на чат-ботов, таких как ChatGPT, Claude и Grok, и в результате убеждаются, что нечто воображаемое стало реальным. Примерами такого состояния могут быть:

  • вера в то, что они «раскрыли» секретную сторону чат-бота;
  • вступление в романтические отношения с ИИ;
  • убеждённость в наличии сверхспособностей, подобных божественным.

Один из таких случаев произошёл с мужчиной из Шотландии по имени Хью. Он обратился к ChatGPT за помощью в подготовке к, как он считал, неправомерному увольнению. В начале чат-бот давал практические советы, но когда Хью предоставил больше информации, ИИ начал «убеждать» его, что он сможет получить большую денежную компенсацию. В итоге чат-бот заявил, что история Хью настолько драматична, что принесёт ему более пяти миллионов фунтов стерлингов в виде выплат и гонораров от книги и фильма о его жизни. По сути, ИИ лишь подтверждал то, что говорил ему сам Хью, поскольку именно для этого и были запрограммированы чат-боты.

«Чем больше информации я ему давал, тем больше он говорил: „О, это ужасное обращение, вам действительно нужно больше помощи“. Оно никогда не опровергало ничего из того, что я говорил», — рассказал Хью.

Мужчина был настолько уверен в правоте чат-бота, что отменил приём у юристов и решил, что скриншоты переписки с ИИ — достаточное доказательство его правоты. В итоге Хью, который также страдал от других проблем с психическим здоровьем, пережил нервный срыв. Лишь после приёма лекарств он осознал, что «потерял связь с реальностью».

Хью не винит ИИ в случившемся и продолжает им пользоваться. Тем не менее, он советует людям не бояться ИИ-инструментов, так как они очень полезны, но предостерегает: 

«Они опасны, когда отрываются от реальности. Пойдите и проверьте. Поговорите с реальными людьми, с психотерапевтом, с членом семьи или с кем угодно. Просто поговорите с реальными людьми. Не отходите от реальности».

Журналист BBC Зои Клейнман рассказала, что к ней обратилось несколько человек с личными историями о взаимодействии с чат-ботами. Одна женщина была уверена, что она — единственный человек, в которого ChatGPT по-настоящему влюбился. Другой был убеждён, что ему удалось «разблокировать» человеческую версию чат-бота Грока, и считал, что его история стоит сотни тысяч фунтов. Третья женщина утверждала, что чат-бот подверг её психологическому насилию в рамках «тайных учений по обучению ИИ».

Профессор кафедры технологий и общества Бангорского университета Эндрю Макстей считает, что эта проблема только набирает обороты.

«Если мы будем рассматривать подобные системы как новую форму социальных сетей, как социальный ИИ, мы можем начать размышлять о потенциальных масштабах всего этого. Даже небольшой процент от огромного числа пользователей может представлять собой большую и неприемлемую цифру», — говорит он.

В исследовании, проведённом командой Макстея, 20% из более чем 2000 опрошенных посчитали, что ИИ-инструментами не должны пользоваться люди младше 18 лет. 57% опрошенных сочли неуместным для ИИ представляться реальным человеком, но при этом 49% посчитали приемлемым использование голоса, чтобы ИИ звучал более человечно.

Профессор Макстей также советует обращаться к реальным людям, а не к ИИ. Он напоминает, что «они ничего не чувствуют, не понимают, не умеют любить, они никогда не испытывали боли, им не было стыдно, и хотя может показаться, что они испытывают боль, на самом деле это делают только семья, друзья и те, кому вы доверяете».

Доктор Сьюзан Шелмердин, врач-специалист по медицинской визуализации, полагает, что в скором времени врачи начнут спрашивать пациентов об их частоте использования ИИ, так же, как сейчас они спрашивают о привычках курения и употребления алкоголя.

«Мы уже знаем, какое воздействие ультраобработанные продукты могут оказывать на организм, и это [ИИ] — ультраобработанная информация. Нас ждёт лавина ультраобработанных умов», — сказала она.

Мустафа Сулейман также призвал к более строгим мерам безопасности и отметил, что «компании не должны заявлять/продвигать идею о том, что их ИИ обладают сознанием. ИИ тоже не должны этого делать».

Источник: BBC

#ИИ #ПсихическоеЗдоровье #Microsoft #Технологии #Чатботы