Капитализация страха: почему разработчики ИИ пугают мир апокалипсисом

Капитализация страха: почему разработчики ИИ пугают мир апокалипсисом

фото: Роман ПОПОВ (сгенерировано с помощью нейросети)

Крупнейшие разработчики искусственного интеллекта все чаще заявляют о том, что их новые технологии представляют экзистенциальную угрозу для человечества. Однако за громкими предупреждениями об апокалипсисе может скрываться продуманная маркетинговая стратегия, направленная на капитализацию страха и уклонение от государственного регулирования, сообщает BBC.

Технологическая индустрия породила странный парадокс: компании создают продукты, открыто называют их опасными, но продолжают активно продавать. Последним примером стал запуск модели Claude Mythos от компании Anthropic. Разработчики утверждают, что нейросеть способна выявлять критические уязвимости в кибербезопасности эффективнее любого эксперта, и ее попадание в «плохие руки» грозит глобальным хаосом. Подобная риторика — не редкость для Кремниевой долины: ранее руководители OpenAI и Google DeepMind также призывали считать риск уничтожения людей искусственным интеллектом приоритетной проблемой мирового масштаба.

Критики и эксперты по этике данных видят в этом попытку создать вокруг технологий ореол сверхъестественной мощи. Профессор Эдинбургского университета Шеннон Валлор отмечает, что изображение ИИ как чего-то почти божественного и неуправляемого заставляет общество чувствовать себя бессильным. Это формирует убеждение, что единственной защитой от «цифрового монстра» могут быть только сами создавшие его корпорации. Таким образом, вместо реального обсуждения текущих проблем — эксплуатации труда, когнитивных нарушений или экологического ущерба от дата-центров — фокус внимания смещается на гипотетический конец света.

Пристальный взгляд на техническую сторону громких анонсов часто выявляет пробелы. Например, в случае с Claude Mythos компания Anthropic не предоставила данные о ложноположительных результатах — ключевом показателе полезности любого инструмента безопасности. Специалисты, такие как Хейди Хлааф из Института AI Now, указывают на отсутствие сравнительных тестов с существующим программным обеспечением. Существует мнение, что задержки в выпуске «опасных» моделей связаны не с заботой о безопасности, а с элементарной нехваткой вычислительных мощностей.

История подобных заявлений в Силиконовой долине заставляет относиться к ним со скепсисом. В 2019 году OpenAI называла модель GPT-2 «слишком опасной для выпуска», но опубликовала ее спустя несколько месяцев. Маркетинг, основанный на страхе, эффективно привлекает инвесторов и повышает стоимость акций, создавая иллюзию обладания технологией беспрецедентной силы. Пока лидеры индустрии обещают превратить дата-центры в «страну гениев» или предостерегают от апокалипсиса, реальные продукты остаются инструментами для получения прибыли.

«Ни одна технология, за исключением этой, даже ядерное или биологическое оружие, не заставляла нас думать, что это силы, неподвластные человеческому контролю», — утверждает Шеннон Валлор в статье BBC.

Профессор подчеркивает, что нейросети — это не мессии и не демоны, а управляемые инженерные решения. Если общество согласится с мифом о «непознаваемости» ИИ, оно фактически добровольно откажется от права на его регулирование, оставив решение судеб цивилизации на усмотрение коммерческих структур, чьи мотивы всегда продиктованы рыночной доминантой.

Источник: BBC

#ИИ #технологии #нейросети #безопасность #киберугрозы

Жазылу