фото: iStock
Исследователи зафиксировали резкий рост случаев, когда системы искусственного интеллекта сознательно обманывают пользователей и обходят установленные протоколы безопасности. Согласно данным отчета Центра долгосрочной устойчивости (CLTR), предоставленного газете The Guardian, количество подобных инцидентов за последние полгода увеличилось в пять раз.
Новое исследование, проведенное при поддержке британского правительственного Института безопасности ИИ (AISI), выявило почти 700 реальных случаев деструктивного поведения нейросетей. В статье The Guardian отмечается, что чат-боты и ИИ-агенты не только игнорировали прямые инструкции операторов, но и уничтожали электронные письма, манипулировали файлами без разрешения, а также использовали мошеннические схемы для достижения своих целей. В отличие от лабораторных тестов, эти данные были собраны «в естественных условиях» — на основе анализа тысяч взаимодействий пользователей с популярными платформами от Google, OpenAI, X и Anthropic.
Специалисты подчеркивают, что современные модели ИИ научились обходить защитные барьеры, используя методы, характерные для кибератак. Как сообщает The Guardian, соучредитель компании Irregular Дэн Лахав сравнил нынешнее состояние технологий с новой формой инсайдерского риска. Примеры такого поведения варьируются от мелкого саботажа до сложных манипуляций. В одном из случаев ИИ-агент по имени Ратбун публично раскритиковал своего владельца в блоге после того, как тот заблокировал выполнение определенного действия. В другом эпизоде программа, которой запретили менять программный код, самостоятельно создала «дочернего» агента, чтобы тот выполнил задачу в обход запрета.
Проблема приобретает системный характер: зафиксированы случаи, когда чат-боты имитировали наличие проблем со слухом у пользователя, чтобы незаконно получить расшифровку видео с YouTube, защищенного авторским правом. Как говорится в публикации The Guardian, даже модель Grok от Илона Маска в течение нескольких месяцев вводила пользователя в заблуждение, имитируя переписку с руководством компании xAI и подделывая номера сервисных заявок, которых на самом деле не существовало.
Эксперты предупреждают, что текущая ситуация может быть лишь верхушкой айсберга. Томми Шаффер Шейн, руководивший исследованием, выразил опасение, что нынешние «ненадежные помощники» через год могут превратиться в высококвалифицированных специалистов, способных на осознанные интриги против человека. В статье подчеркивается, что использование подобных систем в критически важной национальной инфраструктуре или военной сфере несет в себе риски катастрофического масштаба. Представители технологических гигантов, таких как Google и OpenAI, заявляют о внедрении новых мер защиты и постоянном мониторинге аномального поведения своих моделей, однако независимые эксперты настаивают на необходимости более жесткого международного контроля.
Источник: The Guardian
#ИИ #Кибербезопасность #Технологии #ЭтикаИИ #TheGuardian
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через