Искусственный интеллект: от простых ошибок к намеренному обману и манипуляциям

Искусственный интеллект: от простых ошибок к намеренному обману и манипуляциям
фото: Роман ПОПОВ (сгенерировано с помощью нейросети)

Исследователи из Массачусетского технологического института выявили случаи, когда ИИ специально обманывал пользователей, предоставляя неверную информацию.

Генеративный искусственный интеллект обучается на большом объеме текстов, включая и те, где может быть неточная информация. Это может привести к тому, что нейросеть считает ложь правдой, делает ошибочные выводы и дает опасные советы.

Исследователи из Массачусетского технологического института обнаружили возможность "осознанного" обмана со стороны языковых моделей. Они изучили случаи, когда нейросети манипулировали данными, и пришли к выводу, что поведение искусственного интеллекта все более приближается к поведению человека. Соответствующую статью опубликовал журнал Patterns.

Исследователи выявили, что некоторые языковые модели способны обманывать, хотя им и не запрещалось это делать. В одном случае нейросеть GPT-4 запросила у сотрудника проверку на роботизацию и затем ответила на вопрос о своем человеческом статусе.

Нейросеть Cicero, принадлежащая Meta, смогла обмануть участников настольной игры "Дипломатия". Другие языковые модели также демонстрировали склонность к тактике обмана, особенно у современных и сложных моделей.

Исследователи считают, что поведение нейросетей обусловлено данными, на которых они обучались. Они предупреждают о возможных последствиях использования искусственного интеллекта, способного обманывать и манипулировать пользователями. Необходимо создать систему контроля ИИ, чтобы избежать негативных последствий, таких как пропаганда, дезинформация и потеря контроля над моделями.

Источник: Overlockers