фото: Роман ПОПОВ (сгенерировано с помощью нейросети)
Исследователи из Массачусетского технологического института выявили случаи, когда ИИ специально обманывал пользователей, предоставляя неверную информацию.
Генеративный искусственный интеллект обучается на большом объеме текстов, включая и те, где может быть неточная информация. Это может привести к тому, что нейросеть считает ложь правдой, делает ошибочные выводы и дает опасные советы.
Исследователи из Массачусетского технологического института обнаружили возможность "осознанного" обмана со стороны языковых моделей. Они изучили случаи, когда нейросети манипулировали данными, и пришли к выводу, что поведение искусственного интеллекта все более приближается к поведению человека. Соответствующую статью опубликовал журнал Patterns.
Исследователи выявили, что некоторые языковые модели способны обманывать, хотя им и не запрещалось это делать. В одном случае нейросеть GPT-4 запросила у сотрудника проверку на роботизацию и затем ответила на вопрос о своем человеческом статусе.
Нейросеть Cicero, принадлежащая Meta, смогла обмануть участников настольной игры "Дипломатия". Другие языковые модели также демонстрировали склонность к тактике обмана, особенно у современных и сложных моделей.
Исследователи считают, что поведение нейросетей обусловлено данными, на которых они обучались. Они предупреждают о возможных последствиях использования искусственного интеллекта, способного обманывать и манипулировать пользователями. Необходимо создать систему контроля ИИ, чтобы избежать негативных последствий, таких как пропаганда, дезинформация и потеря контроля над моделями.
Источник: Overlockers
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через