фото: pixabay
В четверг Google заявила, что временно прекращает создание своего чат-бота с искусственным интеллектом Gemini для создания изображений людей на следующий день после того, как извинилась за «неточности» в исторических изображениях, которые он создавал.
Пользователи Gemini на этой неделе разместили в социальных сетях скриншоты сцен, в которых исторически доминировали белые, с расово разнообразными персонажами, которые, по их словам, были созданы, что заставило критиков задаться вопросом о том, не слишком ли компания корректирует риск расовой предвзятости в своей модели искусственного интеллекта.
«Мы уже работаем над решением недавних проблем с функцией создания изображений Gemini, — сообщил Google в сообщении на платформе социальных сетей X. — Пока мы делаем это, мы собираемся приостановить создание изображений людей и возобновить работу. Скоро выпустим улучшенную версию».
Предыдущие исследования показали, что генераторы изображений ИИ могут усиливать расовые и гендерные стереотипы, обнаруженные в их обучающих данных, и без фильтров с большей вероятностью покажут светлокожих мужчин, когда их попросят сгенерировать человека в различных контекстах.
В среду компания Google заявила, что «осознает, что Gemini предлагает неточности в некоторых исторических изображениях» и что «работает над немедленным улучшением таких изображений».
Gemini может генерировать «широкий круг людей», что, по словам компании, «в целом хорошо», поскольку систему используют люди по всему миру, но она «не достигает цели».
Исследователь из Вашингтонского университета Суроджит Гош, который изучал предвзятость в генераторах изображений ИИ, сказал, что он поддерживает, чтобы Google приостановил генерацию лиц людей, но «немного не понимает, как мы пришли к такому результату». Вопреки утверждениям о так называемом стирании белы» и предпосылке, что Gemini отказываются создавать лица белых людей (идеям, циркулирующим в социальных сетях на этой неделе), исследование Гоша в основном показало обратное.
«Быстроту этой реакции на фоне множества другой литературы и множества других исследований, которые показали, что традиционно маргинализированные люди стираются с помощью таких моделей, — мне немного трудно понять», — сказал он.
Гош сказал, что вполне вероятно, что Google сможет найти способ фильтровать ответы, чтобы отразить исторический контекст запроса пользователя, но для устранения более широкого вреда, причиняемого генераторами изображений, созданными на основе поколений фотографий и произведений искусства, найденных в интернете, требуется нечто большее, чем техническое исправление.
Источник: AP
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через