Как секретный алгоритм TikTok изучает и подчиняет каждого пользователя
Журналисты The Wall Street Journal прибегли к помощи IT-специалистов и армии ботов, чтобы выяснить, как именно работает алгоритм социальной сети TikTok. Эксперимент показал, что нейросети сервиса достаточно отслеживать всего один показатель, чтобы знать, чего хочет пользователь и что следует показывать ему на экране, чтобы он не захотел выйти из приложения.
Запущенный в 2016 году в Китае сервис коротких видеороликов TikTok за пять лет стал чуть ли не главной социальной сетью мира. На прошлой неделе он преодолел отметку в 3 млрд скачиваний в App Store и Google Play — по этому показателю он уступает только сервисам Facebook. В прошлом году он стал самым скачиваемым мобильным приложением за всю историю, а сейчас им активно пользуются уже более 800 млн человек по всему миру.
TikTok — это бесконечная лента коротких видеороликов, которые предлагаются пользователю алгоритмом сервиса. Долгое время разработчик приложения ByteDance держал в тайне все детали работы своего алгоритма, пока в середине прошлого года не раскрыл некоторую общую информацию: нейросеть компании подбирает пользователю контент на основании той информации, которую тот раскрывает о себе в приложении, а также на основании его лайков, шеров, подписок и комментариев под видео. Правда, все это релевантно для любой другой социальной сети, где есть механизм рекомендаций, так что ничего личного ByteDance так и не раскрыл. А потому журналисты The Wall Street Journal (WSJ) провели собственное расследование, чтобы выяснить, что именно стоит за ошеломляющим успехом китайского сервиса и как ему удается не только завлекать новых пользователей, но и удерживать аудиторию всех возрастов.
Для этого команда журналистов создала более сотни бот-аккаунтов в TikTok, которые «просмотрели» сотни тысяч видеороликов. Кроме того, газета связалась с нынешними и бывшими руководителями TikTok.
Создавая бот-аккаунты, журналисты издания приписали каждому из них определенные сферы интересов, но не стали упоминать их в приложении TikTok во время заполнения анкеты. Только имя аккаунта, возраст и геолокацию. А чтобы проверить, как на самом деле работает алгоритм сервиса, запретили ботам оставлять отметки «нравится» под видео или репостить их. Никаких реакций или подписок на каналы — только просмотр. При этом бот мог просматривать «интересные» ему видео по два или несколько раз, а также ставить на них паузу. Таким образом газета отсеяла те критерии, которые упоминались самой ByteDance в качестве определяющих для алгоритма.
Для каждого нового пользователя TikTok, созданного WSJ, изначальная подборка видео выглядела примерно одинаково - это были самые популярные видео на сервисе, отобранные командой администраторов TikTok. Среднее количество просмотров у таких роликов — 6,3 млн. Но чем больше просмотров совершает пользователь (в данном случае бот), тем больше ему выпадает видео с небольшим количеством просмотров, зато больше подходящих его сфере интересов.
В некоторых случаях разгадать желания бота алгоритму TikTok удавалось и вовсе за первые 40 минут пользования приложением.
«Алгоритм TikTok куда более могущественный и может узнать ваши слабости куда быстрее» своих конкурентов на рынке, - считает Гийом Шазло, бывший инженер Google, который работал над алгоритмами для YouTube. - На YouTube 70% того, что смотрят люди,— рекомендации алгоритма. Это уже очень много. Но на TikTok все куда хуже: здесь, вероятно, 90–95% того, что видит пользователь, предлагается ему алгоритмом».
В ходе эксперимента выяснилось, что искусственный интеллект TikTok, отвечающий за подборку видео для пользователей, всегда сначала начинает демонстрировать человеку (в данном случае боту) ролики на общие темы, стремясь понять, что именно больше подходит конкретному пользователю. Это, например, танцы под музыку, животные, природа или какие-то челленджи. Один из ботов WSJ был запрограммирован на заинтересованность в грустных роликах и видео о депрессии. И ему первый такой ролик попался уже на третьей минуте пользования TikTok. Бот остановился на этом видео и просмотрел его дважды, тем самым дав понять алгоритму, что эта тема интересна.
Еще через 23 ролика — это заняло всего четыре минуты — алгоритм выдал боту второй ролик на грустную тематику. При этом между ними алгоритм продолжает вставлять популярные видео на другие тематики, а также ролики от других пользователей из того же региона, что и конкретный бот. Но пару десятков видео спустя алгоритм выдал еще одно грустное видео — о разрыве отношений.
После 80 отсмотренных роликов и 15 минут пользования приложением пользователю предлагается посмотреть ролики на смежные темы — о дружбе, отношениях и любви. Но бот начинает помечать их как неинтересные. Его интересуют только видео о неудачных отношениях, разрывах, эмоциональных травмах и психологических расстройствах. И TikTok дает ему это. Всего через полчаса после начала пользования приложением лента бота начинает превращаться в бесконечный поток депрессивных видео — после 278 отсмотренных роликов доля депрессивных достигла 93%.
Представительница сервиса заверила журналистов WSJ, что оставшиеся 7% — ролики на другие тематики, которые должны помочь пользователю не только найти другие интересные темы, но и не оказаться слишком глубоко в кроличьей норе. Но эксперимент показал совершенно другую картину. Для депрессивного бота оставшиеся 7% были рекламными объявлениями.
При этом в компании отметили, что эксперимент не может отражать реальное положение дел, так как у людей, в отличие от ботов WSJ, обычно несколько сфер интересов. Но на вооружении газеты были и такие боты — все они оказались затянуты в бесконечный поток однотипных видео, максимально точно отвечающих конкретным запросам пользователя. При этом во многих случаях алгоритм заводил ботов с довольно общими и популярными сферами интересов в нишевый контент. «То, что мы видим здесь, очень похоже на работу алгоритма YouTube. Алгоритм узнает, что депрессия может быть использована как инструмент вовлечения, и начинает продвигать его,— говорит господин Шазло.— В итоге алгоритм выдает пользователю все более экстремальный контент, чтобы заставить человека проводить все больше и больше времени в приложении». Например, тем, кто заинтересован в политике, в итоге начали демонстрировать ролики про теории заговора, а интересующимся отношениями — о самоубийствах или уходе из семьи. Эти ролики просто физически не успевают отсматривать администраторы TikTok, полагаясь на то, что кто-то из пользователей отследит их и пометит как контент, нарушающий правила приложения.
«Будь то YouTube, Facebook, TikTok — мы везде взаимодействуем с алгоритмами… Мы тренируем их, а они тренируют нас. Так что мы должны научиться понимать их работу лучше и не позволить им доходить до того, чтобы вредить нашему обществу или отдельным группам людей»,— подытожил господин Шазло.
Источник: https://www.kommersant.ru/doc/4916958
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через