фото: Роман ПОПОВ
Использование искусственного интеллекта во многих информационных технологиях создает определенные ловушки для человеческого сознания, говорят ученые.
Распространение алгоритмов искусственного интеллекта, особенно в части рекомендации пользователям контента и продуктов на основе их прошлого поведения в интернете, привело к появлению таких новых явлений, как эхо-камеры и информационные коконы в социальных сетях.
Алгоритмы искусственного интеллекта создали ловушку для сознания пользователей в интернете, создают и побуждают их читать только тот контент, который резонирует с их взглядами на жизнь, политику и т.д. Об этом говорится в исследовании группы ученых под руководством профессора Йонга Ли из Университета Цинхуа (Китай). Результаты исследования опубликованы в журнале Nature Machine Intelligence.
Исследователи изучали, как образуются так называемые информационные коконы. В них пользователи встречают только тех, кто повторяет себя и свое мнение. Это может представлять серьезную опасность для развития критического мышления.
Цзинхуа Пиао, ведущий автор работы, отмечает, что широкое распространение алгоритмов, основанных на искусственном интеллекте, создает новые проблемы. Например, снижение влияния идеологически разнородных новостей, мнений, политических взглядов и друзей. Он отмечает, что подобные технологии изолируют людей от разнообразной информации и в конечном итоге "запирают их в рамках одной темы или точки зрения".
По мнению исследователя, такой "кокон" может иметь далеко идущие негативные последствия, поскольку он усиливает предрассудки, поляризует общество, препятствует личностному росту, творчеству и инновациям, увеличивает количество дезинформации и препятствует усилиям по созданию более инклюзивного мира.
Ученые подчеркивают, что "концепция информационных коконов была принята для объяснения широко наблюдаемого явления, когда по мере того как люди все больше и больше взаимодействуют с интеллектуальными алгоритмами, они изолируют себя от разнообразной информации и в конечном итоге застревают на одной теме или перспективе".
В то же время исследователи утверждают, что несправедливо обвинять алгоритмы ИИ или конкретно человека. Ведь такие информационные коконы возникают в результате сложных взаимодействий и обмена информацией между различными субъектами. Такое взаимодействие исследователи классифицировали по четырем элементам. Выбор по сходству - процесс, в ходе которого ИИ рекомендует пользователю контент, продукты и других пользователей, основываясь на том, что они наиболее схожи с теми, с кем пользователь уже взаимодействовал. Это важная сила, приводящая к "коконированию"; Положительная обратная связь - предоставление нового контента в соответствии с предыдущими предпочтениями пользователя. Этот процесс уменьшает информационное разнообразие; отрицательная обратная связь - препятствует "коконизации" и монотонному отбору информации; Случайный самопоиск - ситуация, когда пользователи самостоятельно находят контент и нарушают алгоритм, что приводит к образованию кокона.
Ученые считают, что дисбаланс между положительной и отрицательной обратной связью и постоянное усиление отбора по сходству приводит к образованию стойкого информационного кокона. Чтобы избежать этой ментальной ловушки, ученые разработали алгоритм like, который позволяет алгоритму строить более объективный образ пользователя, а также реагировать на контент, который ему не нравится. Они также призывают пользователей проводить более глубокие самостоятельные исследования, поскольку просмотр новой информации может повлиять на будущие рекомендации алгоритма.
Источник: Nature Machine Intelligence
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через