фото: Serhii Prystupa/Getty Images
Исследователи разработали новый тип запоминающего устройства, которое, по их словам, может сократить потребление энергии искусственным интеллектом (ИИ) как минимум в 1000 раз. Выполняя вычисления непосредственно внутри ячеек памяти, CRAM значительно снизит потребности в энергии для рабочих нагрузок ИИ. Ученые утверждают, что это решение проблемы огромного потребления энергии ИИ.
Новое устройство, получившее название вычислительной памяти с произвольным доступом (CRAM), выполняет вычисления непосредственно в ячейках памяти, устраняя необходимость передачи данных между различными частями компьютера.
В традиционных вычислениях данные постоянно перемещаются между процессором (где обрабатываются данные) и памятью (где хранятся данные) — в большинстве компьютеров это модуль RAM. Этот процесс особенно энергозатратен в приложениях ИИ, которые обычно включают сложные вычисления и огромные объемы данных.
По данным Международного энергетического агентства, мировое потребление энергии для нужд ИИ может удвоиться с 460 тераватт-часов (ТВт·ч) в 2022 году до 1000 ТВт·ч в 2026 году, что эквивалентно общему потреблению электроэнергии в Японии.
В рецензируемом исследовании, опубликованном 25 июля в журнале, исследователи продемонстрировали, что CRAM может выполнять ключевые задачи ИИ, такие как скалярное сложение и матричное умножение, за 434 наносекунды, используя всего 0,47 микроджоуля энергии. Это примерно в 2500 раз меньше энергии по сравнению с обычными системами памяти, которые имеют отдельные логические и запоминающие компоненты, заявили исследователи.
Исследование, которое проводилось в течение 20 лет, получило финансовую поддержку от Агентства перспективных исследовательских проектов Министерства обороны США (DARPA), а также Национального института стандартов и технологий, Национального научного фонда и технологической компании Cisco.
Источник: Unconventional Computing
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через