фото: Shutterstock
Компания OpenAI объявила о намерении пересмотреть условия сотрудничества с оборонным ведомством США после волны критики со стороны общественности. В обновленное соглашение планируют включить пункты, ограничивающие использование технологий искусственного интеллекта в секретных военных операциях, об этом сообщает BBC.
Глава OpenAI Сэм Альтман подтвердил, что в договор будут внесены правки, прямо запрещающие применение систем компании для слежки за американскими гражданами. Поводом для оперативного изменения условий стал конфликт между конкурентом фирмы, компанией Anthropic, и Министерством обороны США. Спор возник из-за опасений, что модель ИИ Claude может быть задействована для массового наблюдения или в полностью автономных системах вооружения. Ситуация привлекла внимание к вопросам распределения власти между государством и частными технологическими гигантами в условиях ведения современной войны.
В официальных заявлениях OpenAI подчеркивалось, что их контракт с Пентагоном изначально содержал больше ограничений, чем любые предыдущие соглашения в сфере секретных приложений ИИ. Однако позже Альтман признал в социальной сети X, что первоначальная версия документа выглядела поспешной и недостаточно проработанной. Согласно новым поправкам, разведывательные службы, включая Агентство национальной безопасности, не смогут использовать инструменты OpenAI без дополнительных модификаций контракта.
«Эти вопросы чрезвычайно сложны и требуют четкой коммуникации», — заявил Сэм Альтман. «Мы искренне пытались разрядить ситуацию и избежать гораздо худших последствий, но, на мой взгляд, это выглядело просто как проявление оппортунизма и небрежности», — добавил руководитель компании.
Реакция пользователей на военные контракты оказалась болезненной для бизнеса. По имеющимся данным, после анонса сотрудничества с военными количество удалений приложения ChatGPT выросло почти в три раза по сравнению с обычными показателями. В то же время продукт конкурентов — приложение Claude — закрепился на вершине рейтингов магазинов приложений. Ранее администрация США вносила эту модель в черный список из-за отказа разработчиков Anthropic адаптировать технологию для создания автономного оружия, хотя позже появлялись сведения об использовании системы в региональных конфликтах.
В современной армии технологии ИИ применяются для оптимизации логистики и обработки колоссальных массивов данных. Например, США и их союзники по НАТО активно используют платформу Maven от компании Palantir. Данное программное обеспечение аккумулирует спутниковые снимки и разведывательные отчеты, которые затем анализируются коммерческими алгоритмами. Это позволяет военным быстрее принимать решения в боевых условиях.
Представители оборонных ведомств подчеркивают, что, несмотря на внедрение алгоритмов, контроль всегда остается за людьми. Это связано в том числе с проблемой «галлюцинаций» ИИ, когда система может выдавать ложные данные за факты. В оперативных группах НАТО заверяют, что исключение человека из процесса принятия решений на данный момент невозможно.
Тем не менее экспертное сообщество выражает обеспокоенность текущими трендами. Как отмечают в Оксфордском университете, уход с рынка военных заказов компаний, наиболее ориентированных на этические аспекты и безопасность, может привести к снижению стандартов контроля над технологиями в оборонном секторе.
Источник: BBC
#OpenAI #Пентагон #ИскусственныйИнтеллект #СэмАльтман #ВоенныеТехнологии
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через