Google посоветовала сотрудникам не использовать ИИ при работе с конфиденциальной информацией

Google посоветовала сотрудникам не использовать ИИ при работе с конфиденциальной информацией
фото: из открытых источников

Родительская компания Google посоветовала сотрудникам не вводить свои конфиденциальные материалы в чат-боты с искусственным интеллектом, сославшись на давнюю политику защиты информации, передает портал Качественный Казахстан со ссылкой на Reuters.

Чат-боты, в том числе Bard и ChatGPT, представляют собой похожие на человека программы, которые используют так называемый генеративный искусственный интеллект для общения с пользователями и ответов на множество запросов. Люди-рецензенты могут читать чаты, и исследователи обнаружили, что аналогичный ИИ может воспроизводить данные, которые он получил во время обучения, создавая риск утечки.

По словам некоторых людей, Alphabet также предупредил своих инженеров, чтобы они избегали прямого использования компьютерного кода, который могут генерировать чат-боты.

На просьбу прокомментировать заявление, в компании сказали, что Bard может делать нежелательные предложения по коду, но тем не менее это помогает программистам. Google также заявила, что стремится быть прозрачной в отношении ограничений своей технологии.

Google хочет избежать вреда для бизнеса от программного обеспечения, которое она выпустила для конкуренции с ChatGPT. На карту поставлены миллиарды долларов инвестиций и все еще неисчислимые доходы от рекламы и облачных вычислений от новых программ искусственного интеллекта.

Осторожность Google отражает становления стандартов безопасности для корпораций, а именно предупреждение персонала об использовании общедоступных чат-программ.

Microsoft отказалась комментировать, есть ли у нее полный запрет на ввод персоналом конфиденциальной информации в общедоступные программы искусственного интеллекта, в том числе в ее собственные.

Роман ПОПОВ