OpenAI опубликовала на своём официальном сайте ответ на открытое письмо с призывом на полгода приостановить разработку ИИ, передает портал Качественный Казахстан. Этот призыв подписали более тысячи специалистов, а также Илон Маск и Стив Возняк.
OpenAI обосновали, почему развитие нейросетей в прежнем темпе не несет никаких опасностей. Разработчики перечислили принимаемые меры безопасности. Например, по их утверждению, GPT-4 создали полгода назад. Но не выпускали в свет, тестируя и выявляя его слабые стороны. Причем привлекали для этого также и сторонних экспертов для объективной оценки. В OpenAI подчеркнули, что держат постоянную связь с правительством, чтобы лучше регулировать ИИ.
«Невозможно заочно предсказать все положительные и отрицательные способы использования какой-либо технологии, поэтому важно извлекать уроки из её реального применения», — заявили в компании.
В противном случае, говорят разработчики, уровень безопасности ИИ будет снижаться. Например, модификация GPT-4 генерирует недопустимый контент на 82% меньше, чем вариант GPT-3.5. И без пользовательского тестирования это было бы невозможно.
«OpenAI будет проявлять всё большую осторожность в создании и развёртывании более продвинутых моделей, и будет продолжать улучшать меры безопасности по мере развития своих систем искусственного интеллекта», — резюмировали разработчики.
То же самое касается ложной информации, которую ИИ выдает за истинную. Без пользователей определить «вранье» нейросети невозможно, поэтому останавливать ее развитие будет нерационально.
Роман Попов
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через