фото: pixabay.com
IT мамандары мұндай аккаунттардың бір бөлігі алаяқтық схемаларға жұмыс істейтінін айтады.
Елімізде жасанды интеллект көмегімен жасалған желі жұлдыздары көбейіп барады. Олар күледі, сөйлейді, тіпті эмоция білдіреді. Бір қарағанда – кәдімгі блогер. Алайда экранның ар жағында мүлде басқа адам отыруы мүмкін, деп хабарлады 31 арнаның Информбюро ақпараттық бағдарламасы.
Сарапшылардың айтуынша, бүгінде дипфейк технологиясы шынайы адам мен жасанды бейнені ажыратуды қиындатқан. Нейрожелі бет-әлпетті бірнеше секундта өзгертіп, дауысты дәл көшіреді және қимылды синхрондай алады.
Сценарий жиі қайталанады: жалған профиль, онлайн таныстық, сенімге кіру және кейін қаржы сұрау. Сондай-ақ жасанды интеллект арқылы жасалған блогерлер "гив" ұйымдастырып, қаражат жинап, артынша аккаунтпен бірге жоғалып кететін жағдайлар да кездеседі.
Мамандардың сөзіне қарағанда, бір ғана фотосурет арқылы адамды кез келген ортада тұрғандай етіп көрсетуге болады. Сондықтан жалған бейнені анықтау барған сайын қиындап барады.
Қолданыстағы заңнамаға сәйкес, біреудің видеосын немесе бейнесін жасанды интеллект көмегімен өңдеп, рұқсатсыз жариялау – авторлық құқықты бұзу. Мұндай жағдайда айыппұл қарастырылған.
Сонымен қатар жасанды интеллектпен жасалған контент арнайы таңбалануға тиіс. Дегенмен жеке аккаунттарға жаппай бақылау жүргізілмейді. Қадағалау негізінен бизнес субъектілері мен платформаларға қатысты. Сарапшылар жасанды интеллектінің өзі қауіпті емес, басты мәселе – оны кім және қандай мақсатта пайдаланып отырғанында екенін айтты.
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через