фото: https://pixabay.com/ru/
2023 жылы әлем бойынша Deepfake көмегімен жасалған алаяқтықтар саны бір жылда 31 есе, яғни 3000% өсті. Бұл туралы Onfido компаниясының (Identyty Fraud Report 2024) жеке мәліметтермен байланысты алаяқтықтар туралы есебінде жазылды. Компания бұл көрсеткіштің күрт өсуін арзан әрі қарапайым онлайн құралдардың көбеюімен және генеративті жасанды интелектің қолжетімді болуымен байланыстырып отыр. Осы орайда Deepfake арқылы жасалған суреттер мен видеоларды ажырата білу жолын ұсынамыз.
Алаяқтар қай кезде белсенді болады?
Onfido компаниясының мамандары соңғы бірнеше жылда жасанды интеллект көмегімен жасалатын алаяқтықтардың ортақ белгілері пайда болғанын айтады. Бұл ортақ белгілер қарапайым азаматтар мен үлкен кәсіпкерліктерге кибер шабуылдардан қорғануға көмектесуі мүмкін. Олар:
Маңызды ортақ көрсеткіштердің бірі – соңғы 5 жылда алаяқтықтың қай уақыт аралығында жиі жасалатынын анықтау мүмкін болды. Covid-19 пандемиясына дейін алаяқтар аптасына бес күн белсенді болып, демалысқа қарай жұмыс қарқынын бәсеңдететін. Ал пандемия шарықтау шегіне жеткен кезде алаяқтар шабуылы күрт өсті. Яғни алаяқтар демалыс күндері де белсенді бола бастаған. Осылайша соңғы бірнеше жылда алаяқтардың аптасына 7 күн бойы белсенді жұмыс істейтіні белгілі болды. Яғни жасанды интелекті іске қоса отырып жасалатын алаяқтық ғаламдық өзара бір-бірімен байланысы бар "ортақ іске" айналды.
Сондай-ақ алаяқтықтың бұл түрі жылына бірнеше рет үдей түсетін уақыт болады. Ол – ғаламдық оқиғамен байланысты сәт. Мысалы, 2021 жылы жазда Covid-19 карантинін алып тастаған кезде немесе 2022 жылы Ресей Федерациясы Украина Республикасына басып кіргенде. Қобалжу, жағдайды дұрыс бағамдай алмау және қаржылай қауіпсіздіктің болмауы – осы үшеуі алаяқтардың белсенді бола түсуіне әсер етеді.
Бұдан өзге алаяқтар жыл сайын желтоқсан, маусым-тамыз айлары арасында мереке күндері мемлекет шығысының көбеюін және халықаралық сапарлар санының артуын пайдаланып қалуға тырысады.
Яғни алаяқтар ақшаның соңынан жүреді және елдегі тәртіпсіздікті пайдаланады.
Алаяқтар DeepFake көмегімен не істей алады?
жеке тұлғаның банктегі шотына қол салып, ақша ұрлайды немесе атынан несие рәсімдейді;
қайтыс болған адамның деректерін ұрлап, оның атынан банкте онлайн операциялар жүргізеді;
ірі қаржы транзакциялары және несиемен байланысты күрделі алаяқтық схемаларын жүзеге асыру үшін жаңа адам "жасап шығарады";
танымал адамның атынан жалған видео жасап шығарып, көпшіліктен ақша ұрлайды;
суреттерді өңдеп, ақша бопсалайды;
елдер арасында араздық тудыру үшін жалған фото және видео таратады және т.б.
Іс жүзінде бұл қалай жүзеге асады?
Бастапқыда желі қолданушылары Deepfake құралын әзіл үшін пайдалана бастаған-ды. Алайда уақыт өте келе оның көмегімен жүзеге асқан ірі алаяқтықтар анықталды.
Мысалы, 2019 жылы Deepfake көмегімен жасалған алғашқы ірі алаяқтықтардың бірі тіркелді. Ұлыбританияда алаяқтар жасанды интеллект көмегімен ірі энергетикалық компания басшысының дауысын пайдалана отырып өз шоттарына шұғыл түрде 220 мың еуро аудартады. Алаяқтар қосымша төлем талап еткен кезде компания басшысы бір шикілік барын сезіп, тексеріс барысында хакерлік шабуыл жасалғаны анықталады. Алайда алаяқтарды табу және қаражатты қайтару мүмкін болмады.
Осы секілді әртүрлі жылдары көптеген алаяқтық фактілері тіркелді.
Қазақстанда Deepfake технологиясын қолдану арқылы жасалған алаяқтық фактілері туралы нақты статистикалық мәлімет жоқ. Дегенмен әлеуметтік желілерде президент Қасым-Жомарт Тоқаев, қазақстандық әзілкеш Нұрлан Сабуров, отандық инвестор, бизнесмен Марғұлан Сейсембаев, спортшы Шавкат Рахмонов атынан жалған хабарлар тараған болатын.
Фото не видеоның Deepfake көмегімен жасалғанын қалай анықтауға болады?
Массачусетс технологиялық институты (MIT) адамдарға фейктерді анықтауға көмектесетін Detect Fakes деп аталатын ғылыми жоба мен веб-сайтты іске қосты. MIT адамдарға бейненің фейк екенін анықтауға көмектесетін 8 сұрақ ұсынады. Сұрақтар негізінен бейнедегі нысанның қалай көрінетініне негізделген.
Егер арнайы арнайы құралдардың көмегіне жүгінуге ерінсеңіз, келесі белгілерге назар аударыңыз:
Қозғалыс кезінде адамның бет-жүзі өзгере ме?
Бет терісі тым таза немесе керісінше әжім көп пе? Тері, шаш, көз – барлығы бірдей қартайған ба?
Көз бен қас. Күткен жерде көлеңке бар ма? Deepfake көп жағдайда табиғи сәулелерді дәл бере алмайды.
Көзілдірік жалтырап тұр ма? Тым қатты жалтырап тұрған жоқ па? Адам қозғалған кезде жылтырайтын жер өзгере ме?
Беттегі түктер табиғи болып көріне ме? Жасанды интеллект мұрт, сақал, бакенбард қоя алады. Алайда түктерді табиғи етіп көрсете алмайды.
Беттегі қал табиғи болып көріне ме?
Адам көзін тым жиі ашып-жұма ма?
Еріннің көлемі мен түсіне назар аударыңыз. Ол беттің басқа бөліктеріне сай келе ме?
Бұдан өзге:
Суреттің масштабын үлкейтіп, мұқият қараңыз. Жасанды интеллект көмегімен құрастырылған суреттер бір қарағанда мінсіз болып көрінеді. Алайда суретті жақыннан қараған кезде бір-біріне сай келмейтін детальдарды байқайсыз.
Суреттің дереккөзін табу арқылы оның бірінші рет қайда жарияланғанын анықтай аласыз. Көп жағдайда суреттің астындағы пікірлер де көмектесіп жатады. Мұнымен қатар Google, TinEye немесе Яндекс арқылы суретті кері іздеп көрсеңіз болады.
Midjourney, DALL-E бастапқы кезде жасаған суреттерде адамдардың қолын дұрыс салмаған. Кейде адамның қолында алтыншы саусақ "өсіп шыққан" немесе төрт саусақ қана болған. Жасанды интеллект бойынша сарапшы Генри Адждер Midjourney секілді бағдарламалардың жаңа нұсқасы қол секілді дененің қиын бөліктерін дұрыс салып бастағанын ескертті.
Фонға назар аударыңыз. Фон мен суреттегі адам арасында мүлдем байланыс болмауы мүмкін. Сондай-ақ детальдардан қате кетеді.
Deepfake-терді қандай бағдарламаның көмегімен анықтауға болады?
Жасанды интеллект көмегімен құрастырылған фото мен видеоларды Deepware, Microsoft Video Authenticator және Hive AI Detector сканерлері анықтауға көмектеседі. Аталған қосымшалар фото мен видеоны сканерлеп, жалған немесе шынайы екенін тексеріп береді.
Hive AI Detector бағдарламасын пайдалану үшін оны орнату қажет болады. Ол фотоны тексеріп, пайыз түрінде қаншалықты шынайы немесе жалған екенін көрсетеді. Мысалы, Informburo.kz порталының "Пирамида құрылысының суреті: Жасанды интеллект қалай жалған ақпараттың көбеюіне жол ашты?" атты материалындағы келесі суретті тексеріп көрелік.
Яғни бұл суретті толығымен жасанды интеллект жасап шығарған.
Президент Қасым-Жомарт Тоқаевтың видеосын Deepware арқылы тексеріп көретін болсақ, нәтижесі келесідегідей:
ҚазАқпарат
Пікірлер
Комментарий қалдыру үшін порталға тіркеліңіз немесе кіріңіз
Авторизация через