фото: https://pixabay.com/
Chatgpt ai мультфильмінің флешмобы алаяқтарға сыйлық бола алады, деп ескертеді сарапшылар
Жасанды интеллектуалды чатботтарға жүктелген суреттер шексіз сақталуы мүмкін және біреудің қолына түскеннен кейін жеке тұлғаның өзгеруіне, алаяқтыққа және әлеуметтік желілерде жалған аккаунттар құруға әкелуі мүмкін.
Жасанды интеллект жасаған және бір жарқын суретте адам туралы чатбот білетін барлық нәрсені көрсететін мультфильмдердің сәні қауіпсіздікке үлкен қауіп төндіруі мүмкін, деп ескертеді киберқауіпсіздік мамандары.
Пайдаланушылар өздерінің фотосуреттерін, көбінесе компанияның логотипімен немесе лауазымымен жүктейді және OpenAI-ден ChatGPT-тен олар туралы білетін барлық чат-боттарды қолдана отырып, карикатура мен олардың жұмысын жасауды сұрайды.
Киберқауіпсіздік сарапшылары Euronews Next-ке әлеуметтік желілердегі осындай челлендждер, соның ішінде АИ мультфильмдері бар челлендждер алаяқтар үшін құнды ақпараттың нағыз қазынасы болуы мүмкін екенін айтты. Жеке деректермен біріктірілген бір сурет адам туралы өзі ойлағаннан да көп нәрсені айта алады.
Пайдаланушылардың жасын тексеретін Daon компаниясының вице-президенті Боб Лонг:" сіз алаяқтардың жұмысын жасайсыз, оларға сіздің кім екеніңіз туралы нақты түсінік бересіз", - дейді.
Оның айтуынша, тұжырымдаманың өзі қазірдің өзінде алаңдатуы керек, өйткені "оны мүмкіндігінше жеңілдеткісі келетін алаяқ әдейі бастаған сияқты".
Жүктелгеннен кейін суреттерде не болады
Пайдаланушы суретті жасанды интеллектуалды чатботқа жіберген кезде, жүйе оны адамның эмоциясы, орналасқан жері немесе орналасқан жері туралы ақпарат сияқты деректерді алу арқылы талдайды, деп түсіндіреді киберқауіпсіздік жөніндегі кеңесші Джейк Мур. Бұл ақпаратты жүйеде шексіз сақтауға болады.
Жиналған кескіндерді олардың деректер жиынтығының бөлігі ретінде ai негізіндегі кескін генераторларын оқыту үшін пайдалануға және сақтауға болады, деді Лонг.
OpenAI сияқты компаниядағы деректердің бұзылуы құпия ақпараттың, жүктелген суреттердің және чатбот жинаған жеке деректердің зиянкестердің қолында болуына және оларды пайдалануға әкелуі мүмкін.
ChatGPT-те жарнамалар пайда болады: пайдаланушылар нені білуі керек
Біреудің қолында жоғары ажыратымдылықтағы бір сурет жалған әлеуметтік медиа аккаунттарын немесе жасанды интеллектке негізделген терең фейктерді жасау үшін жеткілікті, содан кейін оларды алаяқтық схемаларда қолдануға болады, дейді киберқауіпсіздік саласында жұмыс істейтін израильдік Check Point компаниясының Корпоративтік жетекшісі Шарлотта Уилсон.
"Селфи қылмыскерлерге жаппай схемалардан жеке тұлғаны ауыстыру бойынша жекелендірілген, мүмкіндігінше сенімді алаяқтыққа көшуге мүмкіндік береді", - дейді ол.
OpenAI құпиялылық бөлімінде жүктелген кескіндерді модельді жақсарту үшін, соның ішінде оны оқыту үшін пайдалануға болады делінген. Құпиялылық параметрлері туралы сұраққа жауап бере отырып, ChatGPT бұл әр фотосуретті қоғамдық базаға орналастыруды білдірмейтінін түсіндірді.
Чатботтың айтуынша, жүйе кескіндерді дәлірек жасау үшін суреттердің өзін емес, пайдаланушы жасаған мазмұндағы үлгілерді пайдаланады.
Егер сіз AI трендтеріне қатысқыңыз келсе, өзіңізді қалай қорғауға болады
Трендті ұстанғысы келетіндерге сарапшылар жарияланған ақпарат көлемін мүмкіндігінше шектеуге кеңес береді.
"Фотосуретті мүмкіндігінше тығыз етіп кесіңіз, бейтарап Фон қалдырыңыз және төсбелгілерді, формаларды, шілтердегі жұмыс билеттерін, түсірілім орнын немесе сізді жұмыс берушімен немесе әдеттегі тәртіппен байланыстыратын кез келген мәліметтерді көрсетпеңіз", - деп кеңес береді ол.
Ол сондай-ақ чатбот сұрауларында тым ашық болудан сақтандырады: лауазымның нақты атауын, тұрғылықты жерін немесе жұмыс берушіні көрсетпеңіз.
Мур өз кезегінде мұндай әрекеттерге қатыспас бұрын құпиялылық параметрлерін, соның ішінде ai-ны оқыту үшін деректерді пайдалануға тыйым салу мүмкіндігін тексеруді ұсынады.
OpenAI-де "do not train on my content"опциясын таңдау арқылы пайдаланушылар өз деректерін оқу үшін пайдаланудан бас тарта алатын арнайы құпиялылық порталы бар.
Сондай-ақ, пайдаланушылар ChatGPT-пен мәтіндік диалогқа негізделген оқытуға тыйым сала алады, "әр адамға арналған модельді жетілдіру"параметрін өшіре алады.
ЕО заңнамасы бойынша пайдаланушылар компания жинаған дербес деректерін жоюды талап етуге құқылы. Алайда, OpenAI алаяқтықпен, қиянатпен және қауіпсіздік қатерлерімен күресу үшін жойылғаннан кейін де кейбір ақпаратты сақтай алатынын ескертеді.
Дерек көзі: https://ru.euronews.com
Авторлық құқық Canva / ChatGPT
Пікірлер
Комментарий қалдыру үшін порталға тіркеліңіз немесе кіріңіз
Авторизация через