Facebook-тің Deepfake технологиясы бізді құтқармайды дейді сарапшылар

Мазмұны:

Facebook-тің Deepfake технологиясы бізді құтқармайды дейді сарапшылар
Facebook-тің Deepfake технологиясы бізді құтқармайды дейді сарапшылар
Anonim

Негізгі ұсыныстар

  • Deepfake жасау оңай болған сайын, оларды анықтаудың жаңа және жетілдірілген тәсілдері басымдыққа айналды.
  • Facebook-тің терең фейкті анықтау технологиясы бейненің терең фейк екенін немесе жоқтығын анықтау үшін кері машиналық оқытуды пайдаланады.
  • Сарапшылардың айтуынша, блокчейн технологиясын пайдалану бейненің шынайы немесе шынайы емес екенін анықтаудың ең жақсы жолы болады, өйткені әдіс контекстік деректерге негізделген.
Image
Image

Facebook терең фейкпен күресу үшін машиналық оқыту моделіне сенімді, бірақ сарапшылардың айтуынша, машиналық оқыту өздігінен бізді терең фейктерге алданып қалудан сақтай алмайды.

Facebook, Microsoft және Google сияқты компаниялар интернетте және әлеуметтік желілерде таралмайтын терең фейкпен күресуде. Әдістер әртүрлі болғанымен, бұл жалған бейнелерді анықтаудың бір ықтимал әдісі бар: блокчейндер.

“[Блокчейндер] сізге терең фейкті тексерудің үлкен мүмкіндіктерін береді, бұл мен көріп тұрған валидацияның ең жақсы түрі,” Стивен Вольфрам, Wolfram Research негізін қалаушы және бас директоры және A New Kind of авторы. Бұл туралы Lifewire телефон арқылы Science хабарлады.

Facebook-тің терең фейктерді анықтау технологиясы

Deepfake технологиясы соңғы бірнеше жылда жылдам дамыды. Жалған бейнелер біреудің бетін басқа адамның денесіне қою, фондық жағдайларды өзгерту, жалған ерін синхрондау және т.б. әрекеттерді орындау үшін машинада оқыту әдістерін пайдаланады. Олар зиянсыз пародиялардан атақты адамдарға немесе қоғам қайраткерлеріне өздері жасамаған нәрсені айтуға немесе жасауға дейін барады.

Сарапшылар технологияның жылдам дамып келе жатқанын және технология кеңінен қолжетімді және жаңашыл болған сайын терең фейктердің сенімдірек (және жасау оңайырақ) болатынын айтады.

Image
Image

Facebook жақында Мичиган штатының университетімен серіктестікте өзінің терең жалғанды анықтау технологиясы туралы көбірек түсінік берді. Әлеуметтік желі жасанды интеллект арқылы жасалған бір кескіннен оны жасау үшін пайдаланылатын генеративті үлгіге дейінгі кері инженерияға негізделгенін айтады.

Facebook-пен жұмыс істеген зерттеуші ғалымдар бұл әдіс терең фейк жасау үшін қолданылатын AI моделінің артындағы бірегей үлгілерді ашуға негізделгенін айтты.

“Ашық жиынтық тану үшін кескін атрибуциясын жалпылау арқылы біз терең фейк жасау үшін пайдаланылған генеративті модель туралы қосымша ақпаратты қорытындылай аламыз, ол бұрын көрмегенін танудан асып түседі. Сондай-ақ, терең фейктердің топтамасының үлгілері арасындағы ұқсастықтарды бақылай отырып, біз суреттер сериясының бір көзден шыққанын да анықтай аламыз », - деп жазды зерттеуші ғалымдар Си Инь және Тан Хасснер Facebook блогында оның терең фейктерді анықтау әдісі туралы жазбасында.

Image
Image

Вольфрамның айтуынша, AI-ның жетілдірілген үлгісін (терең фейк) анықтау үшін машиналық оқытуды қолданудың мағынасы бар. Дегенмен, технологияны алдауға әрқашан орын бар.

«Мен [deepfakeлерді анықтаудың] лайықты машиналық оқыту әдісі бар екеніне таң қалмаймын», - деді Вольфрам. «Жалғыз сұрақ: егер сіз жеткілікті күш жұмсасаңыз, оны алдауға болады ма? Мен сенің қолыңнан келетініне сенімдімін.”

Deepfakes-пен күресу басқаша

Оның орнына Вольфрам блокчейнді пайдалану терең фейктердің белгілі бір түрлерін дәл анықтаудың ең жақсы нұсқасы деп санайтынын айтты. Оның машиналық оқытуда блокчейнді пайдалану туралы пікірі 2019 жылдан басталады және ол, сайып келгенде, blockchain тәсілі біздің терең фейк мәселемізге дәлірек шешім бере алатынын айтты.

«Мен кескіндер мен бейнелерді көрушілер блокчейндерді (және «деректерді триангуляциялауды») жүйелі түрде тексеретін болады деп күтемін, бұл веб-браузерлердің қауіпсіздік сертификаттарын тексеретіні сияқты», - деп жазды Вольфрам Scientific American журналында жарияланған мақаласында.

Блокчейндер деректерді хронологиялық ретпен тізбектелген блоктарда сақтайтындықтан және орталықтандырылмаған блокчейндер өзгермейтін болғандықтан, енгізілген деректер қайтымсыз.

Жалғыз сұрақ: егер сіз жеткілікті күш жұмсасаңыз, оны алдай аласыз ба? Қолыңыздан келетініне сенімдімін.

Вольфрам бейнені блокчейнге қою арқылы сіз оның түсірілген уақытын, орналасқан жерін және оның қандай да бір жолмен өзгертілгенін анықтауға мүмкіндік беретін басқа контекстік ақпаратты көре алатыныңызды түсіндірді.

«Жалпы, суретті немесе бейнені контексттендіретін метадеректер неғұрлым көп болса, соғұрлым оны айта алуыңыз ықтимал», - деді ол. “Сіз блокчейнде жалған уақыт жасай алмайсыз.”

Алайда, Вольфрамның айтуынша, қолданылатын әдіс – бұл машинада оқыту немесе блокчейнді пайдалану – сіз қорғағыңыз келетін терең фейк түріне байланысты (яғни, Ким Кардашьянның ақымақ нәрсе айтқан бейнесі немесе бейнеролик) мәлімдеме немесе ұсыныс жасап жатқан саясаткер).

«Блокчейн әдісі белгілі бір терең фейк түрлерінен қорғайды, сол сияқты машиналық оқыту кескінді өңдеу кейбір терең жалғандықтардың белгілі бір түрінен қорғайды», - деді ол.

Төменгі мәселе, келе жатқан терең су тасқынымен күресуге келгенде бәріміз үшін қырағылық сияқты.

Ұсынылған: