Visi mano, kad gali pastebėti netikrą vaizdo įrašą, tačiau sparčiai tobulėjant technologijoms, įskaitant dirbtinio intelekto įrankius, aptikti netikrą vaizdo įrašą tampa sunkiau nei bet kada anksčiau.

Key Takeaways

  • Gilūs klastotės kelia didelę grėsmę visuomenei, įskaitant dezinformacijos skleidimą, kenkia reputacijai apsimetinėjant ir konflikto dėl nacionalinio saugumo kurstymą.
  • Nors dirbtinio intelekto technologija siūlo giliųjų klastotės aptikimo įrankius, jie nėra tobuli, o žmogaus diskrecija išlieka labai svarbi nustatant gilias klastotes.
  • Žmonės ir dirbtinio intelekto aptikimo įrankiai turi skirtingas stipriąsias ir silpnąsias puses nustatydami gilius klastojimus ir jų gebėjimų derinimas gali pagerinti sėkmės rodiklius nustatant ir sušvelninant giluminio klastojimo pavojus technologija.

Deepfalse kelia grėsmę kiekvienam visuomenės aspektui. Mūsų gebėjimas atpažinti netikrą turinį yra labai svarbus siekiant panaikinti dezinformaciją, tačiau tobulėjant AI technologijai, kuo galime patikėti aptikti gilias klastotes: žmogui ar mašinai?

instagram viewer

Gilių klastočių pavojai

AI technologijai tobulėjant, gilių klastočių pavojus kelia vis didesnę grėsmę mums visiems. Štai trumpa kai kurių aktualiausių gilių klastočių keliamų problemų santrauka:

  • Dezinformacija: Suklastoti vaizdo įrašai ir balso įrašai gali skleisti dezinformaciją, pvz., netikras naujienas.
  • Apsimetinėjimas: Apsimetinėdami asmenimis, gilios klastotės gali pakenkti žmonių reputacijai arba apgauti visus, kuriuos jie pažįsta.
  • Nacionalinė apsauga: Akivaizdus pasaulio pabaigos scenarijus su giliomis klastotėmis yra sukurta filmuota medžiaga arba garso įrašas, kuriame užfiksuotas pasaulinio lyderio, kurstančio konfliktą.
  • Pilietiniai neramumai: Šalys taip pat gali naudoti apgaulingą filmuotą medžiagą ir garsą, kad kurstytų pyktį ir pilietinius neramumus tarp konkrečių grupių.
  • Kibernetinė sauga: Kibernetiniai nusikaltėliai jau naudoja dirbtinio intelekto balso klonavimo įrankius, kad nukreiptų į asmenis įtikinamomis žinutėmis iš pažįstamų žmonių.
  • Privatumas ir sutikimas: Piktybiškai naudojant gilius klastojimus, asmenys atrodo panašūs į asmenis be jų sutikimo.
  • Pasitikėjimas ir pasitikėjimas: Jei negalite atskirti tiesos nuo apgaulės, tiksli informacija tampa tokia pat nepatikima.

Deepfake tik dar labiau įtikins, todėl mums reikia patikimų įrankių ir procesų jiems aptikti. AI teikia vieną iš tokių įrankių giliųjų klastotės aptikimo modelių forma. Tačiau kaip algoritmai, sukurti AI sukurtam rašymui nustatyti, gilios klastotės aptikimo įrankiai nėra tobuli.

Šiuo metu žmogaus diskrecija yra vienintelė priemonė, kuria galime pasikliauti. Taigi, ar mes geriau nei algoritmai identifikuodami gilius klastojimus?

Ar algoritmai gali aptikti gilias klastotes geriau nei žmonės?

Deepfake yra pakankamai rimta grėsmė, todėl technologijų gigantai ir tyrimų grupės skiria didžiulius išteklius tyrimams ir plėtrai. 2019 m. tokios įmonės kaip „Meta“, „Microsoft“ ir „Amazon“ pasiūlė 1 000 000 USD prizų. Deepfake Detection Challenge Norėdami gauti tiksliausią aptikimo modelį.

Didžiausio našumo modelio tikslumas buvo 82,56 %, palyginti su viešai pasiekiamų vaizdo įrašų duomenų rinkiniu. Tačiau, kai tie patys modeliai buvo išbandyti su „juodosios dėžės duomenų rinkiniu“, sudarytu iš 10 000 neregėtų vaizdo įrašų, geriausio modelio tikslumas buvo tik 65,18 %.

Taip pat turime daugybę tyrimų, kuriuose analizuojamas AI giliųjų klastotės aptikimo įrankių veikimas prieš žmones. Žinoma, skirtingų tyrimų rezultatai skiriasi, tačiau paprastai žmonės yra lygūs arba pranoksta giliųjų klastotės aptikimo įrankių sėkmės rodiklį.

Vienas tyrimas, paskelbtas 2021 m PNAS nustatė, kad „paprasti žmonių stebėtojai“ pasiekė šiek tiek didesnį tikslumo rodiklį nei pagrindiniai giliųjų klastotės aptikimo įrankiai. Tačiau tyrimas taip pat parodė, kad žmonės ir AI modeliai buvo jautrūs įvairių tipų klaidoms.

Įdomu tai, kad tyrimai, kuriuos atliko Sidnėjaus universitetas pastebėjo, kad žmogaus smegenys nesąmoningai veiksmingiau aptinka gilias klastotes nei mūsų sąmoningos pastangos.

Vizualinių užuominų aptikimas giliuose klastotėse

Giliųjų klastotės aptikimo mokslas yra sudėtingas, o reikalinga analizė skiriasi priklausomai nuo filmuotos medžiagos pobūdžio. Pavyzdžiui, liūdnai pagarsėjęs Šiaurės Korėjos lyderio Kim Jong-uno vaizdo įrašas nuo 2020 m. iš esmės yra kalbančios galvos vaizdo įrašas. Šiuo atveju veiksmingiausias giliųjų klastotės aptikimo metodas gali būti vizemų (burnos judesių) ir fonemų (fonetinių garsų) neatitikimų analizė.

Žmonių ekspertai, atsitiktiniai žiūrovai ir algoritmai gali atlikti tokią analizę, net jei rezultatai skiriasi. The MIT apibrėžia aštuonis klausimus, kurie padės identifikuoti netikrus vaizdo įrašus:

  • Atkreipkite dėmesį į veidą. Aukštos klasės DeepFake manipuliacijos beveik visada yra veido transformacijos.
  • Atkreipkite dėmesį į skruostus ir kaktą. Ar oda atrodo per lygi ar per daug raukšlėta? Ar odos senėjimas panašus į plaukų ir akių senėjimą? DeepFakes kai kuriais matmenimis gali nesutapti.
  • Atkreipkite dėmesį į akis ir antakius. Ar šešėliai atsiranda tose vietose, kurių tikitės? DeepFakes gali visiškai neatspindėti natūralios scenos fizikos.
  • Atkreipkite dėmesį į akinius. Ar yra blizgesio? Ar yra per daug akinimo? Ar keičiasi akinimo kampas žmogui judant? Vėlgi, „DeepFakes“ gali visiškai neatspindėti natūralios apšvietimo fizikos.
  • Atkreipkite dėmesį į veido plaukus arba jų trūkumą. Ar šie veido plaukai atrodo tikri? „DeepFakes“ gali pridėti arba pašalinti ūsus, nugarą ar barzdą. Tačiau „DeepFakes“ gali nepadaryti visiškai natūralių veido plaukų transformacijų.
  • Atkreipkite dėmesį į veido apgamus. Ar apgamas atrodo tikras?
  • Atkreipkite dėmesį į mirksėjimą. Ar žmogus mirksi pakankamai ar per daug?
  • Atkreipkite dėmesį į lūpų judesius. Kai kurios gilios klastotės yra pagrįstos lūpų sinchronizavimu. Ar lūpų judesiai atrodo natūraliai?

Naujausi AI giluminio padirbinėjimo aptikimo įrankiai vėlgi gali analizuoti tuos pačius veiksnius su skirtinga sėkme. Duomenų mokslininkai taip pat nuolat kuria naujus metodus, pavyzdžiui, aptinka natūralią kraujotaką ekrano garsiakalbių veiduose. Nauji metodai ir esamų patobulinimai gali lemti, kad dirbtinio intelekto padirbinėjimo aptikimo įrankiai ateityje nuolat pranoktų žmones.

Garso įkalčių aptikimas „Deepfakes“.

Aptikti netikrą garsą yra visiškai kitoks iššūkis. Be vaizdinių vaizdo užuominų ir galimybės atpažinti audiovizualinius neatitikimus, deepfake aptikimas labai priklauso nuo garso analizės (kai kuriais atvejais gali padėti ir kiti metodai, pvz., metaduomenų tikrinimas atvejų).

Tyrimą paskelbė Londono universiteto koledžas 2023 m. buvo nustatyta, kad žmonės 73 % laiko gali aptikti netikrą kalbą (anglų ir mandarinų kalbomis). Kaip ir suklastotų vaizdo įrašų atveju, žmonių klausytojai dažnai intuityviai aptinka nenatūralius kalbos modelius dirbtinio intelekto sukurtoje kalboje, net jei negali nurodyti, kas atrodo netinkama.

Įprasti ženklai apima:

  • Smurtavimas
  • Išraiškos trūkumas
  • Fono arba trukdžių triukšmas
  • Balso ar kalbos nenuoseklumas
  • Trūksta „pilnumo“ balsuose
  • Per daug scenarijų pristatymas
  • Trūkumų trūkumas (klaidingas paleidimas, pataisymai, gerklės išvalymas ir kt.)

Vėlgi, algoritmai taip pat gali analizuoti kalbą, kad gautų tuos pačius padirbtus signalus, tačiau nauji metodai daro įrankius veiksmingesnius. Tyrimą atliko USENIX nustatė AI balso takų rekonstrukcijos modelius, kurie nesugeba imituoti natūralios kalbos. Jame apibendrinama, kad dirbtinio intelekto balso generatoriai sukuria garsą, atitinkantį siaurus balso traktus (maždaug geriamojo šiaudelio dydžio) be natūralių žmogaus kalbos judesių.

Ankstesni tyrimai iš Horst Görtz institutas išanalizavo autentišką ir gilų padirbtą garsą anglų ir japonų kalbomis, atskleidė subtilius tikrosios kalbos ir gilių klastotės aukštesnių dažnių skirtumus.

Žmonių klausytojai ir AI aptikimo modeliai pastebimi tiek balso trakto, tiek aukšto dažnio neatitikimai. Esant aukšto dažnio skirtumams, AI modeliai teoriškai gali tapti vis tikslesni, nors tą patį galima pasakyti ir apie AI giliuosius klastojimus.

Žmones ir algoritmus apgaudinėja gilios klastotės, tačiau skirtingais būdais

Tyrimai rodo, kad žmonės ir naujausi AI aptikimo įrankiai taip pat gali atpažinti gilius klastotes. Sėkmės rodikliai gali svyruoti nuo 50% iki 90+%, priklausomai nuo testo parametrų.

Be to, žmonės ir mašinos taip pat apgaudinėjami giliųjų klastotėmis panašiu mastu. Tačiau labai svarbu, kad esame jautrūs įvairiais būdais, ir tai gali būti didžiausias mūsų turtas kovojant su padirbtų technologijų keliamais pavojais. Sujungus žmonių stipriąsias puses ir giliųjų klastotės aptikimo įrankius, sušvelninsite kiekvieno iš jų trūkumus ir pagerinsite sėkmės rodiklius.

Pavyzdžiui, MIT Tyrimai parodė, kad žmonės geriau atpažįsta pasaulio lyderių ir žinomų žmonių klastotes nei AI modeliai. Ji taip pat atskleidė, kad dirbtinio intelekto modeliai susidūrė su filmuota medžiaga su keliais žmonėmis, nors manoma, kad tai galėjo atsirasti dėl algoritmų, kurie buvo mokomi filmuojant filmuotą medžiagą su atskirais garsiakalbiais.

Ir atvirkščiai, tame pačiame tyrime nustatyta, kad dirbtinio intelekto modeliai pralenkė žmones su žemos kokybės filmuota medžiaga (neryškia, grūdėta, tamsia ir pan.), kurią galima tyčia panaudoti apgaudinėti žiūrovus. Taip pat naujausi AI aptikimo metodai, tokie kaip kraujotakos stebėjimas tam tikrose veido srityse, apima analizę, kurios žmonės negali atlikti.

Tobulėjant metodams, dirbtinio intelekto gebėjimas aptikti ženklus, kurių negalime, tik gerės, bet ir gebėjimas apgauti. Didelis klausimas yra tai, ar giliųjų padirbinių aptikimo technologija ir toliau aplenks pačius gilius padirbinius.

Deepfakes amžiuje pamatyti dalykus kitaip

AI giliųjų padirbinių aptikimo įrankiai ir toliau tobulės, kaip ir paties giliai padirbto turinio kokybė. Jei dirbtinio intelekto gebėjimas apgauti pranoksta jo gebėjimą aptikti (kaip tai daroma naudojant dirbtinio intelekto sukurtą tekstą), žmogaus diskrecija gali būti vienintelė priemonė, kurią turime kovojant su giliais klastotėmis.

Kiekvienas yra atsakingas už tai, kad išmoktų gilių klastočių požymius ir kaip juos pastebėti. Be apsisaugojimo nuo sukčiavimo ir saugumo grėsmių, viskas, apie ką diskutuojame ir dalijamės internete, yra pažeidžiama dezinformacijos, jei prarandame tikrovės suvokimą.