„Deepfakes“ ir „AI“ sukurti vaizdo įrašai yra čia. Tačiau per pastaruosius kelerius metus jų kokybė ir kiekis išaugo, todėl daugelis žmonių nerimauja dėl nacionalinio saugumo ir asmeninio privatumo.

Vis dėlto, kad ir kaip anoniminiai interneto vartotojai stengtųsi, kad jų suklastotas vaizdo įrašas būtų tikroviškas, jie niekada negalėjo praeiti pro pažangią veido atpažinimo programinę įrangą. Iki dabar.

Kvailos veido atpažinimo API

Sungkyunkwan universiteto Suvone, Pietų Korėjoje, tyrėjai, išbandė dabartinės „deepfake“ technologijos kokybę. Jie išbandė „Amazon“ ir „Microsoft“ API, naudodami atvirojo kodo ir dažniausiai naudojamą „deepfake“ vaizdo įrašų generavimo programinę įrangą, kad pamatytų, kaip gerai jie veikia.

Tyrėjai panaudojo Holivudo įžymybių veidus. Norint sukurti tvirtus gilius sukčiavimus, programinei įrangai reikia daug aukštos kokybės vaizdų iš skirtingų tų pačių asmenų kampai, kuriuos daug lengviau įgyti įžymybėms, o ne paprastiems žmonių.

Tyrėjai taip pat nusprendė naudoti „Microsoft“ ir „Amazon“ API kaip savo tyrimo etalonus, nes abi bendrovės siūlo įžymybių veido atpažinimo paslaugas. Jie naudojo viešai prieinamus duomenų rinkinius ir sukūrė šiek tiek daugiau nei 8 000 gilių klastočių. Iš kiekvieno giliai suklastoto vaizdo įrašo jie išskyrė keletą veido nuotraukų ir pateikė klausimą API.

instagram viewer

Naudodami „Microsoft“ „Azure Cognitive Services“, tyrėjai sugebėjo apgauti sistemą 78 proc. „Amazon“ rezultatai buvo šiek tiek geresni, 68 proc. Pateiktų veidų buvo identifikuoti kaip tikri.

Ką apie „Deepfake“ detektorius?

„Deepfake“ detektoriai veikia beveik taip pat, kaip „deepfake“. Detektoriai yra programinė įranga, kuri buvo išmokyta naudojant mašininio mokymosi modelius, kaip aptikti giliai suklastotus vaizdo įrašus.

Tačiau užuot sutelkę dėmesį į hiperrealistinio vaizdo įrašo sukūrimą, kad suklaidintų detektorius, „deepfakes“ dabar į kiekvieną kadrą gali įtraukti prieštaringų pavyzdžių, kad suklaidintų AI sistemą. Tiesą sakant, tokio tipo gilių išpuolių sėkmės rodikliai svyruoja nuo 78 iki 99 proc.

Darosi blogiau

„Deepfakes“ yra mašinų mokymosi programa. Norėdami sukurti net įtikinamą vaizdą, jums reikia šimtų to paties žmogaus veido vaizdų iš skirtingų kampų ir įvairių emocijų.

Kadangi reikia didžiulių duomenų kiekių, galima būtų manyti, kad pavojus kyla tik tiems žmonėms, kurie yra daug internete, pavyzdžiui, įžymybėms ir politikams. Bet taip jau nebėra.

Anot „Deeptrace“, per metus - nuo 2019 m. Spalio iki 2020 m. Birželio - gilių klastotės internete padaugėjo 330 proc. Maža to, programinė įranga ir algoritmai, kuriuos naudoja „deepfake“ kūrėjai, tampa stipresni, lengviau prieinami ir prieinami.

Kam gresia „Deepfakes“?

Kai „deepfakes“ pirmą kartą tapo pagrindine, pagrindine buvo susirūpinta dėl privatumo ir nacionalinio saugumo. Žmonės bijojo, kad nebegalima pasitikėti vaizdo įrašais, kuriuose matyti politikai ir oficialūs valdžios darbuotojai.

Tačiau nors būtų neatsakinga nepaisyti giliai suklastotos saugumo rizikos, kelios apklausos parodė, kad gilių sukčių kūrėjai dar nėra tokie suinteresuoti trikdyti politiką. Didžiąją dalį internetinių vaizdo įrašų galima suskirstyti į dvi kategorijas: juokingus įžymybių interviu vaizdo įrašus ir filmus bei pornografinę medžiagą.

Nors neseniai atliktas tyrimas buvo atliktas naudojant įžymybių veidus, siekiant užtikrinti, kad giluminiai sukčiavimai būtų aukštos kokybės, kad suklaidintų API, tai nereiškia, kad negalite sukurti gilių suklastotų duomenų, turėdami mažiau duomenų. Žinoma, jie gali neturėti progos apgauti pažangias veido atpažinimo sistemas, tačiau jos gali būti pakankamai įtikinamos, kad apgautų kitus žmones.

Šiais laikais įtikinamai gali būti padaryta bet kokio socialinio buvimo asmenybė. Viskas, ko jiems reikia, yra kelios jūsų nuotraukos ir galbūt vaizdo įrašas, kuriame esate. Gautas „deepfake“ gali būti prastos kokybės, tačiau vis tiek tai galima padaryti ir gali pakenkti.

Ateitis vis dar nežinoma

Yra daug prieštaringų prognozių apie giluminių sukčiavimų būklę, nes jos netrukus neišnyks.

Kai kurie tikisi apokaliptinės kibernetinės ateities, kurioje negalėsite pasitikėti jokia internete filmuota medžiaga. Kiti nusiteikę optimistiškiau, lygindami sukčiavimą su animacija ir sakydami, kad tai gali turėti ateities kuriant turinį.

Dalintis„Tweet“Paštu
Kaip apsisaugoti nuo netikrų vaizdo įrašų

„Deepfakes“ vis labiau plinta. Štai kaip jie gali kelti grėsmę jūsų privatumui internete ir kaip išvengti jūsų įsisavinimo.

Skaityti toliau

Susijusios temos
  • Saugumas
  • internetas
  • Veido atpažinimas
  • Privatumas internete
  • Sauga internete
Apie autorių
Anina Ot (52 publikuoti straipsniai)

Anina yra laisvai samdoma „MakeUseOf“ technologijų ir interneto saugumo rašytoja. Prieš 3 metus ji pradėjo rašyti kibernetinio saugumo srityje, tikėdamasi, kad tai bus lengviau prieinama paprastam žmogui. Noras mokytis naujų dalykų ir didžiulis astronomijos vėpla.

Daugiau iš Anina Ot

Prenumeruokite mūsų naujienlaiškį

Prisijunkite prie mūsų naujienlaiškio, kad gautumėte techninių patarimų, apžvalgų, nemokamų el. Knygų ir išskirtinių pasiūlymų!

Norėdami užsiprenumeruoti, spustelėkite čia