Dirbtinis intelektas ir mašininis mokymasis gali daryti stebuklus – nuo meno kūrimo iki administratoriaus darbo automatizavimo. Tačiau jie taip pat kelia pavojų, nes gali įtikinti blogus aktorius tokiais triukais kaip „deepfake“.
Tobulėjant šiai technologijai, verta sužinoti, kaip iš tikrųjų veikia giliosios klastotės ir kas net norėtų jas naudoti – tiek teisėtai, tiek nelegaliai.
Kodėl svarbu suprasti, kaip ir kodėl naudojami gilūs klastotės
Pagrindinės giliųjų klastotės technologijos taikymo sritys daugiausia susijusios su juokinga, pornografine ar kinematografine medžiaga, tačiau tyrimas įrodė, kad gilios klastotės gali suklaidinti veido atpažinimą. Vien tai yra priežastis nerimauti ir apsisaugoti.
Kuo daugiau technologija naudojama kasdieniame gyvenime ir didelio masto projektuose, tuo geriau jos kūrėjai išmoks kurti vientisus netikrus žmonių vaizdo įrašus, nesvarbu, ar tai būtų įžymybės, ar šeimos nariai.
Supratimas kaip apsisaugoti nuo padirbtų vaizdo įrašų dabar yra būtina, atsižvelgiant į tai, kaip noriai pramonės įmonės naudojasi technologijų privalumais, ypač pramogų srityje.
Holivudas jį naudojo keliuose projektuose gerokai anksčiau „Metaphysic“ padirbtas AGT įrašas, kuris parodė pasauliui, koks greitas ir efektyvus gali būti „deepfake“ kūrimas. Štai ką apima procesas.
Kaip veikia „Deepfakes“?
Kalbant apie tai, kas slypi už gilių klastočių, pavadinime yra užuomina: gilus mokymasis, dirbtinių neuroninių tinklų (ANN) mokslas. Tai, ką jie daro naudojant giliai padirbtus algoritmus, sugeria duomenis, mokosi iš jų ir sukuria naujus duomenis veido išraiškų arba viso veido, uždėto ant jūsų, pavidalu.
Deepfake programinės įrangos kūrėjai paprastai naudoja vieną iš dviejų ANN tipų: automatinius koduotuvus arba generuojančius priešpriešinius tinklus (GAN).
Automatiniai kodavimo įrenginiai išmoksta atkartoti daugybę jiems teikiamų duomenų, daugiausia veidų ir išraiškų nuotraukų, ir atkurti prašomus duomenų rinkinius. Tačiau tai retai būna tikslios kopijos.
Kita vertus, GAN turi išmanesnę sistemą, kurią sudaro generatorius ir diskriminatorius. Pirmasis atkuria gautus duomenis į gilias klastotes, kurios vėliau turi suklaidinti antrąjį.
Diskriminatorius lygina generatoriaus kūrinius su tikrais vaizdais ir nustato jų efektyvumą. Žinoma, geriausi padirbiniai yra tie, kurie puikiai imituoja žmogaus elgesį.
Taigi, kaip naudojant šią technologiją gaminami padirbiniai? Tokių programų algoritmai kaip Reface ir DeepFaceLab nuolat mokosi iš per juos perduodamų duomenų, kad galėtų efektyviai koreguoti veido bruožus ir išraiškas arba perdengti vieną veidą ant kito.
Programinė įranga iš esmės yra vaizdo įrašų rengyklė, specialiai sukurta manipuliuoti veidais. Kai kurios programos yra sudėtingesnės nei kitos, tačiau viską galite padaryti nuo senėjimo iki filmų redagavimo.
Tačiau technologija vis dar turi trūkumų. Deepfake kūrimas gali būti sudėtingesnis nei kaip kuriami netikri tiesioginiai vaizdo įrašai, tačiau jį aptikti gali būti taip pat paprasta, kaip ir klaidingą.
Kaip atpažinti gilų klastotę
Kadangi padirbiniai daugiausia gaminami mašinomis, skaitmeninio veido bruožai ar manieros ne visada atrodo natūraliai. Vaizdo įrašo sąrankoje taip pat gali būti klaidų. Kitaip tariant, galite pasakyti netikrą filmuotą medžiagą, jei žinote, ko ieškoti.
Štai keli įspėjamieji ženklai:
- Nenatūralus mirksėjimas: Mašininis mokymasis dažnai nepastebi mirksėjimo arba atrodo nepatogiai.
- Neryškios arba nestabilios funkcijos: Kieno nors plaukai, burna ar smakras gali būti šiek tiek neryškūs arba judėti keistai, dažnai perdėtai.
- Emocijų trūkumas arba klaidingas jų pateikimas: Prastos gilios klastotės yra abejingos arba blogai imituoja emocijas.
- Nepatogi kūno kalba: jei asmuo vaizdo įraše judina galvą ar kūną iškreiptai arba nenuosekliai, tai gali būti klastotė.
- Netinkamos spalvos ir apšvietimas: spalvos pakitimai, nepaaiškinamos šviesos ir šešėliai yra tikri netikro vaizdo įrašo požymiai.
- Nenuoseklūs objektai: koreguojant vaizdo įrašą giliai padirbta programinė įranga gali padaryti klaidų, pvz., pakeisti drabužių, papuošalų ir fono elementų formą.
- Blogas garsas: Deepfake gali iškraipyti kalbą ir garsus vaizdo įraše.
Išnaudoti, kiek galima gilių klastotės aptikimo būdai sužinoję, kam tokie vaizdo įrašai paprastai kuriami, ir atidžiai stebėdami internete matomos filmuotos medžiagos detales – jei įmanoma, sulėtinkite tai.
Be to, kuriama vis daugiau įrankių, pvz Microsoft Authenticator ir Sensity's Kriminalistinis gilus klastočių aptikimas, kurie analizuoja vaizdo įrašus minutės lygiu.
Kas naudoja „Deepfakes“?
Filmų kūrėjai vis dažniau naudoja gilias klastotes, kad sendintų arba pakeistų aktorių veidus, kaip tai daroma „Žvaigždžių karuose“. Menininkai sugeba animuoti portretus ir priversti juos kalbėti bei dainuoti.
Rinkodaros specialistai eksperimentuoja su „deepfake“ technologija reklaminiam turiniui, kuriam nereikia samdyti aktorių. Tokios įmonės kaip WPP taip pat taiko savo mokymo vaizdo įrašams.
Technikai paprastai kuria juokingus vaizdo įrašus, kuriuose apsikeičia veidais su draugais arba populiariuose filmuose perkelia vieną aktorių į kitą. Sylvesteris Stallone perėmė filmą „Vienas namuose“, o Heatho Ledgerio Džokeris pasirodė filme „Riterio pasaka“.
Deja, jei išsiaiškinsite, kam dar naudojama giliosios klastotės technologija, rasite daug kenkėjiškų atvejų. Deepfake kūrėjai mėgsta skleisti dezinformaciją ir įžeidžiančias žinutes, taip pat nukreipti į įžymybes ir įtraukti jas į suaugusiems skirtus filmus. Žmonės net šantažuojami netikra medžiaga.
Dabartinė nežabota forma „deepfake“ yra rizikos žmonių privatumo teisėms, saugumui, sinonimas. ir net autorių teisės, pavyzdžiui, kai algoritmas aiškiai naudoja nuotrauką ar meno kūrinį ne viešai prieinama.
Štai kodėl šalys ir prekių ženklai pakiša koją. Remiantis 2021 m Kibernetinių pilietinių teisių iniciatyvos žemėlapis JAV įstatymų dėl padirbtų kūrinių, keturios valstijos dabar griežtai riboja paskelbtus giliai padirbtus vaizdo įrašus, kuriuose kas nors vaizduojamas atvirai ar kitaip žalingai.
Kinija taip pat imasi veiksmų, siekdama kriminalizuoti gilius klastojimus, kurie kenkia žmonėms ir visuomenei, pažeidžiant asmens teises ar skleidžiant netikras naujienas. Netgi paskelbė Meta 2020 m., kad klaidinantys, manipuliuojami vaizdo įrašai nebuvo laukiami.
Be reguliavimo, oficialios institucijos visame pasaulyje siekia geriau išaiškinti ir užkirsti kelią netikriems nusikaltimams. The Rathenau instituto pranešimas Apie tai, kaip Europos politikoje turėtų būti elgiamasi su giliomis klastotėmis, pritariama programinei įrangai, tokiai kaip garsiakalbių ir veido atpažinimas, balso gyvumo aptikimas ir veido bruožų analizė.
Sužinokite, kaip „Deepfake“ veikia, kad jus suklaidintų
„Deepfake“ jau tapo įprasta, tiek gerai, tiek blogai. Taigi, mėgaukitės juokingais ir įkvepiančiais vaizdo įrašais, ruošdamiesi kovoti su bet kokiais kenkėjiškais.
Galų gale, kas yra toks gilus klastojimas, kaip šis, bet įrankis, skirtas jus apgauti? Jei žinai, ko ieškoti ir kaip reaguoti, jis turi mažiau galios tau.
Pavyzdžiui, galėsite pastebėti gilias klastotes socialinėje žiniasklaidoje kartu su netikromis naujienomis ir paskyromis ir išvengti dezinformacijos, sukčiavimo bandymų ir kt. Tobulėjant gilaus padirbinėjimo aptikimo ir prevencijos technologijoms, gausite daugiau paramos.