Su „Deepfake“ technologija gali būti smagu žaisti, tačiau jos galimybė pakenkti yra didelė. Štai ką gali duoti gilių klastotės ateitis.

Anksčiau buvo nesunku pastebėti įspėjamuosius giliai suklastoto vaizdo ženklus, tačiau generuojantis AI verčia mus suabejoti beveik viskuo, ką dabar matome ir girdime. Su kiekvienu nauju išleidžiamu dirbtinio intelekto modeliu, netikro vaizdo signalinių ženklų mažėja, todėl sumaišties, dabar galite kurti netikrus vaizdo įrašus, savo artimųjų balso klonus ir kurti netikrus straipsnius sekundžių.

Kad neapgautumėte dirbtinio intelekto klastotės, verta žinoti, kokį pavojų jie kelia.

Deepfakes evoliucija

Deepfake rodo, kad žmogus daro tai, ko niekada nebuvo realiame gyvenime. Tai visiškai netikra. Mes juokiamės iš gilių klastotės, kai jais dalijamasi internete kaip memu ar pokštu, tačiau tik nedaugeliui žmonių būna juokinga, kai jie įpratę mus suklaidinti.

Anksčiau gilios klastotės buvo kuriamos darant esamą nuotrauką ir ją pakeičiant vaizdo redagavimo programine įranga, pvz., „Photoshop“. Tačiau AI gilus klastotė išsiskiria tuo, kad ją galima sugeneruoti nuo nulio naudojant giluminio mokymosi algoritmus.

instagram viewer

The Merriam-Webster žodynas Deepfake apibrėžia taip:

Vaizdas arba įrašas, kuris buvo įtikinamai pakeistas ir manipuliuojamas siekiant klaidingai įsivaizduoti, kad kažkas daro ar sako tai, kas iš tikrųjų nebuvo padaryta ar pasakyta.

Tačiau tobulėjant dirbtinio intelekto technologijoms, šis apibrėžimas pradeda atrodyti pasenęs. Naudojant AI įrankius, gilieji klastotės dabar apima vaizdus, ​​​​tekstą, vaizdo įrašus ir balso klonavimą. Kartais vienu metu naudojami visi keturi AI generavimo režimai.

Kadangi tai automatizuotas procesas, kurio naudojimas yra neįtikėtinai greitas ir pigus, jis yra puikus įrankis giliai padirbinėja tokiu greičiu, kokio dar nematėme – ir nereikia nieko žinoti, kaip redaguoti nuotraukas, vaizdo įrašus ar garso.

Didieji AI Deepfakes pavojai

Šeimininkas AI vaizdo generatoriai jau egzistuoja, kartu su daugybe AI balso generatoriai. Mesti a didelis kalbos modelis, pvz., GPT-4 ir jūs turite receptą, kaip sukurti labiausiai tikėtinus padirbinius, kokius iki šiol matėme šiuolaikinėje istorijoje.

Žinojimas apie įvairius AI giluminius klastojimus ir tai, kaip jie gali būti panaudoti jus apgauti, yra vienas iš būdų išvengti klaidinimo. Štai tik keli rimti pavyzdžiai, kaip dirbtinio intelekto giluminio padirbinėjimo technologija kelia realią grėsmę.

1. AI tapatybės vagystė

Galbūt jūs juos matėte. Tarp pirmųjų tikrai virusinių dirbtinio intelekto klastočių, pasklidusių visame pasaulyje, buvo suimto Donaldo Trumpo atvaizdas ir vienas popiežiaus Pranciškaus baltu pūkuotu švarku.

Nors atrodo, kad nekaltas pergalvojimas apie tai, ką garsus religinis veikėjas gali apsirengti vėsią dieną Romoje; kitas vaizdas, kuriame pavaizduotas politinis veikėjas, atsidūręs rimtoje padėtyje su įstatymu, turi daug didesnių pasekmių, jei laikomas tikru.

Iki šiol kurdami dirbtinio intelekto klastotes žmonės daugiausia taikėsi į įžymybes, politinius veikėjus ir kitus žinomus asmenis. Iš dalies taip yra todėl, kad žinomi asmenys internete turi daugybę jų nuotraukų, kurios greičiausiai padėjo išugdyti modelį.

Jei naudojamas dirbtinio intelekto vaizdų generatorius, pvz., „Midjourney“, naudojamas tiek Trumpo, tiek popiežiaus klastojimuose, vartotojas tiesiog turi įvesti tekstą, apibūdinantį tai, ką jis nori matyti. Raktažodžiai gali būti naudojami norint nurodyti meno stilių, pvz., nuotrauką ar fotorealizmą, o rezultatus galima patikslinti padidinus skiriamąją gebą.

Jūs galite taip pat lengvai išmokti naudoti Midjourney ir išbandykite tai patys, tačiau dėl akivaizdžių moralinių ir teisinių priežasčių turėtumėte vengti viešai skelbti šiuos vaizdus.

Deja, būdami vidutiniu, neįžymiu žmogumi, taip pat negarantuosite, kad esate apsaugoti nuo dirbtinio intelekto padirbinėjimo.

Problema kyla dėl pagrindinės funkcijos, kurią siūlo AI vaizdo generatoriai: galimybė įkelti savo vaizdą ir manipuliuoti juo naudojant AI. Ir toks įrankis Dažymas DALL-E 2 gali išplėsti esamą vaizdą už jo ribų, įvesdami teksto raginimą ir aprašydami, ką dar norėtumėte sugeneruoti.

Jei kas nors kitas tai padarytų su jūsų nuotraukomis, pavojai gali būti žymiai didesni nei popiežiaus su balta striuke padirbinėjimas – jie gali jį naudoti bet kur, apsimesdami jumis. Nors dauguma žmonių dirbtinį intelektą paprastai naudoja turėdami gerų ketinimų, yra labai nedaug apribojimų, neleidžiančių žmonėms jį naudoti siekiant pakenkti, ypač tapatybės vagystės atvejais.

2. Deepfake Voice Clone sukčiai

Su dirbtinio intelekto pagalba gilieji klastotės peržengė ribą, kuriai dauguma iš mūsų nebuvo pasiruošę: netikri balso klonai. Turėdamas nedidelį originalaus garso kiekį – galbūt iš „TikTok“ vaizdo įrašo, kurį kažkada paskelbėte, arba „YouTube“ vaizdo įrašą, kuriame rodomas – AI modelis gali atkartoti jūsų vienintelį balsą.

Neįtikėtina ir baisu įsivaizduoti, kad sulaukia telefono skambučio, kuris skamba kaip šeimos narys, draugas ar kolega. Deepfake balso klonai kelia pakankamai rimtą susirūpinimą, kad Federalinė prekybos komisija (FTC) paskelbė apie tai įspėjimą.

Nepasitikėk balsu. Paskambinkite asmeniui, kuris tariamai su jumis susisiekė, ir patikrinkite istoriją. Naudokite telefono numerį, kurį žinote, kad tai yra jų. Jei negalite susisiekti su savo mylimuoju, pabandykite susisiekti su juo per kitą šeimos narį ar jo draugus.

„The Washington Post“ pranešė atvejis, kai 70-ies metų pora sulaukė telefono skambučio iš žmogaus, kuris skambėjo kaip jų anūkas. Jis buvo kalėjime ir jam skubiai reikėjo pinigų už užstatą. Neturėdami jokios kitos priežasties abejoti, su kuo jie kalbėjosi, nuėjo į priekį ir perdavė pinigus sukčiui.

Rizika kyla ne tik vyresniajai kartai, „The Guardian“ pranešė Kitas pavyzdys, kai banko vadovas patvirtino 35 milijonų dolerių sandorį po daugybės „giliai netikrų skambučių“ iš asmens, kuris, jų manymu, buvo banko direktorius.

3. Masiškai gaminamos netikros naujienos

Dideli kalbiniai modeliai, pvz ChatGPT labai, labai gerai kuria tekstą, kuris skamba kaip žmogus, ir šiuo metu neturime veiksmingų priemonių skirtumui pastebėti. Netinkamose rankose netikros naujienos ir sąmokslo teorijos bus pigios, o jų demaskavimas užtruks ilgiau.

Dezinformacijos skleidimas, žinoma, nėra naujiena, bet mokslinis darbas paskelbta arXiv 2023 m. sausio mėn. paaiškina, kad problema yra ta, kaip lengva padidinti išvestį naudojant AI įrankius. Jie tai vadina „AI sukurtomis įtakos kampanijomis“, kurias, jų teigimu, galėtų, pavyzdžiui, panaudoti politikai, kad galėtų vykdyti savo politines kampanijas.

Sujungus daugiau nei vieną AI sukurtą šaltinį sukuriamas aukšto lygio gilus klastojimas. Pavyzdžiui, dirbtinio intelekto modelis gali sukurti gerai parašytą ir įtikinamą naujienų istoriją, kuri atitiktų netikrą suimto Donaldo Trumpo įvaizdį. Tai suteikia jam daugiau teisėtumo, nei tuo atveju, jei vaizdas būtų bendrinamas atskirai.

Netikros naujienos taip pat neapsiriboja vaizdais ir raštu, AI vaizdo įrašų generavimo raida reiškia, kad matome daugiau netikrų vaizdo įrašų. Štai vienas iš Robert Downey Jr., įskiepytas į Elono Musko vaizdo įrašą, kurį paskelbė „YouTube“ kanalas „Deepfakery“.

Deepfake sukurti gali būti taip paprasta, kaip atsisiųsti programą. Galite naudoti tokią programą kaip „TokkingHeads“, kad nejudančius vaizdus paverstų animuotais avatarais, kuri leidžia įkelti savo vaizdą ir garso įrašą, kad atrodytų, jog asmuo kalba.

Daugeliu atvejų tai linksma ir smagu, tačiau taip pat gali kilti problemų. Tai parodo, kaip lengva panaudoti kieno nors įvaizdį, kad atrodytų, jog tas asmuo ištarė žodžius, kurių niekada nekalbėjo.

Neapsigaukite dirbtinio intelekto klastočių

Deepfake gali būti greitai įdiegtas už labai mažą kainą ir turint mažai žinių ar skaičiavimo galios. Jie gali būti sugeneruoto vaizdo, balso klono arba dirbtinio intelekto sukurtų vaizdų, garso ir teksto derinio formos.

Anksčiau sukurti gilią klastotę buvo daug sudėtingiau ir daug darbo reikalaujaniau, tačiau dabar, kai yra daugybė dirbtinio intelekto programų, beveik kiekvienas turi prieigą prie įrankių, naudojamų kuriant gilius klastotes. AI giliai padirbinėjimo technologijai vis tobulėjant, verta atidžiai stebėti jos keliamus pavojus.