Jei žiūrite pakankamai atidžiai, jūsų akys vis tiek gali padėti atskirti tai, kas tikra, nuo to, kas netikra.

Sukurti padirbtą vaizdo įrašą tapo taip paprasta, kaip redaguoti tekstą Word dokumente. Kitaip tariant, galite nufotografuoti bet kurį vaizdo įrašą ir priversti juos pasakyti, ką norite. Galite keisti vaizdo įrašą naudodami tekstą, panašiai kaip teksto apdorojimas, lengvai pridėti naujų žodžių, ištrinti nepageidaujamus arba iš naujo redaguoti baigtą vaizdo įrašą.

Žinoma, tai labai padidino netikro turinio skaičių. Kaip sužinoti, ar vaizdo įrašas yra netikras?

Atidžiai ištirkite veido judesius

Dažnas įspėjamasis ženklas yra nenatūralūs akių judesiai arba akių judesių trūkumas, ypač jei nėra mirksėjimo. Sunku imituoti mirksėjimą natūraliai. Tikslus akių judesių atkūrimas taip pat yra sudėtingas, nes žmogaus akys paprastai seka asmenį, su kuriuo kalbasi.

Jei žmogaus veidas nerodo atitinkamų emocijų, kurios sutampa su tuo, ką jis sako, labai tikėtina, kad tai yra klastotė. Jei galite aptikti veido morfavimą arba

instagram viewer
vaizdo maišymas, tai taip pat yra požymiai, kad vaizdo įrašas gali būti netikras.

Turėtumėte būti atsargūs žiūrėdami vaizdo įrašus, kurie atrodo tikri, bet kurių veidas ir nosis nukreipti į skirtingas puses.

Garso kokybė gali padėti suprasti

Deepfake gamintojai paprastai daugiau dėmesio skiria vaizdui, o ne garsui, todėl galite pastebėti garso ar kalbos stiliaus skirtumą. Atkreipkite dėmesį į prastą lūpų sinchronizavimą, robotų garsus, keistą žodžių tarimą, skaitmeninį foninį triukšmą ir net trūkstamą garso įrašą. Svarbu žinoti šiuos požymius, nes jie gali rodyti gilią klastotę.

Be to, giliai padirbti kūrėjai dažnai pasikliauja esama filmuota medžiaga ar tikslinio asmens įrašais, kad sukurtų tikrovišką vaizdą, tačiau garsas gali būti ne taip įtikinamai manipuliuojamas. Šis vaizdo ir garso kokybės neatitikimas gali būti naudingas patarimas aptikti gilias klastotes. Turėkite tai omenyje Deepfake technologijos pažanga yra nuolat kuriami, todėl labai svarbu išlikti budriems ir būti informuotiem apie naujausias technologijas ir įrankius, naudojamus kuriant ir aptinkant gilius klastojimus.

Išnagrinėkite vaizdo įraše esančio asmens fizinę laikyseną

Jei žmogus pasuka galvą arba juda iš vieno kadro į kitą trūkčiojantis ar nenuosekliai, arba jei jo judesiai atrodo iškreipti ar nenatūralūs, turėtumėte būti įtarūs. Kitas klastotės požymis yra tada, kai žmogaus kūno forma neatrodo natūrali arba kai galvos ir kūno padėtis atrodo keista arba nenuosekli. Deepfake technologija paprastai sutelkia dėmesį į veido bruožus, o ne visą kūną, todėl tai yra viena iš paprasčiau aptinkamų anomalijų.

Kažkas gali uždėti vieno žmogaus veidą ant kito žmogaus kūno, todėl atrodo, kad asmuo sako ar daro tai, ko iš tikrųjų niekada nedarė. Technologija pažengė taip, kad ji gali sukurti labai įtikinamus gilius padirbinius, kuriuos sunku atskirti nuo tikros filmuotos medžiagos.

Gali būti neatitikimų tarp turinio, kurį gauna žmonės, kuriantys netikrus vaizdo įrašus naudodami skirtingų žmonių kūno laikysenas. Tai suteikia rimtą užuominą, kad toks vaizdo įrašas gali būti netikras.

Saugokitės nesąmonių žodžių

Nesąmoningi žodžiai vaidina svarbų vaidmenį kuriant gilią klastotę, nes jie yra priemonė pakeisti arba pakeisti originalią kalbą. Šių išgalvotų žodžių gali nebūti jokioje kalboje ir jie naudojami strategiškai manipuliuoti giliųjų klastočių garso komponentu. Sklandžiai maišydami tikrus ir nesąmoningus žodžius, giliųjų klastotės kūrėjai siekia sukurti įtikinamą garsą, imituojantį tikslinio asmens kalbos modelius. Dėl to žiūrovai gali būti priversti patikėti, kad žmogus pasakė ar išsakė tai, ko nepasako.

Atpažinti ir atpažinti nesąmoningus žodžius gali būti sudėtinga, ypač tobulėjant giliai klastotėms technologijoms. Tačiau yra keletas strategijų, kuriomis asmenys gali apsisaugoti, kad netaptų netikrų manipuliacijų aukomis. Visų pirma, būtina patikrinti šaltinio, kuris dalijasi turiniu, patikimumą. Pasikliaudami gerbiamų ir patikimų naujienų šaltinių arba patvirtintos socialinės žiniasklaidos paskyros gali padėti sumažinti riziką susidurti su giliomis klastotėmis. Atkreipdami dėmesį į neatitikimus, neįprastus kalbos modelius ar vaizdo ar garso nenuoseklumus, galite atskleisti galimus gilius klastojimus.

Ar Deepfake yra pavojingas?

Dirbtinis intelektas šiuo metu daro įtaką daugeliui ekonomikos sektorių ir kasdienį žmonių gyvenimą. Deepfake yra dar vienas puikus dirbtinio intelekto produktas. Tačiau tai neturėtų būti vertinama tik iš vienos perspektyvos. Deepfake ypač efektyviai veikia medicinos ir sveikatos srityse. Jūs neturėtumėte to sieti tik su netikra politikų ar įžymybių filmuota medžiaga. Kaip ir bet kas kitas, labai svarbu, kaip naudojamas gilus padirbinys. Todėl neabejotinai labai naudinga „deepfake“ technologija, kuri į mūsų gyvenimą įveda naudingas dirbtinio intelekto savybes, o ne suklastotą medžiagą.