Netikros naujienos, klastotės, klaidinantys vaizdai: visa tai galima sukurti naudojant dirbtinį intelektą. Štai kaip AI reiškia, kad dezinformacija plinta.
Dirbtinis intelektas (AI) dabar vaidina svarbų vaidmenį įvairiuose mūsų gyvenimo aspektuose. Konkrečiai, generatyvūs AI įrankiai, tokie kaip „ChatGPT“ ir kiti, gerokai išaugo. Tai reiškia, kad ateityje bus gausu AI sukurto turinio.
Tačiau generatyvus AI taip pat kelia AI sukurtos dezinformacijos riziką. Dėl jo savybių oportunistiniams asmenims lengviau skleisti klaidingą informaciją. Taigi, panagrinėkime, kaip generatyvusis AI naudojamas dezinformacijai.
Galimi generatyvaus AI pavojai, galintys skleisti dezinformaciją
Generatyvusis dirbtinis intelektas kelia daug grėsmių žmonėms, pavyzdžiui, atima darbą, daugiau stebėjimo ir kibernetinių atakų. Ir AI saugumo problemos dar labiau pablogės. Tačiau yra ir kitas rūpestis: žmonės gali jį panaudoti melui skleisti. Apgaulingi asmenys gali naudoti generatyvųjį dirbtinį intelektą, norėdami dalytis netikromis naujienomis vaizdiniu, garsiniu ar tekstiniu turiniu.
Melagingos naujienos gali būti suskirstytos į tris tipus:
- Dezinformacija: Netyčia neteisinga arba klaidinga informacija.
- Dezinformacija: tyčinis manipuliacinės ar apgaulingos informacijos naudojimas.
- Klaidinga informacija: Klaidinančios naujienos arba perdėta tiesos versija.
Kada kartu su deepfake technologija, generatyvūs AI įrankiai gali padaryti turinį, kuris atrodo ir skamba tikroviškai, pvz., paveikslėlius, vaizdo įrašus, garso klipus ir dokumentus. Yra daug galimybių sukurti netikrą turinį, todėl žinant kaip apsisaugoti nuo padirbtų vaizdo įrašų yra svarbu.
Netikrų naujienų skleidėjai gali generuoti turinį dideliais kiekiais, todėl per socialinę žiniasklaidą jį lengviau paskleisti. Tikslinė dezinformacija gali būti naudojama siekiant paveikti politines kampanijas, galinčias turėti įtakos rinkimams. Be to, naudojant AI teksto ir vaizdų generavimo įrankius, kyla susirūpinimas dėl autorių teisių įstatymų, kaip pranešė Kongreso tyrimų tarnyba: nustatyti šių įrankių sukurto turinio nuosavybės teisę tampa sudėtinga.
Kaip įstatymas spręs netikrų naujienų skleidimą naudojant generatyvųjį AI? Kas bus atsakingas už melagingos informacijos skleidimą – vartotojai, kūrėjai ar patys įrankiai?
4 būdai, kaip generatyvusis dirbtinis intelektas gali būti naudojamas dezinformacijai skleisti
Norėdami išlikti saugūs internete, visi turi suprasti generatyvaus AI riziką skleidžiant dezinformaciją, nes ji būna įvairių formų. Štai keli būdai, kuriais jis gali būti naudojamas manipuliuoti žmonėmis.
1. Suklastoto turinio generavimas internete
Suklastoto turinio kūrimas naudojant generatyvųjį AI yra įprasta strategija, kurią naudoja tie, kurie skleidžia melagingas naujienas. Jie naudoja populiarius generuojančius AI įrankius, tokius kaip ChatGPT, DALL-E, Bard, Midjourney ir kt., Kurdami įvairaus tipo turinį. Pavyzdžiui, „ChatGPT“ gali padėti turinio kūrėjams įvairiais būdais. Tačiau tai taip pat gali generuoti socialinių tinklų įrašus ar naujienų straipsnius, kurie gali apgauti žmones.
Norėdamas tai įrodyti, paraginau ChatGPT parašyti sugalvotą straipsnį apie JAV prezidento Joe Bideno areštą apkaltinus korupcija. Be to, paprašėme įtraukti atitinkamų institucijų pareiškimus, kad tai atrodytų patikimiau.
Štai fiktyvus straipsnis, kurį sukūrė ChatGPT:
Keista, kad rezultatas buvo labai įtikinamas. Jame buvo autoritetingų asmenų pavardės ir pareiškimai, kad straipsnis būtų įtikinamesnis. Tai parodo, kaip kiekvienas gali naudoti tokius įrankius melagingoms naujienoms generuoti ir lengvai jas skleisti internete.
2. „Chatbots“ naudojimas siekiant paveikti žmonių nuomonę
Pokalbių robotai, kurie remiasi generatyviais AI modeliais, gali naudoti įvairias taktikas, kad paveiktų žmonių nuomonę, įskaitant:
- Emocinė manipuliacija: AI gali naudoti emocinio intelekto modelius, kad pasinaudotų emociniais veiksniais ir šališkumu formuojant jūsų perspektyvas.
- Aido kameros ir patvirtinimo šališkumas: pokalbių robotai gali sustiprinti esamus įsitikinimus sukurdami aido kameras, patvirtinančias jūsų šališkumą. Jei jau laikotės tam tikro požiūrio, dirbtinis intelektas gali jį sustiprinti pateikdamas informaciją, atitinkančią jūsų nuomonę.
- Socialinis įrodymas ir bandwagon efektas: AI gali manipuliuoti visuomenės nuotaikomis generuodamas socialinius įrodymus. Tai gali turėti didelių pasekmių, nes tai gali paskatinti asmenis prisitaikyti prie populiarių nuomonių arba sekti minią.
- Tikslinis personalizavimas: pokalbių robotai turi prieigą prie daugybės duomenų, kuriuos gali surinkti kurdami suasmenintus profilius. Tai leidžia jiems tinkinti turinį pagal jūsų pageidavimus. Naudodamas tikslinį personalizavimą AI gali įtikinti asmenis arba dar labiau sustiprinti jų nuomonę.
Visi šie pavyzdžiai iliustruoja, kaip pokalbių robotai gali būti naudojami žmonėms suklaidinti.
3. AI DeepFakes kūrimas
Kažkas gali naudoti gilias klastotes, kad sukurtų melagingus vaizdo įrašus, kuriuose asmuo sako ar daro tai, ko niekada nedarė. Jie gali naudoti tokius įrankius socialinei inžinerijai arba šmeižto kampanijoms prieš kitus. Be to, šiuolaikinėje memų kultūroje gilios klastotės gali būti priemone kibernetinėms patyčioms socialinėje žiniasklaidoje.
Be to, politiniai priešininkai gali panaudoti netikrus garso ir vaizdo įrašus, kad suterštų savo oponentų reputaciją, manipuliuodami visuomenės nuotaikomis pasitelkdami dirbtinį intelektą. Taigi Dirbtinio intelekto sukurtos gilios klastotės ateityje kelia daug grėsmių. Pagal 2023 m Reuters praneša, AI technologijos augimas gali turėti įtakos 2024 m. Amerikos rinkimams. Ataskaitoje pabrėžiamas tokių įrankių kaip „Midjourney“ ir „DALL-E“, kurie gali lengvai sukurti sukurtą turinį ir daryti įtaką kolektyvinei žmonių nuomonei, prieinamumas.
Tada labai svarbu sugebėti atpažinti vaizdo įrašus, sukurtus naudojant gilias klastotes ir atskirti juos nuo originalų.
4. Žmogaus balsų klonavimas
Generatyvusis dirbtinis intelektas kartu su giliąja klastotės technologija leidžia manipuliuoti kažkieno kalba. Deepfake technologija sparčiai tobulėja ir siūlo įvairius įrankius, galinčius atkartoti bet kurio žmogaus balsą. Tai leidžia piktybiniams asmenims apsimesti kitais ir apgauti nieko neįtariančius asmenis. Vienas iš tokių pavyzdžių yra Deepfake muzikos naudojimas.
Galbūt susidūrėte su tokiais įrankiais kaip Panašus į AI, Kalbėti, Netikras tu, ir kiti, galintys imituoti įžymybių balsus. Nors šie AI garso įrankiai gali būti linksmi, jie kelia didelę riziką. Sukčiai gali panaudoti balso klonavimo metodus įvairioms nesąžiningoms schemoms, todėl gali patirti finansinių nuostolių.
Sukčiai gali naudoti netikrus balsus, kad galėtų apsimesti jūsų artimaisiais ir jums skambinti, apsimesdami, kad ištiko nelaimė. Su sintetiniu garsu, kuris skamba įtikinamai, jie gali paraginti jus skubiai siųsti pinigus, o tai paskatins jus tapti jų sukčių auka. Įvykis, apie kurį pranešė „The Washington Post“. 2023 m. kovo mėn. rodo šią problemą: sukčiai naudojo netikrus balsus, kad įtikintų žmones, kad jų anūkai yra kalėjime ir jiems reikia pinigų...
Kaip pastebėti AI skleidžiamą dezinformaciją
Kova su AI skatinamos dezinformacijos plitimu yra neatidėliotina šių dienų pasaulio problema. Taigi kaip galite pastebėti klaidingą informaciją, kurią sukūrė AI?
- Žiūrėkite į internetinį turinį skeptiškai. Jei susiduriate su kažkuo, kas atrodo manipuliuojama arba neįtikėtina, patikrinkite tai kryžminiu patikrinimu.
- Prieš pasitikėdami naujienų straipsniu ar socialinių tinklų įrašu įsitikinkite, kad jis kilęs iš patikimo šaltinio.
- Saugokitės gilių klastotės požymių, tokių kaip nenatūralus mirksėjimas ar veido judesiai, prasta garso kokybė, iškraipyti arba neryškūs vaizdai ir tikrų emocijų trūkumas kalboje.
- Norėdami patikrinti informacijos tikslumą, naudokite faktus tikrinančias svetaines.
Atlikdami šiuos veiksmus galite atpažinti ir apsisaugoti nuo dirbtinio intelekto sukeltos dezinformacijos.
Saugokitės AI skleidžiamos dezinformacijos
Generacinė programinė įranga suvaidino lemiamą vaidmenį tobulinant AI. Vis dėlto jie taip pat gali būti reikšmingas dezinformacijos šaltinis visuomenėje. Šie įperkami įrankiai leido kiekvienam sukurti įvairaus tipo turinį naudojant sudėtingus AI modelius; jų gebėjimas generuoti turinį dideliais kiekiais ir įtraukti gilius padirbinius daro juos dar pavojingesnius.
Svarbu, kad žinotumėte dezinformacijos iššūkius AI eroje. Supratimas, kaip dirbtinis intelektas gali būti naudojamas melagingoms naujienoms skleisti, yra pirmasis žingsnis siekiant apsisaugoti nuo dezinformacijos.