Dirbtinis intelektas (DI) gali pakeisti pačią mūsų visuomenės prigimtį. Ir jei šiuo metu mūsų turimi dirbtinio intelekto įrankiai rodo, kas bus ateityje, turime daug ko laukti.
Taip pat turime daug ko saugotis. Būtent, kibernetinių nusikaltėlių ir kitų grėsmės veikėjų AI ginkluotę. Tai nėra teorinis susirūpinimas ir net AI vaizdo generatoriai nėra apsaugoti nuo piktnaudžiavimo.
Kas yra AI vaizdų generatoriai? Kaip jie veikia?
Jei kada nors naudojote dirbtinio intelekto vaizdų generatorių, puikiai suprantate, kas tai yra. Net jei niekada jo nenaudojote, greičiausiai socialinėje žiniasklaidoje ir kitur susidūrėte su AI sukurtais vaizdais. Šiandien populiari programinė įranga veikia labai paprastu principu: vartotojas įveda tekstą, o AI pagal tą tekstą sukuria vaizdą.
Tai, kas vyksta po gaubtu, yra daug sudėtingesnė. AI pastaraisiais metais tapo daug geresnis ir dauguma
teksto į vaizdą generatoriai šiais laikais yra vadinamieji difuzijos modeliai. Tai reiškia, kad jie ilgą laiką yra „mokomi“ prie didžiulio teksto ir vaizdų skaičiaus, todėl jų kūriniai yra tokie įspūdingi ir stulbinančiai tikroviški.Dar įspūdingesni šie AI įrankiai yra tai, kad jie ne tik modifikuoja esamus vaizdus arba sujungia tūkstančius vaizdų į vieną, bet ir sukuria naujus originalius vaizdus nuo nulio. Kuo daugiau žmonių naudoja šiuos teksto į vaizdą generatorius, tuo daugiau informacijos jie gauna ir tuo geresni tampa jų kūriniai.
Vieni žinomiausių AI vaizdo generatoriai yra WOMBO Dream, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor ir Craiyon. Kairėje ir dešinėje atsiranda naujų, o technologijų gigantai, įskaitant „Google“, išleidžia savo, todėl galime tik spėlioti, ką atneš ateitis.
4 būdai, kaip grėsmės aktoriai ginkluoja AI vaizdo generatorius
Kaip ir beveik visomis technologijomis, AI vaizdo generatoriais gali piktnaudžiauti piktavališki veikėjai. Tiesą sakant, jie jau naudojami įvairiems nešvariems tikslams. Bet kokias sukčiavimo ir kibernetines atakas gali įvykdyti nusikaltėlis, pasitelkęs dirbtinio intelekto vaizdų generatorius?
1. Socialinė inžinerija
Vienas akivaizdus dalykas, kurį grėsmės veikėjai galėtų padaryti naudodami AI vaizdo generatorius užsiimti socialine inžinerija; pavyzdžiui, sukurti netikrus socialinės žiniasklaidos profilius. Kai kurios iš šių programų gali sukurti neįtikėtinai tikroviškus vaizdus, kurie atrodo kaip tikros tikrų žmonių nuotraukos, o sukčiai gali naudoti šiuos netikrus socialinės žiniasklaidos profilius meškeriodami.
Kitaip nei tikrų žmonių nuotraukos, dirbtinio intelekto sukurtų nuotraukų negalima aptikti naudojant atvirkštinę vaizdų paiešką, o kibernetiniam nusikaltėliui nereikia dirbti su ribotas nuotraukų skaičius, kad galėtų apgauti savo tikslą – naudodamiesi dirbtiniu intelektu jie gali sukurti tiek, kiek nori, ir sukurti įtikinamą internetinę tapatybę subraižyti.
Tačiau yra realių pavyzdžių, kai grėsmės veikėjai naudoja dirbtinio intelekto vaizdų generatorius, kad sukčiautų žmones. 2022 m. balandžio mėn. TechTalks tinklaraštininkas Benas Dickinsonas gavo elektroninį laišką iš advokatų kontoros, kuriame teigiama, kad jis naudojo atvaizdą be leidimo. Advokatai el. paštu išsiuntė DMCA pranešimą apie autorių teisių pažeidimą, nurodydami Dickinsonui, kad jis turi susieti su savo klientu arba pašalinti vaizdą.
Dickinsonas ieškojo advokatų kontoros „Google“ ir rado oficialią svetainę. Visa tai atrodė visiškai teisėta; svetainėje netgi buvo 18 teisininkų nuotraukų su jų biografijomis ir įgaliojimais. Bet niekas iš to nebuvo tikras. Visos nuotraukos buvo sukurtos AI, o pranešimai apie tariamą autorių teisių pažeidimą buvo išsiųsti kažkas, norintis išvilioti atgalines nuorodas iš nieko neįtariančių tinklaraštininkų, kaip neetiško, juodo skrybėlę SEO (optimizavimas paieškos sistemoms) strategija.
2. Labdaros aferos
Kai 2023 m. vasario mėn. niokojantys žemės drebėjimai sukrėtė Turkiją ir Siriją, milijonai žmonių visame pasaulyje išreiškė solidarumą su aukomis aukojant drabužius, maistą ir pinigus.
Remiantis pranešimu iš BBC, sukčiai tuo pasinaudojo, naudodami dirbtinį intelektą kurdami tikroviškus vaizdus ir prašydami aukoti. Vienas sukčius „TikTok Live“ parodė dirbtinio intelekto sukurtus griuvėsių vaizdus ir paprašė žiūrovų paaukoti. Kitas paskelbė AI sukurtą graikų ugniagesio, gelbstinčio sužeistą vaiką iš griuvėsių, vaizdą ir paprašė savo pasekėjų paaukoti Bitcoin.
Galima tik įsivaizduoti, kokio tipo labdaros aferas nusikaltėliai vykdys pasitelkę dirbtinį intelektą ateityje, tačiau galima manyti, kad piktnaudžiauti šia programine įranga jie tik geriau.
3. Gilios klastotės ir dezinformacija
Vyriausybės, aktyvistų grupės ir ekspertų grupės jau seniai perspėjo apie tai gilių klastočių pavojus. AI vaizdų generatoriai prideda dar vieną šios problemos komponentą, atsižvelgiant į jų kūrinių tikroviškumą. Tiesą sakant, JK netgi yra komedijos šou „Deep Fake Neighbor Wars“, kuriame humoro galima rasti mažai tikėtinų įžymybių porose. Kas neleistų dezinformacijos agentui sukurti netikrą įvaizdį ir jį reklamuoti socialiniuose tinkluose, pasitelkus botus?
Tai gali turėti realių pasekmių, kaip ir beveik 2022 m. kovo mėn., kai internete buvo išplatintas netikras vaizdo įrašas, kuriame Ukrainos prezidentas Volodymyras Zelenskis liepia ukrainiečiams pasiduoti. NPR. Bet tai tik vienas pavyzdys, nes galimybės yra beveik neribotos ir yra begalė būdų a grėsmių veikėjas gali pakenkti kieno nors reputacijai, reklamuoti melagingą pasakojimą arba paskleisti netikras naujienas. AI.
4. Skelbimų sukčiavimas
TrendMicro 2022 m. mokslininkai išsiaiškino, kad sukčiai naudojo dirbtinio intelekto sukurtą turinį, kad sukurtų klaidinančią reklamą ir reklamuotų šešėlinius produktus. Jie sukūrė vaizdus, kuriuose buvo pasiūlyta populiarioms įžymybėms naudoti tam tikrus produktus, ir vykdė reklamines kampanijas pagal šiuos vaizdus.
Pavyzdžiui, viename skelbime apie „finansinio patarimo galimybę“ buvo nurodytas milijardierius Elonas Muskas, „Tesla“ įkūrėjas ir generalinis direktorius. Žinoma, Muskas niekada nepatvirtino aptariamo produkto, tačiau AI sukurta filmuota medžiaga taip atrodė, tikriausiai priviliodama nieko neįtariančius žiūrovus spustelėti skelbimus.
AI ir kibernetinis saugumas: sudėtinga problema, kurią turime išspręsti
Ateityje vyriausybės reguliavimo institucijos ir kibernetinio saugumo ekspertai tikriausiai turės dirbti kartu, kad pašalintų kylančią dirbtinio intelekto kibernetinių nusikaltimų grėsmę. Tačiau kaip galime reguliuoti AI ir apsaugoti paprastus žmones, neslopindami naujovių ir neapribodami skaitmeninių laisvių? Šis klausimas bus didelis ateinančiais metais.
Kol negausite atsakymo, darykite viską, ką galite, kad apsisaugotumėte: atidžiai patikrinkite bet kokią informaciją, kurią matote internete, venkite šešėlines svetaines, naudokite saugią programinę įrangą, nuolat atnaujinkite savo įrenginius ir išmokite naudoti dirbtinį intelektą pranašumas.