AI pokalbių robotai gali haliucinuoti, užtikrindami neteisingus atsakymus – tuo gali pasinaudoti įsilaužėliai. Štai kaip įsilaužėliai ginkluoja haliucinacijas.
Didelių kalbų modelių AI yra netobuli ir kartais sukuria klaidingą informaciją. Šie atvejai, vadinami haliucinacijomis, gali kelti kibernetinę grėsmę įmonėms ir pavieniams AI entuziastams.
Laimei, galite sustiprinti apsaugą nuo AI haliucinacijų, padidinę sąmoningumą ir sveiką atspėjimą.
Kodėl AI haliucinuoja?
Nėra sutarimo, kodėl dirbtinio intelekto modeliai haliucinuoja, nors yra keletas galimų spėjimų.
Dirbtinis intelektas mokomas iš didžiulių duomenų rinkinių, kuriuose dažnai yra trūkumų, pvz., minčių spragų, turinio ryškumo dispersijos ar žalingų paklaidų. Bet koks mokymas iš šių neišsamių ar netinkamų duomenų rinkinių gali būti haliucinacijų priežastis, net jei vėliau duomenų rinkinio iteracijos gautų duomenų mokslininkų.
Laikui bėgant duomenų mokslininkai gali padaryti informaciją tikslesnę ir įvesti papildomų žinių, kad užpildytų laisvas darbo vietas ir sumažintų haliucinacijų galimybę. Prižiūrėtojai gali klaidingai pažymėti duomenis. Programavimo kode gali būti klaidų. Taisyti šiuos elementus būtina, nes AI modeliai tobulėja remiantis mašininio mokymosi algoritmais.
Šie algoritmai sprendimams atlikti naudoja duomenis. To išplėtimas yra AI neuroninis tinklas, kuris sukuria naujus sprendimus nuo mašininio mokymosi patirties primena žmogaus proto originalumą tiksliau. Šiuose tinkluose yra transformatorių, kurie analizuoja ryšius tarp tolimų duomenų taškų. Kai transformatoriai sugenda, gali atsirasti haliucinacijų.
Kaip AI haliucinacijos suteikia galimybių įsilaužėliams
Deja, nėra visuotinai žinoma, kad AI haliucinuoja, o dirbtinis intelektas skambės užtikrintai net tada, kai jis yra visiškai neteisingas. Visa tai prisideda prie to, kad vartotojai būtų labiau pasitenkinę dirbtiniu intelektu ir pasitikėtų juo, o grėsmių subjektai pasikliauja tokiu naudotojo elgesiu, kad paskatintų juos atsisiųsti arba suaktyvinti atakas.
Pavyzdžiui, dirbtinio intelekto modelis gali haliucinuoti netikrų kodų biblioteką ir rekomenduoti vartotojams tą biblioteką atsisiųsti. Tikėtina, kad modelis ir toliau rekomenduos tą pačią haliucinuotą biblioteką daugeliui vartotojų, kurie užduoda panašų klausimą. Jei įsilaužėliai aptinka šią haliucinaciją, jie gali sukurti tikrą įsivaizduojamos bibliotekos versiją, tačiau užpildytą pavojingu kodu ir kenkėjiška programa. Dabar, kai dirbtinis intelektas ir toliau rekomenduoja kodų biblioteką, nesąmoningi vartotojai atsisiųs įsilaužėlių kodą.
Žalingo kodo ir programų gabenimas pasinaudojant AI haliucinacijomis yra nenuostabu kitas grėsmės veikėjų žingsnis. Įsilaužėliai nebūtinai sukuria daugybę naujų kibernetinių grėsmių – jie tiesiog ieško naujų būdų, kaip jas pateikti neįtardami. AI haliucinacijos grobia tą patį žmogaus naivumą el. pašto nuorodų spustelėjimas priklauso nuo (todėl turėtumėte naudokite nuorodų tikrinimo įrankius, kad patikrintumėte URL).
Įsilaužėliai taip pat gali perkelti jį į kitą lygį. Jei ieškote pagalbos dėl kodavimo ir atsisiunčiate netikrą, kenkėjišką kodą, grėsmės veikėjas taip pat gali padaryti kodą iš tikrųjų funkcionalų, o kenksminga programa veiks fone. Tai, kad jis veikia taip, kaip tikitės, nereiškia, kad jis nėra pavojingas.
Išsilavinimo trūkumas gali paskatinti atsisiųsti dirbtinio intelekto sukurtas rekomendacijas dėl internetinio autopiloto elgesio. Kiekvienas sektorius patiria kultūrinį spaudimą taikyti AI savo verslo praktikoje. Daugybė nuo technologijų nutolusių organizacijų ir pramonės šakų žaidžia su AI įrankiais, turinčiais mažai patirties ir dar menkesnį kibernetinį saugumą, kad išliktų konkurencingi.
Kaip apsisaugoti nuo ginkluotų AI haliucinacijų
Pažanga yra horizonte. Kenkėjiškų programų kūrimas naudojant generatyvųjį AI buvo lengvas, kol įmonės pakoregavo duomenų rinkinius ir sąlygas, kad išvengtų neetiškų kartų. Žinodami apie socialines, technines ir asmenines silpnybes, kurias galite turėti prieš pavojingas AI haliucinacijas, kokiais būdais galite apsisaugoti?
Kiekvienas pramonės atstovas gali tobulinti neuroninių tinklų technologijas ir tikrinti biblioteką. Turi būti patikrinimai ir balansai, kol atsakymai pasiekia galutinius vartotojus. Nepaisant to, kad tai yra būtina pramonės pažanga, jūs taip pat turite atlikti savo vaidmenį apsaugoti save ir kitus nuo generuojančių AI grėsmių.
Vidutiniai vartotojai gali praktikuoti pastebėti AI haliucinacijas su šiomis strategijomis:
- Rašybos ir gramatikos klaidų paieška.
- Matyti, kada užklausos kontekstas nesutampa su atsakymo kontekstu.
- Pripažinimas, kai kompiuteriniu regėjimu pagrįsti vaizdai nesutampa su tuo, kaip žmogaus akys matytų šią koncepciją.
Visada būkite atsargūs atsisiųsdami turinį iš interneto, net jei tai rekomenduoja AI. Jei dirbtinis intelektas rekomenduoja atsisiųsti kodą, nedarykite to aklai; Patikrinkite visas apžvalgas, kad įsitikintumėte, jog kodas yra teisėtas, ir pažiūrėkite, ar galite rasti informacijos apie kūrėją.
Geriausias atsparumas AI haliucinacijų atakoms yra švietimas. Kalbėjimas apie savo patirtį ir skaitymas, kaip kiti sukėlė kenkėjiškas haliucinacijas, nesvarbu, ar tai būtų atsitiktinumas, ar tyčinis bandymas, yra neįkainojama ateityje naršant AI.
AI kibernetinio saugumo gerinimas
Kalbėdami su AI turite būti atsargūs, ko prašote. Apribokite pavojingų pasekmių tikimybę būdami kiek įmanoma konkretesni ir kvestionuodami viską, kas pasirodo ekrane. Išbandykite kodą saugioje aplinkoje ir patikrinkite kitą iš pažiūros patikimą informaciją. Be to, bendradarbiauti su kitais, aptarti savo patirtį ir supaprastinti žargoną apie AI haliucinacijos ir kibernetinio saugumo grėsmės gali padėti masėms būti budresnėms ir atsparesnėms įsilaužėlių.