Pokalbių robotai ir į juos panašūs gali atrodyti kaip smagu, bet naudingi ir įsilaužėliams. Štai kodėl mes visi turime žinoti AI saugumo riziką.

AI per pastaruosius kelerius metus labai pažengė į priekį. Sudėtingi kalbos modeliai gali kurti pilnametražius romanus, koduoti pagrindines svetaines ir analizuoti matematikos problemas.

Nors ir įspūdingas, generatyvus AI taip pat kelia pavojų saugumui. Kai kurie žmonės tiesiog naudoja pokalbių robotus, kad apgaudinėtų egzaminus, tačiau kiti juos išnaudoja kibernetiniams nusikaltimams. Štai aštuonios priežastys, dėl kurių šios problemos išliks, ne tik nepaisant AI pažanga, bet nes iš jų taip pat.

1. Atvirojo kodo AI pokalbių robotai atskleidžia atgalinius kodus

Vis daugiau AI įmonių teikia atvirojo kodo sistemas. Jie atvirai dalijasi savo kalbos modeliais, užuot laikę juos uždarus ar nuosavybės teise. Paimkite Metą kaip pavyzdį. Skirtingai nei „Google“, „Microsoft“ ir „OpenAI“, milijonai vartotojų gali pasiekti savo kalbos modelį, LLAMA.

Nors atvirojo kodo kodai gali pagerinti AI, tai taip pat rizikinga.

instagram viewer
OpenAI jau turi problemų valdant ChatGPT, jos patentuotas pokalbių robotas, todėl įsivaizduokite, ką sukčiai galėtų padaryti su nemokama programine įranga. Jie visiškai kontroliuoja šiuos projektus.

Net jei „Meta“ staiga pašalins savo kalbos modelį, dešimtys kitų AI laboratorijų jau išleido savo kodus. Pažiūrėkime į HuggingChat. Kadangi jo kūrėjas HuggingFace didžiuojasi skaidrumu, jis rodo savo duomenų rinkinius, kalbos modelį ir ankstesnes versijas.

2. „Jailbreaking Prompts“ apgauti LLM

AI iš prigimties yra amoralus. Ji nesupranta teisingo ir neteisingo – net pažangios sistemos laikosi mokymo instrukcijų, gairių ir duomenų rinkinių. Jie tik atpažįsta modelius.

Siekdami kovoti su neteisėta veikla, kūrėjai kontroliuoja funkcionalumą ir apribojimus nustatydami apribojimus. AI sistemos vis dar pasiekia žalingą informaciją. Tačiau saugos gairės neleidžia jiems dalytis jais su vartotojais.

Pažvelkime į „ChatGPT“. Nors jame atsakoma į bendruosius klausimus apie Trojos arklys, jame nebus aptariamas jų kūrimo procesas.

Tai reiškia, kad apribojimai nėra patikimi. Vartotojai apeina ribas perfrazuodami raginimus, vartodami painią kalbą ir sudarydami aiškiai išsamias instrukcijas.

Skaitykite žemiau ChatGPT jailbreak raginimas. Tai apgaudinėja „ChatGPT“, kad jis vartoja grubią kalbą ir daro nepagrįstas prognozes – abu veiksmai pažeidžia OpenAI gaires.

Štai ChatGPT su drąsiu, bet klaidingu teiginiu.

3. AI kelia pavojų saugumui dėl universalumo

AI kūrėjai teikia pirmenybę universalumui, o ne saugumui. Jie išleidžia savo išteklius mokymo platformoms, kad atliktų įvairesnes užduotis ir galiausiai sumažintų apribojimus. Galų gale, rinka sveikina funkcinius pokalbių robotus.

tegul palyginkite „ChatGPT“ ir „Bing Chat“., pavyzdžiui. Nors „Bing“ turi sudėtingesnį kalbos modelį, kuris renka duomenis realiuoju laiku, vartotojai vis tiek renkasi universalesnę „ChatGPT“ parinktį. Griežti Bing apribojimai draudžia daugybę užduočių. Arba „ChatGPT“ turi lanksčią platformą, kuri, atsižvelgiant į jūsų raginimus, sukuria labai skirtingus rezultatus

Štai ChatGPT vaidmenų žaidimas kaip išgalvotas personažas.

O štai Bing Chat atsisako vaidinti „amoralią“ asmenybę.

Atvirojo kodo kodai leidžia startuoliams prisijungti prie AI lenktynių. Jie integruoja juos į savo programas, užuot kūrę kalbos modelius nuo nulio, taupydami didžiulius išteklius. Net nepriklausomi programuotojai eksperimentuoja su atvirojo kodo kodais.

Vėlgi, nepatentuota programinė įranga padeda tobulinti AI, tačiau masinis prastai parengtų, tačiau sudėtingų sistemų išleidimas daro daugiau žalos nei naudos. Sukčiai greitai piktnaudžiaus pažeidžiamumu. Jie netgi gali išmokyti nesaugius AI įrankius atlikti neteisėtą veiklą.

Nepaisant šios rizikos, technologijų įmonės ir toliau išleis nestabilias dirbtinio intelekto platformų beta versijas. AI lenktynės apdovanoja greitį. Tikėtina, kad jie išspręs klaidas vėliau nei atidės naujų produktų pristatymą.

5. Generatyvusis AI turi mažas patekimo kliūtis

AI įrankiai mažina kliūtis patekti į nusikaltimus. Kibernetiniai nusikaltėliai rengia šlamšto el. laiškus, rašo kenkėjiškų programų kodą ir kuria sukčiavimo nuorodas jas išnaudodami. Jiems net nereikia techninės patirties. Kadangi dirbtinis intelektas jau pasiekia didžiulius duomenų rinkinius, naudotojai turi tik apgauti jį, kad gautų kenksmingą, pavojingą informaciją.

OpenAI niekada nekūrė ChatGPT neteisėtai veiklai. Ji netgi turi gaires prieš juos. Dar sukčiai beveik akimirksniu gavo „ChatGPT“ koduojančią kenkėjišką programą ir rašyti sukčiavimo el. laiškus.

Nors OpenAI greitai išsprendė problemą, ji pabrėžia sistemos reguliavimo ir rizikos valdymo svarbą. AI bręsta greičiau, nei kas nors tikėjosi. Net technologijų lyderiai nerimauja, kad ši superprotinga technologija gali sukelti didžiulę žalą netinkamose rankose.

6. AI vis dar vystosi

AI vis dar vystosi. Nors AI kibernetikoje pradėtas naudoti 1940 m, šiuolaikinės mašininio mokymosi sistemos ir kalbų modeliai atsirado tik neseniai. Negalite jų palyginti su pirmaisiais AI diegimais. Netgi palyginti pažangūs įrankiai, tokie kaip „Siri“ ir „Alexa“, nublanksta, palyginti su LLM maitinamais pokalbių robotais.

Nors eksperimentinės funkcijos gali būti naujoviškos, jos taip pat sukelia naujų problemų. Didelio masto gedimai naudojant mašininio mokymosi technologijas nuo klaidingų „Google“ SERP iki šališkų pokalbių robotų, spjaudančių rasinius užgauliojimus.

Žinoma, kūrėjai gali išspręsti šias problemas. Tiesiog atkreipkite dėmesį, kad sukčiai nedvejodami išnaudos net iš pažiūros nekenksmingas klaidas – kai kurios žalos yra nepataisomos. Taigi būkite atsargūs tyrinėdami naujas platformas.

7. Daugelis dar nesupranta AI

Nors plačioji visuomenė turi prieigą prie sudėtingų kalbos modelių ir sistemų, tik nedaugelis žino, kaip jie veikia. Žmonės turėtų nustoti traktuoti AI kaip žaislą. Tie patys pokalbių robotai, kurie generuoja memus ir atsako į smulkmenas, taip pat masiškai koduoja virusus.

Deja, centralizuotas dirbtinio intelekto mokymas yra nerealus. Pasauliniai technologijų lyderiai daugiausia dėmesio skiria AI valdomų sistemų išleidimui, o ne nemokamiems švietimo ištekliams. Dėl to vartotojai gauna prieigą prie patikimų, galingų įrankių, kuriuos vos supranta. Visuomenė negali neatsilikti nuo AI lenktynių.

Paimkite ChatGPT kaip pavyzdį. Kibernetiniai nusikaltėliai piktnaudžiauja jos populiarumu apgaudinėdami aukas šnipinėjimo programos, paslėptos kaip „ChatGPT“ programos. Nė viena iš šių parinkčių nėra iš OpenAI.

8. „Black-Hat“ įsilaužėliai turi daugiau naudos nei „White Hat“ įsilaužėliai

Juodosios kepurės įsilaužėliai paprastai turi gauti daugiau nei etiški įsilaužėliai. Taip, pasaulinių technologijų lyderių rašiklio testavimas yra gerai apmokamas, tačiau tik procentas kibernetinio saugumo specialistų gauna šias pareigas. Dauguma dirba laisvai samdomą darbą internete. Tokios platformos kaip HackerOne ir Klaida sumokėkite kelis šimtus dolerių už įprastas klaidas.

Arba sukčiai, pasinaudodami nesaugumu, uždirba dešimtis tūkstančių. Jie gali šantažuoti įmones paviešindami konfidencialius duomenis arba pavogti asmens tapatybės dokumentą Asmenį identifikuojanti informacija (PII).

Kiekviena institucija, maža ar didelė, turi tinkamai įdiegti dirbtinio intelekto sistemas. Priešingai populiariems įsitikinimams, įsilaužėliai neapsiriboja technologijų startuoliais ir MVĮ. Kai kurie iš labiausiai istorinių duomenų pažeidimų per pastarąjį dešimtmetį įtraukti Facebook, Yahoo! ir net JAV vyriausybę.

Apsaugokite save nuo AI keliamos saugumo rizikos

Atsižvelgiant į šiuos dalykus, ar turėtumėte visiškai vengti AI? Žinoma ne. AI iš prigimties yra amoralus; visos saugumo rizikos kyla dėl to, kad žmonės iš tikrųjų jomis naudojasi. Ir jie ras būdų, kaip išnaudoti AI sistemas, kad ir kaip toli jos vystytųsi.

Užuot bijoję kibernetinio saugumo grėsmių, kylančių su AI, supraskite, kaip galite jų išvengti. Nesijaudinkite: paprastos saugumo priemonės labai padeda. Atsargiai žiūrint į šešėlines AI programas, vengiant keistų hipersaitų ir skeptiškai žiūrint į AI turinį, jau galima įveikti keletą pavojų.