Galbūt girdėjote apie priešiškas atakas, susijusias su dirbtiniu intelektu ir mašininiu mokymusi, bet kas tai yra? Kokie jų tikslai?
Technologijos dažnai reiškia, kad mūsų gyvenimas yra patogesnis ir saugesnis. Tačiau tuo pat metu tokia pažanga atrakino sudėtingesnius būdus kibernetiniams nusikaltėliams užpulti mus ir sugadinti mūsų saugumo sistemas, todėl jos tapo bejėgės.
Dirbtinį intelektą (DI) gali naudoti ir kibernetinio saugumo specialistai, ir kibernetiniai nusikaltėliai; taip pat mašininio mokymosi (ML) sistemos gali būti naudojamos tiek gėriui, tiek blogiui. Dėl šio moralinio kompaso trūkumo priešiškos atakos ML tapo vis didesniu iššūkiu. Taigi, kas iš tikrųjų yra priešiškos atakos? Koks jų tikslas? O kaip nuo jų apsisaugoti?
Kas yra priešpriešiniai išpuoliai naudojant mašininį mokymąsi?
Priešingos ML arba priešiškos atakos yra kibernetinės atakos, kuriomis siekiama apgauti ML modelį naudojant kenkėjišką įvestį ir taip sumažinti tikslumą ir prastą našumą. Taigi, nepaisant pavadinimo, priešiška ML yra ne mašininio mokymosi rūšis, o įvairūs metodai, kuriuos kibernetiniai nusikaltėliai (dar žinomi kaip priešininkai) naudoja siekdami nukreipti į ML sistemas.
Pagrindinis tokių atakų tikslas paprastai yra apgauti modelį, kad jis pateiktų neskelbtiną informaciją, nesugebėjimas aptikti nesąžiningos veiklos, pateikti neteisingas prognozes arba sugadinti analizę pranešimus. Nors yra keletas priešiškų atakų tipų, jos dažnai nukreiptos į gilų mokymusi pagrįstą šlamšto aptikimą.
Tikriausiai esate girdėję apie an priešininko puolimas viduryje, kuri yra nauja ir efektyvesnė sudėtinga sukčiavimo technika, apimanti privačios informacijos vagystę, seanso slapukus ir netgi kelių veiksnių autentifikavimo (MFA) metodų apeinimą. Laimei, su jais galite kovoti Sukčiavimui atspari MFA technologija.
Priešingų išpuolių tipai
Paprasčiausias būdas klasifikuoti priešiškų išpuolių tipus yra suskirstyti juos į dvi pagrindines kategorijas:tikslinių išpuolių ir netikslių išpuolių. Kaip siūloma, tikslinės atakos turi konkretų taikinį (pvz., konkretų asmenį), o netikslinės neturi nieko konkretaus: jos gali būti nukreiptos beveik į bet ką. Nenuostabu, kad netikslinės atakos užima mažiau laiko, bet ir yra mažiau sėkmingos nei jų tikslinės atakos.
Šiuos du tipus galima toliau suskirstyti į balta dėžutė ir juoda dėžė priešpriešinės atakos, kai spalva rodo, kad yra žinomos tikslinės ML modelio arba jos nežinomos. Prieš pasinerdami į baltųjų ir juodųjų dėžių atakas, trumpai apžvelkime dažniausiai pasitaikančias priešiškų išpuolių rūšis.
- Išsiskyrimas: dažniausiai naudojamos kenkėjiškų programų scenarijuose, vengimo atakomis bandoma išvengti aptikimo slepiant kenkėjiškomis programomis užkrėstų ir el. pašto šiukšlių turinį. Naudodamas bandymų ir klaidų metodą, užpuolikas manipuliuoja duomenimis diegimo metu ir sugadina ML modelio konfidencialumą. Biometrinis klastojimas yra vienas iš labiausiai paplitusių slėpimo atakų pavyzdžių.
- Apsinuodijimas duomenimis: Taip pat žinomos kaip užterštos atakos, kuriomis siekiama manipuliuoti ML modeliu mokymo ar diegimo laikotarpiu ir sumažinti tikslumą bei našumą. Įvesdami kenkėjiškas įvestis, užpuolikai sutrikdo modelį ir apsunkina saugos specialistų galimybę aptikti pavyzdinių duomenų tipą, kuris sugadina ML modelį.
- Bizantijos ydos: Šio tipo ataka praranda sistemos paslaugą dėl Bizantijos gedimo sistemose, kurioms reikalingas visų mazgų sutarimas. Kai vienas iš jo patikimų mazgų tampa nesąžiningu, jis gali nutraukti paslaugų atsisakymo (DoS) ataką ir išjungti sistemą, neleisdamas kitiems mazgams susisiekti.
- Modelio ištraukimas: Ištraukimo atakos metu priešas ištirs juodosios dėžės ML sistemą, kad išgautų savo mokymo duomenis arba, blogiausiu atveju, patį modelį. Tada, turėdamas rankose ML modelio kopiją, priešas galėtų išbandyti savo kenkėjiškas programas nuo antimalware / antivirusinės programos ir išsiaiškinti, kaip ją apeiti.
- Išvadų atakos: Kaip ir išgavimo atakų atveju, čia siekiama, kad ML modelis nutekėtų informacija apie jo mokymo duomenis. Tačiau priešas bandys išsiaiškinti, kuris duomenų rinkinys buvo naudojamas sistemai apmokyti, kad galėtų išnaudoti jos pažeidžiamumą ar paklaidas.
Baltoji dėžė vs. Juodoji dėžė vs. „Grey-Box“ priešiški išpuoliai
Šiuos tris priešiškų išpuolių tipus išskiria tai, kiek priešininkai turi žinių apie ML sistemų, kurias jie planuoja atakuoti, vidinį veikimą. Nors baltos dėžutės metodas reikalauja išsamios informacijos apie tikslinį ML modelį (įskaitant jo architektūra ir parametrai), juodosios dėžės metodas nereikalauja jokios informacijos ir gali tik ją stebėti išėjimai.
Tuo tarpu pilkos dėžutės modelis yra šių dviejų kraštutinumų viduryje. Pagal jį priešininkai gali turėti tam tikros informacijos apie duomenų rinkinį ar kitos informacijos apie ML modelį, bet ne visą.
Kaip galite apginti mašininį mokymąsi nuo priešiškų išpuolių?
Nors žmonės vis dar yra esminis kibernetinio saugumo stiprinimo komponentas,AI ir ML išmoko aptikti ir užkirsti kelią kenkėjiškoms atakoms– jie gali padidinti kenkėjiškų grėsmių aptikimo, vartotojų veiklos stebėjimo, įtartino turinio atpažinimo ir daug daugiau. Bet ar jie gali atremti priešiškas atakas ir apsaugoti ML modelius?
Vienas iš būdų, kaip kovoti su kibernetinėmis atakomis, yra išmokyti ML sistemas atpažinti priešiškas atakas anksčiau laiko, įtraukiant pavyzdžius prie jų mokymo procedūros.
Skirtingai nuo šio brutalios jėgos metodo, gynybinis distiliavimo metodas siūlo naudoti pirminį, efektyvesnį modelį, kad išsiaiškintume. Išsiaiškinkite svarbiausias antrinio, mažiau efektyvaus modelio savybes ir pagerinkite antrinio modelio tikslumą su pirminiu vienas. ML modeliai, paruošti naudojant gynybinį distiliavimą, yra mažiau jautrūs priešiniams mėginiams, todėl jie yra mažiau jautrūs išnaudojimui.
Taip pat galėtume nuolat keisti algoritmus, kuriuos ML modeliai naudoja duomenų klasifikavimui, todėl priešiškos atakos gali būti mažiau sėkmingos.
Kitas pastebimas metodas yra funkcijų suspaudimas, kuris sumažins priešininkams prieinamą paieškos erdvę, „išstumdamas“ nereikalingas įvesties funkcijas. Šiuo atveju siekiama sumažinti klaidingų teigiamų rezultatų skaičių ir veiksmingiau aptikti prieštaraujančius pavyzdžius.
Mašininio mokymosi ir dirbtinio intelekto apsauga
Priešingos atakos mums parodė, kad daugelis ML modelių gali būti sudaužyti stebinančiais būdais. Galų gale, priešpriešinis mašinų mokymasis vis dar yra nauja kibernetinio saugumo tyrimų sritis, kuri kelia daug sudėtingų AI ir ML problemų.
Nors nėra stebuklingo sprendimo, kaip apsaugoti šiuos modelius nuo visų priešiškų išpuolių, Ateityje greičiausiai bus pažangesnių metodų ir pažangesnių strategijų, kaip įveikti šią baisybę priešininkas.