Dirbtinis intelektas gali skambėti kaip prezidentas. Arba tai gali skambėti kaip tu arba aš. Taigi kokią kibernetinio saugumo riziką kelia AI balso klonavimo programinė įranga?
Dirbtinis intelektas (AI) yra galinga technologija, kuri žada pakeisti mūsų gyvenimą. Niekada tai nebuvo taip aišku, kaip šiandien, kai galingi įrankiai yra prieinami visiems, turintiems interneto ryšį.
Tai apima AI balso generatorius, pažangią programinę įrangą, galinčią taip kompetentingai imituoti žmogaus kalbą, kad jų neįmanoma atskirti. Ką tai reiškia kibernetiniam saugumui?
Kaip veikia AI balso generatoriai?
Kalbos sintezė, žmogaus kalbos dirbtinio gamybos procesas, gyvuoja dešimtmečius. Ir, kaip ir visos technologijos, bėgant metams ji patyrė didelių pokyčių.
Tie, kurie naudojo „Windows 2000“ ir „XP“, gali prisiminti „Microsoft Sam“, operacinės sistemos numatytąjį teksto į kalbą vyrišką balsą. „Microsoft Sam“ padarė darbą, tačiau jos skleidžiami garsai buvo robotiški, kieti ir nenatūralūs. Šiandien mūsų turimos priemonės yra daug pažangesnės, daugiausia dėl gilaus mokymosi.
Gilus mokymasis yra a mašininio mokymosi metodas kuri yra pagrįsta dirbtiniais neuroniniais tinklais. Dėl šių neuroninių tinklų šiuolaikinis AI gali apdoroti duomenis beveik taip, kaip žmogaus smegenų neuronai interpretuoja informaciją. Kitaip tariant, kuo dirbtinis intelektas tampa panašesnis į žmogų, tuo geriau jis imituoja žmogaus elgesį.
Trumpai tariant, taip veikia šiuolaikiniai AI balso generatoriai. Kuo daugiau kalbos duomenų jie apšviečiami, tuo labiau jie sugeba pamėgdžioti žmogaus kalbą. Dėl palyginti neseniai padarytos šios technologijos pažangos, naujausia teksto į kalbą programinė įranga gali iš esmės atkartoti perduodamus garsus.
Kaip grėsmių aktoriai naudoja AI balso generatorius
Nenuostabu, kad šia technologija piktnaudžiauja grėsmės veikėjai. Ir ne tik kibernetiniai nusikaltėliai tipine to žodžio prasme, bet ir dezinformacijos agentai, sukčiai, juodosios kepurės rinkodaros specialistai ir troliai.
Tą akimirką, kai 2023 m. sausio mėn. „ElevenLabs“ išleido teksto į kalbą programinės įrangos beta versiją, pranešimų lentoje „4chan“ esantys kraštutinių dešiniųjų troliai pradėjo ja piktnaudžiauti. Naudodami pažangųjį dirbtinį intelektą, jie atkūrė tokių asmenų, kaip Davidas Attenboroughas ir Emma Watson, balsus, todėl atrodė, kad įžymybės rengia niekšiškas, neapykantos kupinas tiradas.
Kaip Vice tuo metu pranešta, „ElevenLabs“ pripažino, kad žmonės netinkamai naudojasi jos programine įranga, ypač balso klonavimu. Ši funkcija leidžia bet kam „klonuoti“ kito žmogaus balsą; viskas, ką jums reikia padaryti, tai įkelti vienos minutės įrašą, o visa kita padarys AI. Tikėtina, kad kuo ilgesnis įrašas, tuo geresnė išvestis.
2023 m. kovo mėn. dėmesį patraukė virusinis „TikTok“ vaizdo įrašas „New York Times“.. Vaizdo įraše garsus podcasteris Joe Roganas ir daktaras Andrew Hubermanas, dažnas „The Joe Rogan Experience“ svečias, diskutavo apie „libido didinantį“ kofeino gėrimą. Vaizdo įraše atrodė, kad tiek Roganas, tiek Hubermanas nedviprasmiškai pritaria produktui. Iš tikrųjų jų balsai buvo klonuoti naudojant AI.
Maždaug tuo pačiu metu dėl rizikos valdymo klaidų ir kitų problemų žlugo Santa Klaroje, Kalifornijoje, įsikūręs Silicio slėnio bankas, kurį perėmė valstijos vyriausybė. Tai buvo didžiausias banko žlugimas Jungtinėse Valstijose nuo 2008 m. finansinės krizės, todėl jis sukėlė šokiravimo bangas visose pasaulio rinkose.
Prie panikos prisidėjo netikras JAV prezidento Joe Bideno garso įrašas. Įraše Bidenas, matyt, buvo perspėjęs apie neišvengiamą „žlugimą“ ir įsakęs savo administracijai „išnaudoti visas žiniasklaidos jėgas, kad nuramintų visuomenę“. Faktų tikrintojams patinka PolitiFact netruko demaskuoti klipą, bet greičiausiai milijonai jį jau buvo girdėję.
Jei dirbtinio intelekto balso generatoriai gali būti naudojami apsimesti įžymybėmis, jie taip pat gali būti naudojami apsimesti įprastais žmonėmis, ir būtent tai darė kibernetiniai nusikaltėliai. Pagal ZDNet, tūkstančiai amerikiečių patenka į sukčius, žinomus kaip vizhing arba balso sukčiavimas kiekvienais metais. Viena pagyvenusi pora pateko į šalies žinias 2023 m., kai jiems paskambino jų „anūkas“, kuris teigė esąs kalėjime ir paprašė pinigų.
Jei kada nors įkėlėte „YouTube“ vaizdo įrašą (arba pasirodėte viename), dalyvavote dideliame grupės skambutyje su žmonėmis, kurių nesate jei žinote arba įkėlėte savo balsą į internetą, jums ar jūsų artimiesiems teoriškai gali kilti pavojus. Kas neleistų sukčiui įkelti jūsų balso į AI generatorių, jį klonuoti ir susisiekti su jūsų šeima?
AI balso generatoriai trikdo kibernetinio saugumo kraštovaizdį
Nereikia kibernetinio saugumo eksperto, kad suprastų, koks pavojingas AI gali būti netinkamose rankose. Ir nors tiesa, kad tą patį galima pasakyti apie visas technologijas, AI yra unikali grėsmė dėl kelių priežasčių.
Pirma, jis yra palyginti naujas, o tai reiškia, kad mes tikrai nežinome, ko iš jo tikėtis. Šiuolaikiniai dirbtinio intelekto įrankiai leidžia kibernetiniams nusikaltėliams precedento neturinčiu būdu padidinti ir automatizuoti savo veiklą, tuo pačiu pasinaudojant santykiniu visuomenės nežinojimu šiuo klausimu. Be to, generatyvus AI leidžia grėsmės veikėjams, turintiems mažai žinių ir įgūdžių sukurti kenkėjišką kodą, kurti sukčiavimo svetaines, platinti šlamštą, rašyti sukčiavimo el. laiškus, sukurti tikroviškus vaizdusir sukurti begalę valandų netikro garso ir vaizdo turinio.
Svarbiausia, kad tai veikia abiem būdais: dirbtinis intelektas taip pat naudojamas sistemoms apsaugoti ir greičiausiai tai bus dar dešimtmečius. Nebūtų nepagrįsta manyti, kad mūsų laukia tam tikros AI ginklavimosi lenktynės tarp kibernetinių nusikaltėlių ir kibernetinio saugumo pramonei, nes šių įrankių gynybiniai ir puolimo pajėgumai yra iš prigimties lygus.
Paprastam žmogui plačiai paplitęs generatyvus AI reikalauja radikalumo saugumo praktikos permąstymas. Kad ir koks būtų įdomus ir naudingas dirbtinis intelektas, jis gali bent jau panaikinti ribą tarp to, kas yra tikra ir kas nėra, o blogiausiu atveju paaštrina esamas saugumo problemas ir sukuria naują erdvę grėsmės veikėjams manevruoti in.
Balso generatoriai parodo naikinamąjį AI potencialą
Kai tik „ChatGPT“ pasirodė rinkoje, kalbos apie AI reguliavimą įsibėgėjo. Bet koks bandymas apriboti šią technologiją tikriausiai pareikalautų tokio tarptautinio bendradarbiavimo, kokio nematėme dešimtmečius, todėl tai mažai tikėtina.
Džinsas iškrito iš butelio, ir geriausia, ką galime padaryti, tai prie jo priprasti. Tai ir tikimės, kad kibernetinio saugumo sektorius atitinkamai prisitaikys.