Šį įrašą remia Incognito.
Apsidairykite aplinkui; aplinka knibždėte knibžda AI ir beveik stebuklingų jo galimybių. AI arba dirbtinis intelektas leidžia kompiuteriui ar mašinai mąstyti, mokytis ir elgtis protingai, kaip žmogus.
Iš tiesų, ChatGPT ir kitos generuojančios AI technologijos plinta beveik visose pramonės šakose – nuo sveikatos priežiūros, bankininkystės ir gamybos iki kūrybinių menų ir vartotojų programinės įrangos.
Tačiau ar ši įgalinanti nauja ateitis, kuri klesti iš duomenų, suteiks mums pagrindinę žmogaus teisę į privatumą?
Jei jums kyla panašių minčių, jūsų privatumo susirūpinimas dėl dirbtinio intelekto yra natūralus. Jūsų privatumas dabar svarbiau nei bet kada šiame skaitmeniniame amžiuje.
Kokia yra privatumo rizika, susijusi su AI?
Pagal „Pew Research“ apklausos, kas ketvirto amerikiečio prašoma sutikti su privatumo politika kiekvieną dieną. Vis dėlto tik 22 % skaito visą privatumo politiką.
Panagrinėkime AI paslaugas, tokias kaip „ChatGPT“, „Google Cloud AI“, „Jupyter“, „Viso Suite“ ir „Chrorus.ai“ Jų privatumo politikoje teigiama, kad rinkti jūsų asmeninę informaciją, turinį, kurį žiūrite ar su kuriuo bendraujate, ir netgi gauti duomenis iš socialinės žiniasklaidos platformų ir viešosios duomenų bazės.
Be to, jūsų duomenys naudojami mokant jų AI modelius.
Taigi galite džiaugtis, kad el. laiškai ir pristatymai bus parašyti per kelias sekundes; kalbėtis su klientų aptarnavimo robotu; apsipirkdami išbandykite priedus; arba tiesiog „Google“, nes skelbimai, pagrįsti jūsų pomėgiais, seka jus žiniatinklyje.
Šios operacijos atliekamos naudojant jūsų duomenis, kurie renkami kiekvieną minutę. Jei manote, kad tai dirbtinis intelektas, pažeidžiantis jūsų privatumą, neklystate.
Nors dirbtinio intelekto įmonės teigia, kad jūsų informacija yra saugi, daugybė kibernetinių nusikaltėlių įvykdytų duomenų pažeidimų sukėlė tapatybės vagystę, finansinius nuostolius ir žalą aukų reputacijai visame pasaulyje.
Išvados apie „Surfshark“ pasaulinės duomenų pažeidimų statistikos tyrimas rodo, kad nuo 2004 m. JAV buvo atskleista daugiau nei 2,6 milijardo įrašų dėl duomenų pažeidimų.
Ir dauguma AI modelių yra parengti remiantis dideliu duomenų rinkiniu iš viešųjų šaltinių, kurių dauguma yra šališki. Šis šališkumas gali sukelti rimtų pasekmių, pavyzdžiui, pažeisti jūsų teisę į privatumą.
Teisinės ir etinės privatumo pasekmės dirbtinio intelekto amžiuje
Ar mūsų privatumo įstatymai taikomi dirbtiniam intelektui? Pagal Amerikos advokatų asociacijos podcast'as Dėl AI reguliavimo JAV šiuo metu nėra išsamaus federalinio teisės akto, skirto tik DI reguliavimui.
Europos Sąjunga priėmė dirbtinio intelekto įstatymą, pagal kurį reglamentas didės proporcingai galimai AI sistemos keliamai grėsmei privatumui ir saugumui. Tikimės, kad šis AI įstatymas paskatins JAV, JK ir kitas šalis priimti savo įstatymus.
Tačiau dirbtinio intelekto reguliavimas ir privatumo apsauga kelia daug iššūkių, nes AI algoritmai yra sudėtingi.
Antra, dauguma galiojančių privatumo įstatymų yra pagrįsti vartotojų pasirinkimo pranešimo ir sutikimo modeliu. Privatumo politika yra pavyzdys, su kuriuo klientai sutinka, bet retai perskaito visą.
Taip pat asmenys, parduodami dėl dirbtinio intelekto revoliucijos, gali noriai atskleisti privačią informaciją, o tai prieštarauja tikslui užtikrinti duomenų privatumą iš dirbtinio intelekto.
Idealiu atveju mūsų naujoji dirbtinio intelekto grindžiama ateitis taip pat turėtų būti grindžiama etika, kad apsaugotume mūsų duomenų privatumą. Ji turi būti saugi, teisinga, nešališka ir naudinga visiems. Kūrėjai ir kūrėjai turi mokyti dirbtinio intelekto modelius naudodami įvairius duomenis.
Norėdami pelnyti mūsų pasitikėjimą, dirbtinio intelekto modeliai turi būti skaidrūs dėl sprendimų, priimtų naudojant mūsų duomenis. Kadangi dirbtinis intelektas jau pakeičia didelę darbo jėgą, DI plėtra turėtų padėti sukurti geresnių darbo vietų.
Privatumo apsauga dirbtinio intelekto valdomame pasaulyje
Turėtumėte turėti galimybę bendrinti norimus asmens duomenis. Ir dirbtinio intelekto įmonės turi įdiegti patobulintas duomenų apsaugos priemones, kad jūsų informacija išliktų saugi ir privati.
Privatumo projektavimo principai turėtų būti integruoti į visas operacijas, visas veiklas ir apdorojimą, taip užtikrinant duomenų privatumo apsaugą per visą AI sistemos gyvavimo ciklą.
Be to, dirbtinio intelekto modeliams ir naujoms dirbtinio intelekto įmonėms turėtų būti taikomi tvirti įstatymai ir taisyklės.
Pirmajame pasauliniame UNESCO sukurtame standarte teisė į privatumą ir duomenų apsaugą yra tarp 10 pagrindinių šios rekomendacijos principų kuriant dirbtinio intelekto technologijas.
Jūsų vaidmuo saugant privatumą
Pagal „Surfshark“ požiūris į privatumą, 2022 m, 90 % interneto vartotojų sutinka, kad privatumas internete jiems yra svarbus. O 32% teigia, kad paslaugų kokybė svarbiau už privatumą.
Jei turite ištirti naujausią AI technologiją, kad dirbtumėte greičiau, pirmyn. Tačiau skirkite kelias minutes ir perskaitykite jos privatumo politiką. Ir ieškokite duomenų bendrinimo atsisakymo.
Pradėkite tvarkyti savo privatumą laikydami įrenginį rankoje arba kompiuteryje. Naršydami naudokite VPN ir nenaudokite saugyklos leidimų programoms, kurių nenaudojate.
Ar žinojote, kad galite reguliariai išvalyti skaitmeninį pėdsaką? Ir atsisakyti duomenų bazių duomenų brokeriai kas renka jūsų asmeninę informaciją?
Grąžinkite savo privatumą naudodami „Incogni“.
Duomenų brokeriai visada siekia pavogti jūsų asmeninę informaciją iš viešųjų įrašų ir per jūsų naršymo įpročius. Jei praktiškai išbandėte akinius nuo saulės, jūsų veidas taip pat bus įtrauktas į duomenų bazę.
Incogni pateikiami duomenų brokeriai, galintys turėti klientų informaciją, pvz., socialinio draudimo numerį, fizinį adresą, sveikatos informaciją, telefono numerį arba el. pašto adresą. Tokie duomenys parduodami investicijų, sveikatos priežiūros, finansų, rinkodaros ar įdarbinimo įmonėms. Arba naudojo jus apgaudinėti arba sugauti banginių medžioklės spąstus.
Visa tai gali sukelti nepageidaujamų skelbimų, turėti įtakos jūsų paskolos ar draudimo įkainiams ir padidinti kibernetinių atakų riziką.
Tačiau „Incogni“ jūsų vardu siunčia duomenų pašalinimo užklausas duomenų tarpininkams, net kai jūsų duomenys ištrinami, nes duomenų brokeriai vėl pradeda rinkti jūsų informaciją.
Galite stebėti procesą ir peržiūrėti galimas rastas duomenų bazes, išsiųstas užklausas ir įvykdytas užklausas patogioje vartotojui incognito prietaisų skydelyje.
Galite atsiimti savo privatumą dabar, paimdami a 1 metų Incogni prenumerata su 50% nuolaida– tik 6,49 USD per mėnesį – ir saugokite savo duomenis iš rinkos.
AI ir jūsų privatumas: revoliucinės pusiausvyros poreikis
Be jokios abejonės, ši nauja dirbtinio intelekto ateitis yra linkusi į pavojų privatumui, todėl svarbu tai spręsti. Ir „Incogni“ galėtų būti išeitis.
Iš tiesų, pokyčių ratas, skirtas reguliuoti dirbtinio intelekto įmones ir apsaugoti jūsų privatumą, pradėjo suktis. Tikimės, kad ji įgaus pagreitį, kad taptų tokia revoliucija kaip AI ir atitiks subalansuoto požiūrio į AI plėtrą ir privatumo apsaugą poreikį.
Tai yra remiamas įrašas. Šiame straipsnyje pateikiami produktų pasirinkimai ir nuomonės yra iš rėmėjo ir neatspindi MakeUseOf ar jos darbuotojų redakcinės krypties.