Daugelis iš mūsų „ChatGPT“ naudojasi lengvabūdiškai, tačiau tai susiję su rimtomis saugumo ir privatumo problemomis, kurias turite žinoti.
2023 m. sausio mėn., praėjus vos dviem mėnesiams po paleidimo, „ChatGPT“ (generatyvus iš anksto apmokytas transformatorius) tapo greičiausiai augančia visų laikų programa, pritraukusia daugiau nei 100 mln. vartotojų.
Pažangus „OpenAI“ pokalbių robotas galėjo paskatinti visuomenės susidomėjimą dirbtiniu intelektu, tačiau tik nedaugelis rimtai pagalvojo apie galimą saugumo riziką, susijusią su šiuo produktu.
ChatGPT: saugumo grėsmės ir problemos
Technologijos, kuriomis grindžiamas „ChatGPT“ ir kiti pokalbių robotai, gali būti panašios, tačiau „ChatGPT“ yra atskira kategorija. Tai puiki žinia, jei ketinate jį naudoti kaip savotišką asmeninį asistentą, tačiau kelia nerimą, jei manote, kad ja naudojasi ir grėsmės veikėjai.
Kibernetiniai nusikaltėliai gali naudokite ChatGPT kenkėjiškų programų rašymui, kurkite sukčiavimo svetaines, generuokite sukčiavimo el. laiškus, kurkite netikras naujienas ir pan. Dėl šios priežasties „ChatGPT“ gali būti didesnė kibernetinio saugumo rizika nei nauda, kaip
Blyksnis kompiuteris įdėti jį į analizę.Tuo pačiu metu kyla rimtų susirūpinimų, kad pati ChatGPT turi tam tikrų nepašalintų spragų. Pavyzdžiui, 2023 m. kovo mėn. pasirodė pranešimų, kad kai kurie vartotojai gali peržiūrėti kitų pokalbių pavadinimus. Kaip The Verge tuo metu pranešta, OpenAI generalinis direktorius Samas Altmanas paaiškino, kad problemą sukėlė „atvirojo kodo bibliotekos klaida“.
Tai tik pabrėžia, kaip tai svarbu apriboti tai, ką bendrinate su „ChatGPT“., kuri pagal numatytuosius nustatymus surenka stulbinantį duomenų kiekį. Technikos didvyris „Samsung“ tai išmoko sunkiai, kai grupė darbuotojų, naudojusių pokalbių robotą kaip asistentą, netyčia nutekino jai konfidencialią informaciją.
Ar „ChatGPT“ kelia grėsmę jūsų privatumui?
Saugumas ir privatumas nėra vienas ir tas pats, tačiau jie yra glaudžiai susiję ir dažnai susikerta. Jei ChatGPT kelia grėsmę saugumui, ji taip pat kelia grėsmę privatumui ir atvirkščiai. Bet ką tai reiškia praktiškiau? Kokia yra „ChatGPT“ saugos ir privatumo politika?
Milijardai žodžių buvo iškrapštyti iš interneto, kad būtų sukurta didžiulė ChatGPT duomenų bazė. Ši duomenų bazė nuolat plečiama, nes „ChatGPT“ saugo viską, ką bendrina vartotojai. JAV įsikūrusi ne pelno siekianti organizacija Sveikas protas suteikė ChatGPT privatumo įvertinimo balą 61 proc., pažymėdamas, kad pokalbių robotas renka asmenį identifikuojančią informaciją (PII) ir kitus jautrius duomenis. Dauguma šių duomenų yra saugomi arba bendrinami su tam tikromis trečiosiomis šalimis.
Bet kokiu atveju turėtumėte būti atsargūs naudodami „ChatGPT“, ypač jei naudositės darbuarba apdoroti neskelbtiną informaciją. Paprastai neturėtumėte bendrinti su robotu to, ko nenorėtumėte, kad visuomenė žinotų.
Saugumo rizikos, susijusios su ChatGPT, sprendimas
Dirbtinis intelektas kada nors bus reguliuojamas, tačiau sunku įsivaizduoti pasaulį, kuriame jis nekeltų grėsmės saugumui. Kaip ir visa technologija, ja galima ir bus piktnaudžiaujama.
Ateityje pokalbių robotai taps neatsiejama paieškos sistemų, balso asistentų ir socialinių tinklų dalimi, teigia Malwarebytes. Ir jie turės atlikti savo vaidmenį įvairiose pramonės šakose, pradedant sveikatos priežiūra ir švietimu, baigiant finansais ir pramogomis.
Tai iš esmės pakeis mūsų žinomą saugumą. Tačiau, kaip pažymėjo „Malwarebytes“, „ChatGPT“ ir panašius įrankius gali naudoti ir kibernetinio saugumo specialistai; pavyzdžiui, ieškoti programinės įrangos klaidų arba „įtartinų modelių“ tinklo veikloje.
Sąmoningumo didinimas yra svarbiausia
Ką galės ChatGPT po penkerių ar 10 metų? Galime tik spėlioti, bet tikrai žinome, kad dirbtinis intelektas niekur nedings.
Atsiradus dar pažangesniems pokalbių robotams, ištisoms pramonės šakoms teks prisitaikyti ir išmokti jais atsakingai naudotis. Tai apima kibernetinio saugumo pramonę, kurią jau formuoja AI. Labai svarbu didinti informuotumą apie saugumo riziką, susijusią su AI, ir tai padės užtikrinti, kad šios technologijos būtų kuriamos ir naudojamos etiškai.