Pokalbiai su pokalbių robotais gali jaustis intymūs, bet jūs tikrai dalijatės kiekvienu žodžiu su privačia įmone.
Dirbtinio intelekto pokalbių robotų populiarumas išaugo. Nors jų galimybės įspūdingos, svarbu pripažinti, kad pokalbių robotai nėra nepriekaištingi. Naudojant AI pokalbių robotus yra būdinga rizika, pvz., susirūpinimas dėl privatumo ir galimos kibernetinės atakos. Labai svarbu būti atsargiems dirbant su pokalbių robotais.
Išnagrinėkime galimus pavojus dalijantis informacija su AI pokalbių robotais ir pažiūrėkime, kokios informacijos jiems nereikėtų atskleisti.
Rizika, susijusi su AI pokalbių robotų naudojimu
Privatumo rizika ir pažeidžiamumas, susijęs su AI pokalbių robotais, kelia didelį vartotojų saugumo susirūpinimą. Tai gali jus nustebinti, bet jūsų draugiški pokalbių draugai, tokie kaip „ChatGPT“, „Bard“, „Bing AI“ ir kiti, gali netyčia atskleisti jūsų asmeninę informaciją internete. Šie pokalbių robotai remiasi AI kalbos modeliais, kurie įžvalgas gauna iš jūsų duomenų.
Pavyzdžiui, dabartinės „Google“ pokalbių roboto „Bard“ versijos DUK puslapyje aiškiai nurodoma, kad ji renka ir naudoja pokalbių duomenis savo modeliui parengti. Panašiai,
„ChatGPT“ taip pat turi privatumo problemų nes gali išsaugoti pokalbių įrašus modelio tobulinimui. Tačiau tai suteikia galimybę atsisakyti.Kadangi AI pokalbių robotai saugo duomenis serveriuose, jie tampa pažeidžiami bandymų įsilaužti. Šiuose serveriuose yra daug informacijos, kuri kibernetiniai nusikaltėliai gali išnaudoti įvairiais būdais. Jie gali įsiskverbti į serverius, pasisavinti duomenis ir parduoti juos tamsiosiose interneto rinkose. Be to, įsilaužėliai gali panaudoti šiuos duomenis, kad nulaužtų slaptažodžius ir gautų neteisėtą prieigą prie jūsų įrenginių.
Be to, duomenys, gauti iš jūsų sąveikos su AI pokalbių robotais, neapsiriboja vien atitinkamomis įmonėmis. Nors jie teigia, kad duomenys nėra parduodami reklamos ar rinkodaros tikslais, jie dalijamasi su tam tikromis trečiosiomis šalimis sistemos priežiūros reikalavimams.
„OpenAI“, „ChatGPT“ organizacija, pripažįsta, kad dalijasi duomenimis su „atrinkta patikimų paslaugų teikėjų grupe“ ir kad kai kurie „įgalioti OpenAI darbuotojai“ gali turėti prieigą prie duomenų. Ši praktika kelia papildomų saugumo problemų, susijusių su AI pokalbių robotų sąveika, kaip teigia kritikai gali pablogėti generatyvinės AI saugumo problemos.
Todėl, norint išlaikyti jūsų privatumą, labai svarbu apsaugoti asmeninę informaciją nuo AI pokalbių robotų.
Ko negalima bendrinti su AI pokalbių robotais?
Norint užtikrinti privatumą ir saugumą, bendraujant su AI pokalbių robotais labai svarbu laikytis šių penkių geriausių praktikų.
1. Finansinės detalės
Gali kibernetiniai nusikaltėliai naudoja AI pokalbių robotus, tokius kaip ChatGPT, kad įsilaužtų į jūsų banko sąskaitą? Plačiai naudojant AI pokalbių robotus, daugelis vartotojų kreipėsi į šiuos kalbinius modelius finansinių patarimų ir asmeninių finansų valdymo klausimais. Nors jie gali pagerinti finansinį raštingumą, labai svarbu žinoti galimus pavojus, kylančius dalijantis finansine informacija su AI pokalbių robotais.
Naudodami pokalbių robotus kaip finansinius patarėjus, rizikuojate, kad jūsų finansinė informacija bus atskleista potencialiems kibernetiniams nusikaltėliams, kurie gali ja pasinaudoti norėdami nusausinti jūsų sąskaitas. Nepaisant to, kad įmonės teigia anonimizuojančios pokalbių duomenis, trečiosios šalys ir kai kurie darbuotojai vis tiek gali turėti prieigą prie jų. Tai kelia susirūpinimą dėl profiliavimo, kai jūsų finansinė informacija gali būti naudojama kenkėjiškiems tikslams, pvz., išpirkos reikalaujančių programų kampanijoms arba parduota rinkodaros agentūroms.
Norėdami apsaugoti savo finansinę informaciją nuo AI pokalbių robotų, turite atsižvelgti į tai, ką bendrinate su šiais generuojančiais AI modeliais. Patartina apsiriboti bendravimu tik bendrosios informacijos gavimu ir plačių klausimų uždavimu. Jei jums reikia asmeninių finansinių patarimų, gali būti geresnių variantų nei pasikliauti vien AI robotais. Jie gali pateikti netikslią ar klaidinančią informaciją, todėl gali rizikuoti sunkiai uždirbtais pinigais. Verčiau apsvarstykite galimybę kreiptis patarimo į licencijuotą finansų patarėją, kuris galėtų pateikti patikimas ir pritaikytas rekomendacijas.
2. Jūsų asmeninės ir intymios mintys
Daugelis vartotojų kreipiasi į AI pokalbių robotai, norėdami ieškoti terapijos, nežinodami galimų pasekmių savo psichinei gerovei. Labai svarbu suprasti, koks pavojus yra asmeninės ir intymios informacijos atskleidimo šiems pokalbių robotams.
Pirma, pokalbių robotams trūksta realaus pasaulio žinių ir jie gali pasiūlyti tik bendrus atsakymus į su psichikos sveikata susijusias užklausas. Tai reiškia, kad jų siūlomi vaistai ar gydymas gali neatitikti jūsų specifinių poreikių ir gali pakenkti jūsų sveikatai.
Be to, dalijimasis asmeninėmis mintimis su AI pokalbių robotais kelia didelių susirūpinimą dėl privatumo. Jūsų privatumas gali būti pažeistas dėl jūsų paslapčių, o intymios mintys gali būti nutekintos internete. Piktybiški asmenys gali pasinaudoti šia informacija, norėdami šnipinėti jus arba parduoti jūsų duomenis tamsiajame žiniatinklyje. Todėl bendraujant su AI pokalbių robotais labai svarbu apsaugoti asmeninių minčių privatumą.
Labai svarbu, kad dirbtinio intelekto pokalbių robotai būtų bendrosios informacijos ir paramos įrankiai, o ne profesionalios terapijos pakaitalas. Jei jums reikia psichikos sveikatos patarimo ar gydymo, visada patartina pasikonsultuoti su kvalifikuotu psichikos sveikatos specialistu. Jie gali suteikti asmeninių ir patikimų patarimų, o pirmenybę teikia jūsų privatumui ir gerovei.
3. Konfidenciali jūsų darbo vietos informacija
Kita klaida, kurios vartotojai turi vengti bendraudami su AI pokalbių robotais, yra dalijimasis konfidencialia su darbu susijusia informacija. Netgi žinomi technologijų gigantai, tokie kaip „Apple“, „Samsung“, „JPMorgan“ ir „Google“, „Bard“ kūrėjas, apribojo savo darbuotojams galimybę naudoti AI pokalbių robotus darbo vietoje.
A „Bloomberg“ ataskaita pabrėžė atvejį, kai „Samsung“ darbuotojai naudojo „ChatGPT“ kodavimo tikslais ir netyčia įkėlė jautrų kodą į generuojamąją AI platformą. Dėl šio incidento buvo neteisėtai atskleista konfidenciali informacija apie „Samsung“, todėl bendrovė privertė uždrausti dirbtinio intelekto pokalbių robotų naudojimą. Kadangi kūrėjas nori pagalbos iš AI, kad išspręstų kodavimo problemas, tai yra priežastis kodėl neturėtumėte pasitikėti AI pokalbių robotais, tokiais kaip „ChatGPT“, su konfidencialia informacija. Labai svarbu būti atsargiems dalijantis slaptu kodu arba su darbu susijusia informacija.
Be to, daugelis darbuotojų pasikliauja dirbtinio intelekto pokalbių robotais, kad apibendrintų susitikimų protokolus arba automatizuotų pasikartojančias užduotis, o tai kelia pavojų netyčia atskleisti neskelbtinus duomenis. Taigi labai svarbu išlaikyti konfidencialios darbo informacijos privatumą ir nesidalyti ja su AI pokalbių robotais.
Naudotojai gali apsaugoti savo neskelbtiną informaciją ir apsaugoti savo organizacijas nuo netyčinio nutekėjimo ar duomenų pažeidimo, atsižvelgdami į riziką, susijusią su dalijimusi su darbu susijusiais duomenimis.
4. Slaptažodžiai
Labai svarbu pabrėžti, kad dalytis slaptažodžiais internete, net naudojant kalbinius modelius, yra visiškai draudžiama. Šie modeliai saugo jūsų duomenis viešuose serveriuose, o slaptažodžių atskleidimas jiems kelia pavojų jūsų privatumui. Pažeidus serverį, įsilaužėliai gali pasiekti ir išnaudoti jūsų slaptažodžius, siekdami finansinės žalos.
Reikšmingas duomenų pažeidimas, susijęs su ChatGPT įvyko 2022 m. gegužę, sukeldamas rimtą susirūpinimą dėl pokalbių robotų platformų saugumo. Be to, „ChatGPT“ buvo uždraustas Italijoje dėl Europos Sąjungos Bendrojo duomenų apsaugos reglamento (BDAR). Italijos reguliuotojai manė, kad AI pokalbių robotas neatitinka privatumo įstatymų, todėl pabrėžė duomenų pažeidimų platformoje riziką. Todėl labai svarbu apsaugoti savo prisijungimo duomenis nuo AI pokalbių robotų.
Nebendrindami slaptažodžių su šiais pokalbių robotų modeliais, galite aktyviai apsaugoti savo asmeninę informaciją ir sumažinti tikimybę tapti kibernetinių grėsmių auka. Atminkite, kad prisijungimo kredencialų apsauga yra esminis žingsnis siekiant išlaikyti privatumą ir saugumą internete.
5. Informacija apie gyvenamąją vietą ir kiti asmens duomenys
Svarbu nesidalyti asmens identifikavimo informacija (PII) su AI pokalbių robotais. AII apima neskelbtinus duomenis, kurie gali būti naudojami jus identifikuoti arba surasti, įskaitant jūsų buvimo vietą, socialinio draudimo numerį, gimimo datą ir informaciją apie sveikatą. Svarbiausias prioritetas turėtų būti asmeninės ir gyvenamosios vietos duomenų privatumo užtikrinimas bendraujant su AI pokalbių robotais.
Norėdami išlaikyti savo asmeninių duomenų privatumą dirbant su AI pokalbių robotais, reikia laikytis kelių pagrindinių praktikų:
- Susipažinkite su pokalbių robotų privatumo politika, kad suprastumėte susijusią riziką.
- Venkite užduoti klausimų, kurie gali netyčia atskleisti jūsų tapatybę arba asmeninę informaciją.
- Būkite atsargūs ir nesidalykite savo medicinine informacija su AI robotais.
- Naudodami AI pokalbių robotus tokiose socialinėse platformose kaip „SnapChat“, atkreipkite dėmesį į galimus duomenų pažeidžiamumus.
Venkite per daug dalytis su AI pokalbių robotais
Apibendrinant galima pasakyti, kad nors AI pokalbių roboto technologija siūlo didelę pažangą, ji taip pat kelia rimtą pavojų privatumui. Duomenų apsauga kontroliuojant bendrinamą informaciją yra labai svarbi sąveikaujant su AI pokalbių robotais. Būkite budrūs ir laikykitės geriausios praktikos, kad sumažintumėte galimą riziką ir užtikrintumėte privatumą.