„Samsung“ darbuotojai netyčia nutekino privačios įmonės duomenis naudodami „ChatGPT“ – tai pavyzdys, kodėl dirbtinis intelektas kelia tokią didelę grėsmę jūsų privatumui ir saugumui.

„ChatGPT“ tapo pagrindine saugumo ir privatumo problema, nes per daug iš mūsų netyčia dalijasi savo asmenine informacija. „ChatGPT“ registruoja kiekvieną pokalbį su juo, įskaitant visus asmeninius duomenis, kuriuos bendrinate. Vis dėlto to nesužinosite, nebent peržvelgtumėte OpenAI privatumo politiką, paslaugų teikimo sąlygas ir DUK puslapį, kad juos sujungtumėte.

Pakankamai pavojinga nutekėti savo informaciją, tačiau atsižvelgiant į tai, kad didžiulės įmonės kasdien naudoja „ChatGPT“ informacijai apdoroti, tai gali būti duomenų nutekėjimo nelaimės pradžia.

„Samsung“ nutekino konfidencialią informaciją per „ChatGPT“.

Pagal Gizmodo, „Samsung“ darbuotojai per „ChatGPT“ tris kartus per 20 dienų per klaidą nutekino konfidencialią informaciją. Tai tik vienas pavyzdys, kaip lengva įmonėms pažeisti privačią informaciją.

instagram viewer

„ChatGPT“ viešai kritikuojamas dėl privatumo problemų, todėl „Samsung“ leido tai įvykti labai apsisaugoti. Kai kurios šalys netgi uždraudė „ChatGPT“. apsaugoti savo piliečius, kol tai pagerins privatumą, todėl manote, kad įmonės būtų atsargesnės dėl to, kaip jų darbuotojai tuo naudojasi.

Laimei, atrodo, kad „Samsung“ klientai yra saugūs – bent jau kol kas. Pažeisti duomenys susiję tik su vidine verslo praktika, tam tikru patentuotu kodu, kurį jie šalino, ir komandos susitikimo protokolus, kuriuos pateikė darbuotojai. Tačiau darbuotojams būtų buvę taip pat lengva nutekėti vartotojų asmeninę informaciją, ir tik laiko klausimas, kada pamatysime, kad kita įmonė tai padarys. Jei taip atsitiks, galime tikėtis pamatyti didžiulis sukčiavimo sukčiavimo atvejų skaičius ir tapatybės vagystė.

Čia taip pat yra kitas rizikos sluoksnis. Jei darbuotojai naudoja ChatGPT ieškodami klaidų, kaip tai darė su Samsung nutekėjimu, kodas, kurį jie įveda į pokalbių laukelį, taip pat bus saugomas OpenAI serveriuose. Dėl to gali atsirasti pažeidimų, kurie turės didžiulį poveikį įmonėms, šalinančioms neišleistų produktų ir programų triktis. Galime net pastebėti, kad nutekėjo informacija, pvz., nepaskelbti verslo planai, būsimi leidimai ir prototipai, todėl prarandame didžiulius pajamas.

Kaip vyksta „ChatGPT“ duomenų nutekėjimas?

ChatGPT privatumo politika aiškiai nurodo, kad įrašo jūsų pokalbius ir bendrina žurnalus su kitomis įmonėmis ir AI treneriais. Kai kas nors (pavyzdžiui, „Samsung“ darbuotojas) dialogo lange įveda konfidencialią informaciją, ji įrašoma ir išsaugoma „ChatGPT“ serveriuose.

Mažai tikėtina, kad darbuotojai tai padarė tyčia, tačiau tai yra baisiausia dalis. Dauguma duomenų pažeidimų atsiranda dėl žmogaus klaidų. Dažnai taip yra todėl, kad įmonei nepavyko išmokyti savo darbuotojų apie privatumo riziką, kylančią naudojant tokias priemones kaip AI.

Pavyzdžiui, jei jie į pokalbį įklijuoja didelį kontaktų sąrašą ir paprašo AI atskirti klientų telefonų numerius nuo duomenų, „ChatGPT“ šiuos vardus ir telefonų numerius įrašo į savo įrašus. Jūsų asmeninė informacija priklauso nuo įmonių, su kuriomis jos nesidalinote, gailestingumo, todėl ji gali būti nepakankamai apsaugota, kad apsaugotų jus. Yra keletas dalykų, kuriuos galite padaryti saugokite save po duomenų pažeidimo, tačiau įmonės turėtų būti atsakingos už nutekėjimo prevenciją.

Istorijos moralė: nepasakok ChatGPT savo paslapčių

Galite saugiai naudoti „ChatGPT“ šimtams skirtingų užduočių, tačiau konfidencialios informacijos tvarkymas nėra viena iš jų. Turite būti atsargūs, kad į pokalbių laukelį neįvestumėte nieko asmeniško, įskaitant savo vardą, adresą, el. pašto adresą ir telefono numerį. Šią klaidą padaryti nesunku, todėl turėtumėte atidžiai patikrinti raginimus, kad įsitikintumėte, jog niekas netyčia nepadarė.

„Samsung“ nutekėjimas parodo, kokia reali yra su „ChatGPT“ susijusių duomenų nutekėjimo rizika. Deja, pamatysime daugiau tokių klaidų, kurių poveikis gali būti daug didesnis, nes dirbtinis intelektas tampa pagrindine daugumos įmonių procesų dalimi.