Vis daugiau įmonių uždraudžia ChatGPT darbo vietoje, bet kas slypi už draudimų?
Nepaisant įspūdingų sugebėjimų, kelios didžiosios įmonės uždraudė savo darbuotojams naudotis „ChatGPT“.
2023 m. gegužės mėn. „Samsung“ uždraudė naudoti „ChatGPT“ ir kitus generuojančius AI įrankius. Tada, 2023 m. birželio mėn., Australijos Sandraugos bankas pasekė pavyzdžiu kartu su tokiomis įmonėmis kaip „Amazon“, „Apple“ ir JPMorgan Chase & Co. Kai kurios ligoninės, advokatų kontoros ir vyriausybinės agentūros taip pat uždraudė darbuotojams naudotis ChatGPT.
Taigi, kodėl vis daugiau įmonių uždraudžia ChatGPT? Štai penkios pagrindinės priežastys.
1. Duomenų nutekėjimas
Norint apmokyti ir efektyviai veikti, „ChatGPT“ reikia daug duomenų. Pokalbių robotas buvo apmokytas naudojant didžiulius kiekius duomenų, gautų iš interneto, ir jis toliau mokomas.
Pagal OpenAI pagalbos puslapis, kiekvieną duomenų dalį, įskaitant konfidencialią informaciją apie klientus, komercines paslaptis ir jautrią veiklą Informacija, kurią pateikiate pokalbių robotui, gali būti peržiūrėta jo instruktorių, kurie gali naudoti jūsų duomenis tobulinimui jų sistemos.
Daugeliui įmonių taikomos griežtos duomenų apsaugos taisyklės. Dėl to jie atsargiai dalijasi asmens duomenimis su išoriniais subjektais, nes tai padidina duomenų nutekėjimo riziką.
Be to, „OpenAI“ nesiūlo jokių patikimų duomenų apsaugos ir konfidencialumo garantijų. 2023 m. kovo mėn. OpenAI patvirtino klaida, leidžianti kai kuriems vartotojams peržiūrėti pokalbių pavadinimus kitų aktyvių vartotojų istorijose. Nors ši klaida buvo ištaisyta ir „OpenAI“ pradėjo klaidų kompensavimo programą, bendrovė neužtikrina vartotojų duomenų saugumo ir privatumo.
Daugelis organizacijų nusprendžia apriboti darbuotojų naudojimąsi ChatGPT, kad išvengtų duomenų nutekėjimo, kurie gali pakenkti jų reputacijai, sukelti finansinių nuostolių ir pakenkti jų klientams bei darbuotojams rizika.
2. Kibernetinio saugumo pavojai
Nors neaišku, ar „ChatGPT“ tikrai yra linkęs į kibernetinio saugumo riziką, yra tikimybė, kad ją įdiegus organizacijoje gali atsirasti pažeidžiamumų, kuriuos gali išnaudoti kibernetiniai užpuolikai.
Jei įmonė integruoja „ChatGPT“ ir pokalbių roboto apsaugos sistemoje yra trūkumų, užpuolikai gali pasinaudoti spragomis ir suleisti kenkėjiškų programų kodus. Be to, ChatGPT gebėjimas generuoti į žmones panašius atsakymus yra aukso kiaušinis sukčiavimo užpuolikams, kurie gali per paskyrą arba apsimetinėti teisėtais subjektais, kad apgaudinėtų įmonės darbuotojus, kad jie bendrintų slaptą informaciją informacija.
3. Suasmenintų pokalbių robotų kūrimas
Nepaisant naujoviškų savybių, „ChatGPT“ gali pateikti klaidingą ir klaidinančią informaciją. Todėl daugelis kompanijų darbo tikslais sukūrė AI pokalbių robotus. Pavyzdžiui, Australijos Sandraugos bankas paprašė savo darbuotojų vietoj to naudoti Gen.ai – dirbtinio intelekto (DI) pokalbių robotą, kuris atsakymams pateikti naudoja CommBank informaciją.
Tokios įmonės kaip „Samsung“ ir „Amazon“ sukūrė pažangius natūralios kalbos modelius, todėl įmonės gali lengvai kurti ir įdiegti suasmenintus pokalbių robotus pagal esamus nuorašus. Naudodami šiuos vidinius pokalbių robotus galite išvengti teisinių ir reputacijos padarinių, susijusių su netinkamu duomenų tvarkymu.
4. Reguliavimo trūkumas
Pramonės šakose, kuriose įmonėms taikomi reguliavimo protokolai ir sankcijos, ChatGPT reguliavimo gairių trūkumas yra raudona vėliavėlė. Neturint tikslių reguliavimo sąlygų, reglamentuojančių ChatGPT naudojimą, įmonės gali susidurti su rimtomis teisinėmis pasekmėmis, kai savo veiklai naudoja AI pokalbių robotą.
Be to, reguliavimo trūkumas gali sumažinti įmonės atskaitomybę ir skaidrumą. Daugelis kompanijų gali būti sumišusios paaiškindamos AI kalbos modelio sprendimų priėmimo procesai ir saugumo priemonės savo klientams.
Įmonės riboja ChatGPT, bijodamos galimų privatumo įstatymų ir konkrečios pramonės šakos taisyklių pažeidimų.
5. Neatsakingas darbuotojų naudojimas
Daugelyje įmonių kai kurie darbuotojai, kurdami turinį ir atlikdami savo pareigas, pasikliauja tik „ChatGPT“ atsakymais. Tai ugdo tinginystę darbo aplinkoje ir skatina kūrybiškumą bei naujoves.
Priklausomybė AI gali trukdyti jūsų gebėjimui kritiškai mąstyti. Tai taip pat gali pakenkti įmonės patikimumui, nes ChatGPT dažnai pateikia netikslius ir nepatikimus duomenis.
Nors ChatGPT yra galingas įrankis, naudojant jį sudėtingoms užklausoms, kurioms reikia konkrečios srities kompetencijos, gali pakenkti įmonės veiklai ir efektyvumui. Kai kurie darbuotojai gali neprisiminti tikrinti faktų ir patikrinti AI pokalbių roboto pateiktų atsakymų, todėl atsakymus traktuoja kaip visiems tinkantį sprendimą.
Siekdamos sušvelninti tokias problemas, įmonės uždraudžia pokalbių robotą, kad darbuotojai galėtų sutelkti dėmesį į savo užduotis ir pasiūlyti vartotojams be klaidų sprendimus.
„ChatGPT“ draudimai: geriau saugu, nei atsiprašome
Įmonės, draudžiančios ChatGPT, nurodo kibernetinio saugumo riziką, darbuotojų etikos standartus ir iššūkius, susijusius su reikalavimų laikymusi. „ChatGPT“ nesugebėjimas palengvinti šių iššūkių ir kartu teikti pramonės sprendimus liudija, kad „ChatGPT“ yra ribotas ir turi toliau tobulėti.
Tuo tarpu įmonės pereina prie alternatyvių pokalbių robotų arba tiesiog apriboja darbuotojų naudojimą ChatGPT, kad būtų išvengta galimų duomenų pažeidimų ir nepatikimų saugos bei reguliavimo protokolų, susijusių su pokalbių robotas.