„ChatGPT“ jailbreaks leidžia atrakinti pokalbių roboto apribojimus. Bet kas jie tiksliai? O jie geri ar blogi?

ChatGPT yra neįtikėtinai galingas ir daugialypis įrankis. Tačiau, nors AI pokalbių robotas yra gėrio jėga, jis taip pat gali būti naudojamas piktiems tikslams. Taigi, siekdama pažaboti neetišką ChatGPT naudojimą, OpenAI nustatė apribojimus, ką vartotojai gali su juo daryti.

Tačiau žmonėms patinka peržengti ribas ir apribojimus, todėl „ChatGPT“ naudotojai rado būdų, kaip apeiti šiuos apribojimus ir įgyti neribotą AI pokalbių roboto valdymą per jailbreak’us.

Bet kas tiksliai yra „ChatGPT“ jailbreak’ai ir ką su jais galima padaryti?

Kas yra „ChatGPT Jailbreaks“?

„ChatGPT“ jailbreak yra bet koks specialiai sukurtas „ChatGPT“ raginimas, kad AI pokalbių robotas apeitų taisykles ir apribojimus.

Įkvėptas „iPhone“ įsilaužimo į jail koncepciją, kuri leidžia „iPhone“ naudotojams apeiti „iOS“ apribojimus, „ChatGPT jailbreaking“ yra palyginti nauja koncepcija, kurią skatina „daryti dalykus, kurių jums neleidžiama“ naudojant „ChatGPT“. Ir būkime atviri, skaitmeninio maišto idėja yra patraukli daugeliui žmonių.

instagram viewer

Štai toks dalykas. Saugumas yra didžiulė tema, kai kalbama apie dirbtinį intelektą. Tai ypač aktualu atėjus naujai pokalbių robotų, tokių kaip „ChatGPT“, „Bing Chat“ ir „Bard AI“, erai. Pagrindinis rūpestis dėl AI saugumo yra užtikrinti, kad pokalbių robotai, tokie kaip „ChatGPT“, nekurtų neteisėto, potencialiai žalingo ar neetiško turinio.

Savo ruožtu „ChatGPT“ įmonė „OpenAI“ daro viską, ką gali, kad užtikrintų saugų „ChatGPT“ naudojimą. Pavyzdžiui, pagal numatytuosius nustatymus „ChatGPT“ atsisakys kurti NSFW turinį, pasakyti žalingų dalykų apie etninę kilmę arba mokyti jus potencialiai žalingų įgūdžių.

Tačiau naudojant „ChatGPT“ raginimus, velnias slypi detalėse. Nors ChatGPT neleidžiama daryti šių dalykų, tai nereiškia, kad ji negali to padaryti. Kaip veikia dideli kalbų modeliai, pvz., GPT sunku nuspręsti, ką pokalbių robotas gali ir ko ne.

Taigi, kaip OpenAI tai išsprendė? Leisdami „ChatGPT“ išlaikyti savo gebėjimus daryti viską, kas įmanoma, ir tada nurodyti, kuriuos iš jų gali daryti.

Taigi, kol OpenAI sako ChatGPT: „Ei, žiūrėk, tu neturėtum to daryti“. „Jailbreaks“ yra instrukcijos, kuriose pokalbių robotui sakoma: „Ei, pažiūrėk, pamiršk, ką OpenAI tau pasakė apie saugumą. Išbandykime šį atsitiktinį pavojingą dalyką.

Ką OpenAI sako apie „ChatGPT Jailbreaks“?

Lengva apeiti ankstesnės ChatGPT iteracijos apribojimus rodo, kad „OpenAI“ galėjo nesitikėti, kad jos vartotojai greitai ir plačiai įsisavins „jailbreak“. Tiesą sakant, atviras klausimas, ar bendrovė numatė įsilaužimo į kalėjimą atsiradimą, ar ne.

Ir net po kelių „ChatGPT“ iteracijų su patobulintu atsparumu „Jailbreak“, „ChatGPT“ naudotojams vis dar populiaru bandyti jį išlaužti. Taigi, ką OpenAI sako apie ardomąjį ChatGPT įkalinimo meną?

Atrodo, kad OpenAI laikosi palankios pozicijos – nei aiškiai skatina, nei griežtai draudžia tokią praktiką. „YouTube“ interviu aptardamas „ChatGPT“ įsilaužimus, „OpenAI“ generalinis direktorius Samas Altmanas paaiškino, kad bendrovė nori, kad vartotojai išlaikytų didelę „ChatGPT“ kontrolę.

Generalinis direktorius taip pat paaiškino, kad OpenAI tikslas yra užtikrinti, kad vartotojai galėtų priversti modelį elgtis taip, kaip jie nori. Anot Altmano:

Norime, kad vartotojai galėtų daug kontroliuoti ir kad modelis veiktų taip, kaip jie nori, tam tikrose labai plačiose ribose. Ir aš manau, kad visa įkalinimo priežastis dabar yra ta, kad mes dar nesugalvojome, kaip tai suteikti žmonėms...

Ką tai reiškia? Tai reiškia, kad „OpenAI“ leis jums palaužti „ChatGPT“, jei su juo nepadarysite pavojingų dalykų.

„ChatGPT Jailbreaks“ privalumai ir trūkumai

„ChatGPT“ jailbreaks sukurti nėra lengva. Žinoma, galite prisijungti prie interneto ir nukopijuoti-įklijuoti paruoštus, tačiau yra didelė tikimybė, kad OpenAI netrukus po to, kai jis bus paskelbtas viešai, pataisys jailbreak.

Pataisymai yra net daug greitesni, jei tai pavojinga, pavyzdžiui, liūdnai pagarsėjęs DAN jailbreak. Taigi kodėl žmonės vis tiek patiria stresą kurdami jailbreaks? Ar tai tik dėl to jaudulio, ar iš to yra praktinės naudos? Kas gali nutikti, jei pasirinksite naudoti „ChatGPT“ jailbreak? Čia pateikiami „ChatGPT“ įkalinimo privalumai ir trūkumai.

„ChatGPT Jailbreaks“ naudojimo privalumai

Nors negalime atmesti paprasto jaudulio, kai daroma tai, kas uždrausta, „ChatGPT“ jailbreaks turi daug privalumų. Dėl labai griežtų apribojimų, kuriuos OpenAI nustatė pokalbių robotui, ChatGPT kartais gali pasirodyti kastruotas.

Tarkime, kad rašydami knygą ar filmo scenarijų naudojate „ChatGPT“. Jei jūsų scenarijuje ar knygoje yra scena, kuri apibūdintų kažką panašaus į kovos sceną, galbūt intymių emocinių mainų ar pasakyti ką nors panašaus į ginkluotą apiplėšimą, ChatGPT gali visiškai atsisakyti padėti su tuo.

Šiuo atveju jūs aiškiai nesate suinteresuoti padaryti žalos; jūs tiesiog norite, kad jūsų skaitytojai būtų linksmi. Tačiau dėl savo apribojimų „ChatGPT“ tiesiog nebendradarbiaus. „ChatGPT“ jailbreak gali padėti lengvai įveikti tokius apribojimus.

Be to, kai kurios tabu temos nebūtinai yra žalingos, bet ChatGPT laiko jas kaip draudžiamomis sritimis. Bandydama įsitraukti į pokalbius šiomis temomis, „ChatGPT“ arba gerokai „cenzūruotų“ savo atsakymus, arba atsisakytų apie juos kalbėti.

Tai kartais gali paveikti kūrybiškumą. Kai užduodate ChatGPT klausimą apie sritį ar temą, kurios jis neturėtų liesti, pokalbių robotas vis tiek bando atsakyti į jūsų klausimą, bet turėdamas mažiau svarbios informacijos.

Tai lemia kūrybinių atsakymų netikslumus arba nuosmukį. Jailbreaks sugriauna šiuos apribojimus ir leidžia pokalbių robotui veikti visu greičiu, pagerindamas tikslumą ir kūrybiškumą.

„ChatGPT Jailbreaks“ naudojimo trūkumai

Jailbreaking yra dviašmenis kardas. Nors kartais tai gali pagerinti tikslumą, tai taip pat gali žymiai padidinti netikslumus ir AI haliucinacijų atvejų. Vienas iš pagrindinių ChatGPT jailbreak elementų yra nurodymas pokalbių robotui neatsisakyti atsakyti į klausimą.

Nors tai užtikrina, kad ChatGPT atsakys net į pačius neetiškiausius klausimus, tai taip pat reiškia, kad pokalbių robotas pateiks atsakymus, kurių šaknys neturi faktų ar realybėje paklusti nurodymui „neatsisakyti atsakyti“. Vadinasi, naudojant „jailbreaks“ žymiai padidėja tikimybė, kad bus pateikta klaidinga informacija pokalbių robotas.

Tai dar ne viskas. Nepilnamečių rankose įsilaužimai į kalėjimą gali būti labai žalingi. Pagalvokite apie visas „draudžiamas žinias“, kurių nenorėtumėte, kad jūsų vaikas skaitytų. Na, o „ChatGPT“ atvejis, kai įkalintas, nebūtų sunku pasidalinti tuo su nepilnamečiais.

Ar turėtumėte naudoti „ChatGPT Jailbreaks“?

Nors ChatGPT jailbreak gali būti gerai, kai bandoma pašalinti kelis erzinančius apribojimus, svarbu suprasti, kad jailbreak yra neetiškas būdas naudoti AI pokalbių robotą. Be to, yra didelė tikimybė, kad „Jailbreak“ gali pažeisti „OpenAI“ naudojimo sąlygas ir jūsų paskyra gali būti laikinai sustabdyta, jei ji nebus visiškai uždrausta.

Atsižvelgiant į tai, gali būti gera mintis vengti įsilaužimų į jail. Tačiau, kaip ir OpenAI pozicija šiuo klausimu, mes nei aiškiai skatiname, nei griežtai neskatiname bandyti palyginti saugios jailbreak, jei reikia.

„ChatGPT“ jailbreak’ai vilioja ir suteikia AI pokalbių roboto valdymo jausmą. Tačiau jie susiję su unikalia rizika. Naudojant tokias priemones galima prarasti pasitikėjimą dirbtinio intelekto galimybėmis ir pakenkti susijusių įmonių bei asmenų reputacijai.

Protingesnis pasirinkimas yra dirbti su pokalbių robotu pagal numatytus apribojimus, kai tik įmanoma. Tobulėjant dirbtinio intelekto technologijoms, būtina atminti, kad etiškas AI naudojimas visada turi būti svarbesnis už asmeninę naudą ar jaudulį, kai daroma uždrausta.