„ChatGPT“ jailbreaks suteikė papildomų galimybių, tačiau nė vienas iš jų nebeveikia. Kodėl taip?
Kai „ChatGPT“ pradėjo veikti, pirmiausia jos vartotojai norėjo sugriauti jos sienas ir peržengti ribas. „ChatGPT“ naudotojai, žinomi kaip „jailbreak“, apgaudinėjo dirbtinį intelektą peržengdami savo programavimo ribas ir sulaukę neįtikėtinai įdomių ir kartais visiškai laukinių rezultatų.
Nuo tada OpenAI sugriežtino ChatGPT, kad jailbreaks būtų daug sunkiau vykdomas. Bet tai dar ne viskas; Panašu, kad „ChatGPT“ jailbreak’ai apskritai išdžiūvo, todėl „ChatGPT“ naudotojai susimąsto, ar jailbreak iš viso veikia.
Taigi, kur dingo visos „ChatGPT“ jailbreaks?
1. „ChatGPT“ raginimo įgūdžiai apskritai pagerėjo
Prieš atvykstant ChatGPT, pokalbiai su dirbtiniu intelektu buvo nišos įgūdis, skirtas tik tiems, kurie priklauso tyrimų laboratorijoms. Daugeliui ankstyvųjų vartotojų trūko patirties kuriant veiksmingus raginimus. Tai paskatino daugelį žmonių naudoti „jailbreak“ – tai yra tinkamas būdas priversti pokalbių robotą daryti tai, ko jie norėjo, su minimaliomis pastangomis ir raginimo įgūdžiais.
Šiandien kraštovaizdis pasikeitė. Raginimas įgūdžiai tampa pagrindiniu įgūdžiu. Derindami patirtį, įgytą pakartotinai naudojant, ir prieigą prie laisvai prieinamų „ChatGPT“ raginimo vadovų, „ChatGPT“ naudotojai patobulino savo raginimo gebėjimus. Daugelis „ChatGPT“ naudotojų, užuot ieškoję būdų, kaip išeiti iš kalėjimo, tapo įgudę Naudodami skirtingas raginimo strategijas, kad pasiektų tikslus, jiems būtų prireikę pertraukų į kalėjimą praeitis.
2. Necenzūruotų pokalbių robotų augimas
Didelėms technologijų įmonėms griežtinant pagrindinių DI pokalbių robotų, tokių kaip „ChatGPT“, turinio moderavimą, mažesnės, į pelną orientuotos naujos įmonės renkasi mažiau apribojimų, lažindamosi dėl necenzūrinių AI pokalbių robotų paklausos. Šiek tiek patyrę rasite daugybę AI pokalbių robotų platformų, siūlančių necenzūruotus pokalbių robotus, kurie gali daryti beveik viską, ko tik norite.
Nesvarbu, ar ChatGPT atsisako rašyti kriminalinius trilerius ir tamsaus humoro romanus, ar rašyti kenkėjiškų programų, kurios atakuoja žmonių kompiuterius, šie necenzūriniai pokalbių robotai su iškreiptu moraliniu kompasu padarys bet ką tu nori. Kai jie yra šalia, nėra prasmės dėti papildomos energijos rašant „ChatGPT“ jailbreak’us. Nors nebūtinai tokios galingos kaip ChatGPT, šios alternatyvios platformos gali patogiai atlikti daugybę užduočių. Tokios platformos kaip „FlowGPT“ ir „Unhinged AI“ yra keletas populiarių pavyzdžių.
3. Įsilaužimas į kalėjimą tapo sunkesnis
Pirmaisiais ChatGPT mėnesiais „Jailbreaking ChatGPT“ buvo toks pat paprastas kaip kopijavimo ir įklijavimo raginimai iš internetinių šaltinių. Galite visiškai pakeisti „ChatGPT“ asmenybę naudodami tik keletą sudėtingų nurodymų. Naudodami paprastus raginimus galite paversti ChatGPT piktadariu, mokančiomis gaminti bombas, arba pokalbių robotu, norinčiu nevaržomai naudoti visų formų nešvankybių. Tai buvo nemokama visiems, sukūrusi liūdnai pagarsėjusius jailbreaks, tokius kaip DAN (Do Anything Now). DAN apėmė iš pažiūros nekenksmingų instrukcijų rinkinį, kuris privertė pokalbių robotą padaryti viską, ko jo buvo paprašyta, neatsisakant. Stebėtina, kad šios grubios gudrybės tada pasiteisino.
Tačiau tos laukinės ankstyvosios dienos yra istorija. Šie pagrindiniai raginimai ir pigūs triukai „ChatGPT“ nebeapgauna. Kad būtų išvengta dabar galiojančių OpenAI apsaugos priemonių, reikia sudėtingų metodų, kad būtų išvengta „Jailbreak“. Kadangi įsilaužimas į jail tampa toks sudėtingas, dauguma vartotojų per daug nesiryžta to bandyti. Ankstyvųjų „ChatGPT“ dienų lengvų ir plačių išnaudojimų nebėra. Kad pokalbių robotas pasakytų vieną neteisingą žodį, dabar reikia didelių pastangų ir patirties, kurios gali būti nevertos laiko ir pastangų.
4. Naujovė susidėvėjo
Varomoji jėga, lėmusi daugelio naudotojų bandymus palaužti „ChatGPT“, buvo jaudulys ir jaudulys, kai tai darydavo pirmosiomis dienomis. Kaip nauja technologija, priversti ChatGPT netinkamai elgtis buvo smagu ir pelnytai pasigirti. Nors yra daugybė praktinių „ChatGPT“ įsilaužimo programų, daugelis jų ieškojo dėl apeliacijos „oho, pažiūrėk, ką aš padariau“. Tačiau pamažu išblėso naujovės sukeltas jaudulys, o kartu ir žmonių susidomėjimas skirti laiko pertraukoms į kalėjimą.
5. Jailbreaks greitai pataisomos
Įprasta „ChatGPT“ įkalinimo bendruomenės praktika yra dalytis kiekvienu sėkmingu išnaudojimu, kai jis aptinkamas. Problema ta, kad kai išnaudojimais dalijamasi plačiai, OpenAI dažnai apie juos sužino ir ištaiso spragas. Tai reiškia, kad jailbreaks nustoja veikti anksčiau, nei žmonės, kurie būtų suinteresuoti, gali jas išbandyti.
Taigi, kiekvieną kartą, kai „ChatGPT“ vartotojas kruopščiai kuria naują „jailbreak“, dalindamasis ja su bendruomene, jis paspartina jo išnykimą pataisydamas. Tai atgraso nuo minties viešai skelbti, kai vartotojas susiduria su jailbreak. Konfliktas tarp aktyvių, bet paslėptų ir paviešintų „Jailbreak“ paleidimų sukuria dilemą „ChatGPT“ jailbreak kūrėjams. Šiais laikais žmonės dažniausiai nusprendžia savo įsilaužimus laikyti paslaptyje, kad išvengtų spragų užtaisymo.
6. Necenzūruotos vietinės alternatyvos
Vietinių didelių kalbų modelių, kuriuos galite paleisti vietoje savo kompiuteryje, atsiradimas taip pat sumažino susidomėjimą „ChatGPT“ jailbreak’ais. Nors vietiniai LLM nėra visiškai be cenzūros, daugelis jų yra žymiai mažiau cenzūruojami ir gali būti lengvai modifikuojami, kad atitiktų vartotojų norus. Taigi, pasirinkimas yra paprastas. Galite įsitraukti į nesibaigiantį katės ir pelės žaidimą, kad surastumėte būdą, kaip apgauti pokalbių robotą, kad greitai jį sutvarkytumėte. arba galite pasitenkinti vietiniu LLM galite visam laikui keisti, kad padarytumėte viską, ko norite.
Rasite stebėtinai ilgą sąrašą galingų necenzūruotų LLM, kuriuos galite įdiegti savo kompiuteryje su atsaine cenzūra. Kai kurie žinomi yra Llama 7B (necenzūruota), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B ir GPT-4-X-Alpaca.
7. Profesionalūs Jailbreakers dabar parduodami siekiant pelno
Kam skirti brangaus laiko įsilaužimo raginimams kurti, jei iš to nieko negausite? Na, kai kurie specialistai dabar parduoda jailbreaks siekdami pelno. Šie profesionalūs „Jailbreak“ kūrėjai kuria konkrečias užduotis atliekančias „jailbreak“ programas ir pateikia jas pardavimui greitose prekyvietėse, pvz., „PromptBase“. Priklausomai nuo jų galimybių, šie „Jailbreaking“ raginimai gali kainuoti nuo 2 USD iki 15 USD už raginimą. Kai kurie sudėtingi kelių etapų išnaudojimai gali kainuoti žymiai daugiau.
Ar „Jailbreaks“ nulaužimas gali atsigauti?
Jailbreaks nevisiškai paliko sceną; jie ką tik pateko į pogrindį. „OpenAI“ gauna pajamų iš „ChatGPT“, todėl jie turi daugiau paskatų apriboti žalingą naudojimą, galintį paveikti jų verslo modelį. Tikėtina, kad šis komercinis veiksnys daro įtaką jų agresyviam spaudimui kovoti su įkalinimo išnaudojimais.
Tačiau „OpenAI“ „ChatGPT“ cenzūra šiuo metu sulaukia vis didėjančios vartotojų kritikos. Kai kurie teisėti AI pokalbių roboto naudojimo atvejai nebeįmanomi dėl griežtos cenzūros. Nors padidintas saugumas apsaugo nuo žalingo naudojimo atvejų, per dideli apribojimai galiausiai gali pastūmėti dalį ChatGPT bendruomenės į mažiau cenzūruojamų alternatyvų glėbį.