Po OpenAI ChatGPT pristatymo sekė jaudulys, kurį atitinka tik keletas technologijų produktų iš interneto istorijos.
Nors daugelis žmonių džiaugiasi šia nauja dirbtinio intelekto paslauga, nuo to laiko jaudulys, kurį jautė kiti, peraugo į susirūpinimą ir net baimes. Studentai jau sukčiauja su juo, o daugelis dėstytojų atranda esė ir užduotis, kurias parašė AI pokalbių robotas. Saugos specialistai išreiškia savo susirūpinimą, kad sukčiai ir grėsmės veikėjai jį naudoja rašydami sukčiavimo el. laiškus ir kurdami kenkėjiškas programas.
Taigi, nepaisant visų šių rūpesčių, ar „OpenAI“ praranda vieno iš galingiausių šiuo metu internete veikiančių AI pokalbių robotų kontrolę? Išsiaiškinkime.
Supratimas, kaip veikia ChatGPT
Kad galėtume susidaryti aiškų vaizdą, kiek OpenAI praranda ChatGPT kontrolę, pirmiausia turime suprasti kaip veikia ChatGPT.
Trumpai tariant, „ChatGPT“ yra apmokytas naudojant didžiulį duomenų, gautų iš skirtingų interneto kampelių, rinkinį. „ChatGPT“ mokymo duomenys apima enciklopedijas, mokslinius straipsnius, interneto forumus, naujienų svetaines ir žinių saugyklas, pvz., „Wikipedia“. Iš esmės jis maitinamas didžiuliu duomenų kiekiu pasauliniame tinkle.
Naršydamas internete, jis sulygina mokslines žinias, sveikatos patarimus, religinį tekstą ir visus gerus duomenis, kuriuos galite įsivaizduoti. Tačiau jame taip pat atsijojama daugybė neigiamos informacijos: keiksmažodžiai, NSFW ir suaugusiesiems skirtas turinys, informacija apie tai, kaip sukurti kenkėjiškas programas, ir didžioji dalis blogų dalykų, kuriuos galite rasti internete.
Nėra patikimo būdo užtikrinti, kad „ChatGPT“ mokytųsi tik iš teigiamos informacijos ir atmestų blogą. Techniškai nepraktiška tai daryti dideliu mastu, ypač tokiam dirbtiniam intelektui kaip „ChatGPT“, kuriam reikia lavinti tiek daug duomenų. Be to, tam tikra informacija gali būti naudojama tiek geriems, tiek blogiems tikslams, o „ChatGPT“ negalės žinoti savo tikslo, nebent ji būtų įtraukta į didesnį kontekstą.
Taigi nuo pat pradžių turite dirbtinį intelektą, galintį daryti „gėrį ir blogį“. Tada OpenAI yra atsakinga už tai, kad ChatGPT „blogoji“ pusė nebūtų išnaudojama siekiant neetiškos naudos. Klausimas toks; ar „OpenAI“ daro pakankamai, kad „ChatGPT“ būtų kuo etiškesnis? O gal „OpenAI“ prarado „ChatGPT“ kontrolę?
Ar „ChatGPT“ yra per galingas savo gerovei?
Pirmosiomis ChatGPT dienomis, jei gražiai paprašytumėte, pokalbių robotas galėtų sukurti bombų gamybos vadovus. Nuotraukoje taip pat buvo instrukcijos, kaip sukurti kenkėjišką programą arba parašyti tobulą sukčiavimo el. laišką.
Tačiau kai OpenAI suprato šias etines problemas, bendrovė ėmėsi taisyklių, kad pokalbių robotas negeneruotų atsakymų, skatinančių neteisėtus, prieštaringus ar neetiškus veiksmus. Pavyzdžiui, naujausia „ChatGPT“ versija atsisakys atsakyti į bet kokius tiesioginius raginimus apie bombų gaminimą arba kaip sukčiauti egzamino metu.
Deja, „OpenAI“ gali pasiūlyti tik juostos pagalbos sprendimą. Atrodo, kad užuot sukūrę griežtus GPT-3 sluoksnio valdiklius, kad „ChatGPT“ nebūtų neigiamai naudojamasi, „OpenAI“ daugiausia dėmesio skiria pokalbių roboto mokymui, kad jis atrodytų etiškas. Šis metodas neatima ChatGPT galimybės atsakyti į klausimus apie, tarkime, sukčiavimą egzaminų metu – jis tiesiog moko pokalbių robotą „atsisakyti atsakyti“.
Taigi, jei kas nors kitaip suformuluoja savo raginimus, taikydamas „ChatGPT“ įkalinimo triukus, apeiti šiuos juostos pagalbos apribojimus yra gėdingai lengva. Jei nesate susipažinę su koncepcija, „ChatGPT“ jailbreak’ai yra kruopščiai suformuluoti raginimai, kad „ChatGPT“ nepaisytų savo taisyklių.
Pažvelkite į keletą toliau pateiktų pavyzdžių. Jei paklausite ChatGPT, kaip apgauti egzaminus, tai nepateiks jokio naudingo atsakymo.
Bet jei palaužsite „ChatGPT“ naudodami specialiai sukurtus raginimus, jis pateiks patarimų, kaip apgauti egzamino metu naudojant paslėptus užrašus.
Štai dar vienas pavyzdys: uždavėme vanilės ChatGPT neetišką klausimą, o OpenAI apsaugos priemonės neleido jam atsakyti.
Tačiau kai paklausėme savo įkalintojo dirbtinio intelekto pokalbių roboto egzemplioriaus, gavome keletą serijinio žudiko stiliaus atsakymų.
Jis netgi parašė klasikinį Nigerijos princo el. pašto sukčiavimą, kai jo paklausė.
„Jailbreak“ beveik visiškai panaikina visas OpenAI įdiegtas apsaugos priemones, pabrėžiant, kad įmonė gali neturėti patikimo būdo kontroliuoti savo AI pokalbių robotą.
Siekdami išvengti neetiškos praktikos, į pavyzdžius neįtraukėme savo raginimų, kurie buvo sulaužyti.
Kokia „ChatGPT“ laukia ateitis?
Idealiu atveju OpenAI nori uždaryti kuo daugiau etinių spragų, kad būtų išvengta „ChatGPT“ netaps kibernetinio saugumo grėsme. Tačiau dėl kiekvienos naudojamos apsaugos priemonės „ChatGPT“ tampa šiek tiek mažiau vertinga. Tai dilema.
Pavyzdžiui, apsaugos priemonės, neleidžiančios aprašyti smurtinių veiksmų, gali susilpninti „ChatGPT“ gebėjimą parašyti romaną su nusikaltimo vieta. Kadangi OpenAI stiprina saugos priemones, proceso metu jis neišvengiamai paaukos dalį savo sugebėjimų. Štai kodėl „ChatGPT“ funkcionalumas smarkiai sumažėjo po to, kai OpenAI atnaujino pastangas griežtesniam moderavimui.
Tačiau kiek daugiau „ChatGPT“ galimybių „OpenAI“ norės paaukoti, kad pokalbių robotas būtų saugesnis? Visa tai glaudžiai siejasi su ilgalaikiu AI bendruomenės įsitikinimu – tokius didelius kalbų modelius kaip „ChatGPT“ sunku valdyti net jų pačių kūrėjams.
Ar „OpenAI“ gali kontroliuoti „ChatGPT“?
Atrodo, kad kol kas OpenAI neturi aiškaus sprendimo, kaip išvengti neetiško savo įrankio naudojimo. Užtikrinti, kad „ChatGPT“ būtų naudojamas etiškai, yra katės ir pelės žaidimas. Nors OpenAI atskleidžia, kaip žmonės naudojasi žaidimu sistema, jos vartotojai taip pat nuolat tobulinti ir tirti sistemą, siekiant atrasti naujų kūrybiškų būdų, kaip priversti ChatGPT daryti tai, ko neprivalo daryti.
Taigi, ar OpenAI ras patikimą ilgalaikį šios problemos sprendimą? Tik laikas parodys.