Naujausios dirbtinio intelekto technologijų naujovės plečia ribas to, ką kažkada manėme, kad tai įmanoma naudojant AI. Tačiau kai pokalbių robotai, tokie kaip „ChatGPT“ ir „Bing Chat“, kai kuriais dalykais tampa beveik tokie pat geri kaip žmonės, ar laikas kurį laiką paspausti stabdžius?

Elonas Muskas ir keli dirbtinio intelekto tyrinėtojai yra tarp 1188 žmonių (rašymo metu), kurie taip mano. Ne pelno instituto „Future of Life“ paskelbtame laiške raginama padaryti šešių mėnesių pertrauką mokant dirbtinio intelekto technologijas, geresnes nei GPT 4, tačiau ar tikrai reikia pertraukos?

Kas yra gyvenimo ateitis atvirame laiške?

The laišką, kurį paskelbė Gyvybės ateities institutas atkreipia dėmesį į tai, kad dirbtinio intelekto laboratorijos buvo „užrakintos nekontroliuojamose lenktynėse“, siekiant sukurti ir įdiegti daugiau galingesni AI modeliai, kurių niekas, įskaitant jų kūrėjus, negali „suprasti, numatyti ar patikimai“. kontrolė".

Taip pat pabrėžiama, kad šiuolaikinės AI sistemos dabar tampa konkurencingos žmonėms atliekant bendras užduotis ir klausia ar turėtume išvystyti „nežmoniškus protus, kurie ilgainiui gali viršyti, pergudrauti, pasenti ir pakeisti mus".

Galiausiai laiške visos AI laboratorijos raginamos nedelsiant bent šešiems mėnesiams sustabdyti galingesnių nei GPT-4 AI sistemų mokymą. Pauzė turėtų būti vieša ir ją būtų galima patikrinti visiems pagrindiniams veikėjams. Jame taip pat teigiama, kad jei tokios pauzės negalima greitai įgyvendinti, vyriausybės turėtų imtis veiksmų ir laikinai uždrausti dirbtinio intelekto modelių mokymą.

Suaktyvinus pauzę, dirbtinio intelekto laboratorijų ir nepriklausomų ekspertų prašoma ją panaudoti bendrai kurti ir įgyvendinti a „bendras saugumo protokolų rinkinys“, siekiant užtikrinti, kad šių taisyklių besilaikančios sistemos būtų „saugios daugiau nei pagrįstai abejoti“.

Šį laišką pasirašė nemažai įvardytų asmenybių, tarp jų Elonas Muskas, Steve'as Wozniakas ir dirbtinio intelekto tyrinėtojai bei autoriai. Tiesą sakant, šiuo metu pasirašiusiųjų sąrašas pristabdytas dėl didelės paklausos.

Kuo Muskui rūpi pažangiosios AI Technologijos ir OpenAI?

Nors „Future of Life“ laiško pasirašymas gali reikšti, kad Muskas yra susirūpinęs dėl pavojaus saugai, kurį kelia tokios pažangios AI sistemos, tikroji priežastis gali būti kažkas kita.

Muskas kartu su dabartiniu generaliniu direktoriumi Samu Altmanu įkūrė OpenAI dar 2015 m. kaip ne pelno siekianti organizacija. Tačiau vėliau 2018 m. jis susikirto su Altmanu, kai suprato, kad nėra patenkintas įmonės pažanga. Pranešama, kad Muskas norėjo perimti, kad paspartintų plėtrą, tačiau Altmanas ir OpenAI valdyba atmetė idėją.

Muskas netrukus pasitraukė iš „OpenAI“ ir pasiėmė pinigus su savimi, sulaužydamas pažadą skirti 1 milijardą finansavimo ir tik 100 mln. Tai privertė „OpenAI“ netrukus po to, 2019 m. kovo mėn., tapti privačia įmone, kad surinktų finansavimą savo tyrimams tęsti.

Vaizdo kreditas: Heisenberg Media/Wikimedia Commons

Kita priežastis, kodėl Muskas paliko, buvo ta, kad AI plėtra Tesloje ateityje sukels interesų konfliktą. Akivaizdu, kad „Tesla“ reikia pažangių AI sistemų, kad ji veiktų Visos savarankiško vairavimo funkcijos. Muskui palikus „OpenAI“, bendrovė pabėgo su savo AI modeliais ir paleido GPT3.5 maitinamas „ChatGPT“. 2022 m. ir vėliau GPT-4 2023 m. kovo mėn.

Tai, kad Musko AI komanda nė iš tolo neprilygsta OpenAI, reikia atsižvelgti kiekvieną kartą, kai jis sako, kad šiuolaikiniai AI modeliai gali kelti pavojų. Jis taip pat neturėjo problemų „Tesla Full Self-Driving“ beta versija viešuosiuose keliuose, iš esmės paverčiant įprastas Tesla tvarkykles beta versijos bandytojais.

Čia taip pat nesibaigia. Muskas taip pat gana kritiškai vertino „OpenAI“ socialiniame tinkle „Twitter“, o Altmanas teigė, kad puola juos, neseniai pasirodydamas podcast'e „On with Kara Swisher“.

Šiuo metu atrodo, kad Muskas tiesiog naudojasi „Future of Life“ laišku, kad sustabdytų „OpenAI“ plėtrą ir bet kurią kitą įmonę, besivystančią GPT-4, kad suteiktų savo įmonėms galimybę pasivyti, o ne iš tikrųjų nerimauti dėl galimų šių dirbtinio intelekto modelių pavojų pozuoti. Atkreipkite dėmesį, kad laiške taip pat prašoma pristabdyti AI sistemų „mokymą“ šešiems mėnesiams, kuriuos galima palyginti nesunkiai apeiti ir tuo tarpu toliau jas kurti.

Ar tikrai reikia pauzės?

Pristabdymo būtinybė priklauso nuo AI modelių būsenos. Laiškas neabejotinai yra šiek tiek dramatiško tono, ir mes nerizikuojame prarasti savo civilizacijos kontrolę dėl AI, kaip atvirai teigiama. Tai pasakė, AI technologijos kelia tam tikrų grėsmių.

Atsižvelgiant į tai, kad „OpenAI“ ir kitos AI laboratorijos gali atlikti geresnius saugos patikrinimus, pristabdymas padarytų daugiau žalos nei naudos. Tačiau laiške pateiktas pasiūlymas dėl bendrų saugos protokolų rinkinio, kurį „griežtai tikrina ir prižiūri nepriklausomi išorės ekspertai“, skamba kaip gera idėja.

Technologijų gigantai, tokie kaip „Google“ ir „Microsoft“, skiria milijardus dirbtinio intelekto kūrimui ir integravimui į savo produktus, mažai tikėtina, kad laiškas turės įtakos dabartiniam AI plėtros tempui.

AI yra čia, kad pasiliktų

Technologijų milžinams dar labiau stengiantis integruoti dirbtinį intelektą savo produktuose ir investuojant milijardus dolerių į mokslinius tyrimus ir plėtrą, dirbtinis intelektas pasiliks, nepaisant to, ką sako opozicija.

Tačiau nėra bloga idėja įgyvendinti saugos priemones, kad šios technologijos nenukristų nuo bėgių ir netaptų žalos padarymo įrankiais.