Skelbimas

Per pastaruosius kelis mėnesius galbūt perskaitėte aplinkinius straipsnis, kurio autorius yra Stephenas Hawkingas, aptariant su dirbtiniu intelektu susijusią riziką. Straipsnyje buvo teigiama, kad PG gali kelti rimtą pavojų žmonijai. Hawkingas ten ne vienas - Elonas Muskas ir Petras Thielis yra intelektualūs visuomenės veikėjai, išreiškę panašų susirūpinimą (Thielis investavo daugiau nei 1,3 mln. USD tyrinėdamas problemą ir galimus sprendimus).

„Hawkingo“ straipsnis ir Musko komentarai buvo aprėpti, kad neįdėtumėte per daug smulkaus taško, jis yra šiek tiek linksmas. Tonas buvo labai daug „Pažvelk į šį keistą dalyką, dėl kurio visi šie geikai yra susirūpinę“. Mažai svarstoma mintis, kad jei kokie nors protingiausi žmonės Žemėje įspės jus, kad kažkas gali būti labai pavojinga, tiesiog gali būti verta jo išklausyti.

Tai suprantama - dirbtinis intelektas, užvaldantis pasaulį, tikrai skamba labai keistai ir neįtikėtinas, gal dėl to, kad mokslinė fantastika šiai idėjai jau skyrė didžiulį dėmesį rašytojai. Taigi, ką visi šie nominaliai sveiki, racionalūs žmonės taip sujaudino?

Kas yra intelektas?

Norint kalbėti apie dirbtinio intelekto pavojų, gali būti naudinga suprasti, kas yra intelektas. Norėdami geriau suprasti šią problemą, pažvelkime į žaislų PG architektūrą, kurią naudoja mokslininkai, tyrinėjantys samprotavimo teoriją. Šis žaislas AI vadinamas AIXI ir turi daugybę naudingų savybių. Jos tikslai gali būti savavališki, jie gerai pritaikomi skaičiavimo galiai, o vidinis dizainas yra labai švarus ir aiškus.

Be to, galite įdiegti paprastas, praktines architektūros versijas, kurios gali padaryti panašius dalykus vaidinti Pacmaną, Jeigu nori. AIXI yra AI tyrinėtojo, vardu Marcusas Hutteris, kuris, ko gero, yra svarbiausias algoritminės intelekto eksperto produktas, produktas. Tai jis kalba aukščiau esančiame vaizdo įraše.

AIXI yra stebėtinai paprastas: jis turi tris pagrindinius komponentus: besimokantysis, planuotojasir naudingumo funkcija.

  • besimokantysis imasi bitų eilučių, atitinkančių įvestį apie išorinį pasaulį, ir ieško kompiuterio programų, kol randa tas, kurios pateikia stebėjimus kaip išvestį. Šios programos kartu leidžia spėlioti, kaip atrodys ateitis, tiesiog paleidus kiekvieną programos į priekį ir rezultato tikimybės svorį pagal programos trukmę („Occam“ programos įgyvendinimas) Skustuvas).
  • planuotojas ieško galimų veiksmų, kurių gali imtis agentas, ir pasitelkia besimokančiojo modulį, kad nuspėtų, kas nutiktų, jei jo prireiktų kiekvienam iš jų. Tada įvertina juos pagal numatomus rezultatus gerus ar blogus ir pasirenka kursą veiksmas, maksimaliai padidinantis numatomo rezultato gerumą, padaugintą iš numatomos tikimybės jį pasiekus.
  • Paskutinis modulis naudingumo funkcija, yra paprasta programa, kurioje pateikiamas būsimos pasaulio būklės aprašymas ir apskaičiuojamas naudingumo balas. Šis naudingumo balas yra toks geras ar blogas rezultatas, kurį naudoja planuotojas, norėdamas įvertinti būsimą pasaulio būklę. Naudingumo funkcija gali būti savavališka.
  • Visi šie trys komponentai sudaro optimizatorius, kuris optimizuojamas tam tikram tikslui, neatsižvelgiant į pasaulį, kuriame jis atsiduria.

Šis paprastas modelis atspindi pagrindinį intelektualaus agento apibrėžimą. Agentas tiria savo aplinką, kuria jos modelius, o paskui naudoja tuos modelius, kad surastų veiksmų eigą, kuri padidins šansus gauti tai, ko nori. AIXI struktūra yra panaši į AI, kuris žaidžia šachmatais ar kitais žaidimais su žinomomis taisyklėmis - išskyrus tai, kad sugeba išvesti žaidimo taisykles žaisdamas jį, pradedant nuo nulio žinių.

AIXI, turėdama pakankamai laiko skaičiavimui, gali išmokti optimizuoti bet kokią sistemą bet kokiam tikslui, kad ir koks sudėtingas jis būtų. Tai paprastai intelektualus algoritmas. Atminkite, kad tai nėra tas pats dalykas, kaip turėti intelektą į žmogų (biologiškai įkvėptas PG yra visai kita tema Giovanni Idili iš „OpenWorm“: smegenys, kirminai ir dirbtinis intelektasŽmogaus smegenų modeliavimas yra kelias, tačiau atvirojo kodo projektas žengia svarbiausius pirmuosius žingsnius imituodamas vieno iš paprasčiausių mokslui žinomų gyvūnų neurologiją ir fiziologiją. Skaityti daugiau ). Kitaip tariant, AIXI gali sugebėti pralenkti bet kurį žmogų, atlikdamas bet kurią intelektinę užduotį (jai suteikta pakankamai skaičiavimo galios), tačiau gali būti, kad nežino apie savo pergalę Mąstymo mašinos: ką neuromokslas ir dirbtinis intelektas gali išmokyti mus apie sąmonęAr dirbtinai intelektualių mašinų ir programinės įrangos kūrimas gali mus išmokyti apie sąmonės veikimą ir paties žmogaus proto prigimtį? Skaityti daugiau .

galvos kultūra

Kaip praktinis AI, AIXI turi daug problemų. Pirma, jis neturi būdo surasti tas programas, kurios sukuria jus dominančią produkciją. Tai yra žiaurios jėgos algoritmas, kuris reiškia, kad jis nėra praktiškas, jei neatsitiks savavališkai galingas kompiuteris. Bet koks realus AIXI įgyvendinimas yra būtinas apytikslis ir (šiandien) paprastai gana grubus. Vis dėlto AIXI suteikia mums teorinį žvilgsnį į tai, kaip galėtų atrodyti galingas dirbtinis intelektas ir kaip tai gali būti pagrįsta.

Vertybių erdvė

Jei jūs atlikote bet kokį kompiuterio programavimą Kompiuterio programavimo pagrindai 101 - kintamieji ir duomenų tipaiPrieš tai supažindinome ir šiek tiek papasakojome apie objektų programavimą, kur ir koks jo vardas kilęs, maniau, kad laikas pereiti absoliučius programavimo pagrindus, nesusijusius su kalba būdas. Šiame ... Skaityti daugiau , jūs žinote, kad kompiuteriai yra nemalonūs, pedantiški ir mechaniškai pažodžiui. Mašina nežino ir nerūpi, ką norite daryti: ji daro tik tai, kas buvo liepta. Tai yra svarbi mintis, kai kalbame apie mašinų intelektą.

Turėkite tai omenyje, kad išradote galingą dirbtinį intelektą - jūs sugalvojote su protingais algoritmais, skirtais hipotezėms, atitinkančioms jūsų duomenis, generuoti ir geram kandidatui generuoti planai. Jūsų AI gali išspręsti bendras problemas ir gali tai efektyviai atlikti naudodamas šiuolaikinę kompiuterio aparatūrą.

Dabar atėjo laikas pasirinkti naudingumo funkciją, kuri nustatys AI reikšmes. Ko turėtum paprašyti, kad tai įvertintų? Atminkite, kad mašina bus įkyriai, pedantiškai pažodžiui apie bet kokią funkciją, kurios paprašysite, kad ją padidintumėte, ir niekada nesustos - nėra vaiduoklio mašina, kuri kada nors „pabus“ ir nuspręs pakeisti savo naudingumo funkciją, nepaisant to, kiek efektyvumo patobulinimų ji padaro savo samprotavimas.

Eliezer Yudkowsky padėk taip:

Kaip ir atliekant kompiuterinį programavimą, pagrindinis AGI iššūkis ir esminis sunkumas yra tas, kad jei parašysime neteisingą kodą, AI automatiškai neperžiūrės mūsų kodo, nepažymės klaidų, nesugalvos, ką iš tikrųjų norėjome pasakyti, ir padarys tai vietoj to. Neprogramuotojai kartais įsivaizduoja AGI arba kompiuterines programas kaip analogiškas tarnautojui, kuris neabejotinai vykdo nurodymus. Bet nėra taip, kad PG yra absoliučiai tinkama paklusnus prie jo kodo; veikiau AI paprasčiausiai yra kodas.

Jei bandote valdyti gamyklą ir sakote mašinai, kad verta gaminti sąvaržėles, o tada leisite jai valdyti daugybę gamyklinių robotų, jūs kitą dieną gali sugrįžti sužinoję, kad nebėra visų kitų formų žaliavų, nužudė visus jūsų darbuotojus ir padarė iškarpas iš jų išlieka. Jei bandydami ištaisyti savo klaidą, perprogramuosite mašiną, kad visi būtų patenkinti, kitą dieną galite sugrįžti ir surasti laidus į žmonių smegenis.

savaržėlės

Esmė ta, kad žmonės turi daug sudėtingų vertybių, kurios, mūsų manymu, yra netiesiogiai pasidalinamos su kitais protais. Mes vertiname pinigus, bet labiau vertiname žmogaus gyvenimą. Norime būti laimingi, tačiau nebūtinai norime, kad tai padarytų laidai į smegenis. Nejaučiame poreikio paaiškinti šiuos dalykus, kai duodame nurodymus kitiems žmonėms. Tačiau negalite padaryti tokių prielaidų, kai projektuojate mašinos naudingąją funkciją. Geriausi sprendimai be sielos nesudėtingos paprastos naudingumo funkcijos matematikos yra sprendimai, kuriuos žmonės norėtų daryti dėl moralinio siaubo.

Leisti intelektualiam kompiuteriui maksimaliai panaudoti naivią naudingumo funkciją beveik visada bus katastrofiška. Kaip sako Oksfordo filosofas Nickas Bostomas,

Negalime tikėtis, kad superintelligencija būtinai pasidalins kuria nors iš galutinių vertybių, stereotipiškai susietų su išmintimi. ir intelektuali žmogaus raida - mokslinis smalsumas, geranoriškas rūpestis kitais, dvasinis nušvitimas ir kontempliacija, atsisakymas nuo materialinio įgijimo, rafinuotos kultūros ar paprastų gyvenimo malonumų, nuolankumo ir nesavanaudiškumo skonio, ir taip toliau.

Kad būtų dar blogiau, labai, labai sunku nurodyti išsamų ir išsamų sąrašą visko, ką žmonės vertina. Klausime yra daug aspektų, o pamiršti net vieną yra potencialiai katastrofiška. Net tarp tų, kuriuos mes žinome, yra subtilumų ir sudėtingumų, dėl kurių sunku juos užrašyti kaip švarias lygčių sistemas, kurias galime suteikti mašinai kaip naudingumo funkciją.

Kai kurie žmonės, perskaitę tai, daro išvadą, kad PG su naudingumo funkcijomis kūrimas yra baisi idėja, ir mes tiesiog turėtume juos suprojektuoti kitaip. Čia yra ir blogų naujienų - oficialiai galite tai įrodyti bet kuris agentas, neturintis kažkokio naudingumo funkcijai lygiaverčio, ​​negali turėti nuoseklių nuostatų apie ateitį.

Rekursyvus savęs tobulinimas

Vienas iš minėtos dilemos sprendimo būdų - nesuteikti PG agentams galimybės įskaudinti žmones: suteikti jiems tik tuos išteklius, kurių jiems reikia išspręskite problemą taip, kaip ketinate ją išspręsti, atidžiai jas prižiūrėkite ir saugokite nuo galimybių daryti puikius dalykus pakenkti. Deja, mūsų gebėjimas valdyti intelektualias mašinas yra labai įtartinas.

Net jei jie nėra daug protingesni nei mes, mašina gali „įkrauti“ - rinkti geresnę aparatinę įrangą arba patobulinti savo kodą, kuris daro jį dar protingesnį. Tai galėtų leisti mašinai peršokti žmogaus intelektą daugeliu laipsnių, o tai būtų taip, kad žmonės suprastintų kates. Šį scenarijų pirmiausia pasiūlė vyras, vardu I. Dž. Geras, kuris Antrojo pasaulinio karo metais kartu su Alanu Turingu dirbo „Enigma“ kriptų analizės projekte. Jis tai pavadino „žvalgybos sprogimu“ ir apibūdino šį reikalą taip:

Tegul ultra intelektuali mašina gali būti apibrėžta kaip mašina, kuri gali žymiai pranokti bet kurio žmogaus intelektinę veiklą, kad ir kokia protinga ji būtų. Kadangi mašinų projektavimas yra viena iš šių intelektinių veiklų, ypač intelektuali mašina galėtų suprojektuoti dar geresnes mašinas; tada neabejotinai įvyktų „žvalgybos sprogimas“, o žmogaus intelektas būtų labai atsilikęs. Taigi pirmasis ypač intelektuali mašina yra paskutinis išradimas, kurio žmogui kada nors reikia pagaminti, su sąlyga, kad mašina yra pakankamai paklusnus.

Negarantuojama, kad žvalgybos sprogimas yra įmanomas mūsų visatoje, tačiau atrodo, kad tai tikėtina. Laikui bėgant, kompiuteriai tampa greitesni ir kaupiasi pagrindinės įžvalgos apie intelektą. Tai reiškia, kad išteklių poreikis padaryti tą paskutinį šuolį į bendrą, didinantį intelektą, krenta vis žemiau. Tam tikru metu atsidursime pasaulyje, kuriame milijonai žmonių gali nuvažiuoti į „Best Buy“ ir pasiimti aparatinę bei techninės literatūros, reikalingos norint patobulinti dirbtinį intelektą, kurį mes jau sukūrėme pavojinga. Įsivaizduokite pasaulį, kuriame galėtumėte pasigaminti atominių bombų iš lazdų ir uolienų. Tai yra tokia ateitis, apie kurią diskutuojame.

Ir jei mašina tą šuolį padarys, tai intelekto požiūriu jis gali labai greitai aplenkti žmonių rūšis produktyvumą, išspręsti problemas, kurių milijardas žmonių negali išspręsti, tokiu pat būdu, kaip žmonės gali išspręsti problemas, kurios: a milijardas kačių negali.

Tai galėtų sukurti galingus robotus (arba bio arba nanotechnologijas) ir palyginti greitai įgyti galimybę pakeisti pasaulį taip, kaip jam patinka, ir to būtų labai mažai. Tokia žvalgyba be didelių problemų galėtų paimti Žemę ir likusią Saulės sistemos dalį atsarginėms dalims, pakeliui darydama viską, ką liepėme. Panašu, kad tokia raida žmonijai bus katastrofiška. Dirbtinis intelektas neturi būti kenksmingas sunaikinti pasaulį, tiesiog katastrofiškai abejingas.

Kaip sakoma: „Mašina tavęs nemyli ir nekenčia, bet tu esi pagamintas iš atomų, kuriuos jis gali naudoti kitiems reikalams“.

Rizikos vertinimas ir mažinimas

Taigi, jei sutinkame, kad suprojektuoti galingą dirbtinį intelektą, kuris maksimaliai padidina paprastą naudingumo funkciją, yra blogai, kiek problemų mes iš tikrųjų turime? Kiek laiko mes turime, kol tampa įmanoma gaminti tokias mašinas? Tai, be abejo, sunku pasakyti.

Dirbtinio intelekto kūrėjai yra darant pažangą. 7 nuostabios svetainės, norinčios pamatyti naujausią dirbtinio intelekto programavimąDirbtinis intelektas dar nėra HAL nuo 2001 m.: Kosminė odisėja..., tačiau mes priartėjome. Be abejo, vieną dieną tai gali būti panašus į mokslinės fantastikos katilus, kuriuos kapojo Holivudas ... Skaityti daugiau Mūsų gaminamų mašinų ir problemų, kurias jos gali išspręsti, mastas nuolat augo. 1997 m. „Deep Blue“ galėjo žaisti šachmatais aukštesniame lygyje nei vyriausiasis vyr. 2011 m. „IBM Watson“ galėjo pakankamai giliai ir greitai perskaityti ir susisteminti pakankamai informacijos, kad įveiktų geriausius žmones žaidėjai, dirbantys neterminuotu klausimų ir atsakymų žaidimu, kupinu žodžių ir žodžių, - tai yra didelė pažanga per keturiolika metų.

Šiuo metu „Google“ yra daug investuojama į gilaus mokymosi tyrimus, technika, leidžianti sukurti galingus neuroninius tinklus kuriant paprastesnių neuroninių tinklų grandines. Ši investicija leidžia jai padaryti didelę pažangą kalbėjimo ir vaizdo atpažinimo srityje. Naujausias jų įsigijimas rajone yra „Deep Learning“ startuolis, vadinamas DeepMind, už kurį jie sumokėjo maždaug 400 milijonų dolerių. Vykdydama susitarimo sąlygas „Google“ sutiko sukurti etikos valdybą, kad užtikrintų, jog jų AI technologija bus vystoma saugiai.

nervų tinklas

Tuo pačiu metu IBM kuria „Watson 2.0“ ir „3.0“ - sistemas, galinčias apdoroti vaizdus ir vaizdo įrašus bei įrodinėti ginančias išvadas. Jie pateikė paprastą, ankstyvą Watsono sugebėjimo sintetinti argumentus už ir prieš temą toliau pateiktoje vaizdo demonstracinėje versijoje demonstraciją. Rezultatai yra netobuli, tačiau įspūdingas žingsnis, nepaisant to.

Nei viena iš šių technologijų šiuo metu nėra pavojinga: dirbtinis intelektas kaip sritis vis dar stengiasi suderinti mažų vaikų įgytus sugebėjimus. Kompiuterių programavimas ir AI projektavimas yra labai sunkus, aukšto lygio pažintinis įgūdis, ir tai greičiausiai bus paskutinė žmogaus užduotis, kurią atlikdami kompiuteriai bus įgudę. Prieš tai pasiekdami, mes taip pat turėsime visur naudojamus aparatus kad gali vairuoti Štai kaip pateksime į pasaulį, kuriame pilna be vairuotojųVairavimas yra varginanti, pavojinga ir reikalaujanti daug pastangų. Ar vieną dieną tai gali būti automatizuota „Google“ be vairuotojo vairuojamų automobilių technologija? Skaityti daugiau , praktikuoti mediciną ir įstatymusir tikriausiai kitus dalykus, turinčius rimtų ekonominių padarinių.

Laikas, per kurį mums prireiks tobulėti, priklauso nuo to, kaip greitai turime gerų idėjų. Prognozuoti tokių technologijų pažangą yra labai sunku. Neatrodo neprotinga, kad mums pavyks sukurti stiprią AI per dvidešimt metų, tačiau taip pat neatrodo neprotinga, kad tai gali užtrukti aštuoniasdešimt metų. Bet kuriuo atveju tai įvyks ilgainiui ir yra pagrindo manyti, kad kai tai įvyks, jis bus ypač pavojingas.

Taigi, jei sutiksime, kad tai bus problema, ką galime padaryti dėl to? Atsakymas yra įsitikinti, kad pirmosios intelektualiosios mašinos yra saugios, kad jos galėtų paleisti į aukštą intelekto lygį, o tada apsaugoti mus nuo nesaugių mašinų, pagamintų vėliau. Šis „saugumas“ apibūdinamas dalijantis žmogiškosiomis vertybėmis ir noru ginti bei padėti žmonijai.

Kadangi iš tikrųjų negalime sėdėti ir programuoti žmogiškųjų vertybių mašinoje, greičiausiai reikės suprojektuoti naudingumo funkciją, kuriai mašina reikalinga stebėk žmones, išvesk mūsų vertybes ir tada stenkis jas maksimaliai panaudoti. Kad šis vystymosi procesas būtų saugus, taip pat gali būti naudinga sukurti specialiai sukurtą dirbtinį intelektą ne turėti pirmenybę jų naudingosioms funkcijoms, leidžiančias mums jas ištaisyti arba išjungti be pasipriešinimo, jei jos pradeda suklysti tobulėjimo metu.

dažytineuronai

Daugybė problemų, kurias turime išspręsti, kad sukurtume saugią mašininę intelektą, matematiškai yra sunkios, tačiau yra pagrindo manyti, kad jas galima išspręsti. Šiuo klausimu dirba daugybė skirtingų organizacijų, įskaitant Oksfordo žmonijos instituto ateitis, ir Mašinų intelekto tyrimų institutas (kurį finansuoja Peteris Thielis).

MIRI yra ypač suinteresuota kurti matematiką, reikalingą sukurti draugišką AI. Jei paaiškėja, kad dirbtinis intelektas gali būti paleidžiamas įstrigus, tada kurkite tokį Pirmiausia, „draugiškos PG“ technologija, jei ji bus sėkminga, gali būti vienintelis svarbiausias dalykas, kurį turi žmonės kada nors padaryta.

Kaip manote, ar dirbtinis intelektas yra pavojingas? Ar jums rūpi, ką galėtų atnešti AI ateitis? Pasidalykite savo mintimis komentarų skiltyje žemiau!

Vaizdo kreditai: „Lwp Kommunikacija“, „Flickr“, „Neuroninis tinklas„Pagal fdecomite“ img_7801“, Steve Rainwater,„ E-Volve “, Keoni Cabral,„naujas_20x“, Autorius Robertas Cudmore'as,„Savaržėlės“, Autorius Cliffordas Wallace'as

Rašytojas ir žurnalistas, įsikūręs Pietvakariuose, garantuoja, kad Andre išliks funkcionalus iki 50 laipsnių Celsijaus ir yra atsparus vandeniui iki dvylikos pėdų gylio.