DI vystymasis sparčiai juda į priekį, bet kas turėtų vadovauti AI ir jo poveikiui pasauliui?

Key Takeaways

  • DI reikia griežčiau stebėti, nes ir toliau kyla kibernetinio saugumo spragų ir privatumo problemų.
  • Vyriausybė, technologijų įmonės ir galutiniai vartotojai turi atlikti savo vaidmenį reguliuojant AI, tačiau kiekvienas metodas turi savo apribojimų.
  • Žiniasklaidos priemonės, ne pelno organizacijos, technologijų pramonės asociacijos, akademinės institucijos ir teisėsaugos institucijos taip pat prisideda prie AI reguliavimo.

Plačioji visuomenė turi skirtingą požiūrį į dirbtinį intelektą – kai kurie mano, kad mašinos visiškai pakeis žmones, o kiti teigia, kad DI yra mada. Tačiau vienas dalykas, dėl kurio visi sutinka, yra tai, kad dirbtinį intelektą reikia griežčiau stebėti.

Nepaisant dirbtinio intelekto reguliavimo svarbos, jis atsitraukė į mokymą. Kūrėjai taip apsėsti kurti kitą didžiausią dirbtinio intelekto modelį, kad prekiauja kibernetiniu saugumu siekdami greito tobulėjimo. Klausimas ne tas, ar AI reikia reguliavimo; tai kuri valdymo institucija, turinti tinkamą finansavimą, žmogiškuosius išteklius ir technologinius pajėgumus, imsis iniciatyvos.

instagram viewer

Taigi, kas turėtų reguliuoti AI?

Vyriausybės organai

Įvairių žmonių, nuo vartotojų iki technologijų lyderiai, tikimės, kad vyriausybė reguliuos AI. Valstybės finansuojamos įstaigos turi tam išteklių. Net Elonas Muskas ir Samas Altmanas, du pagrindiniai AI lenktynių varikliai, mano, kad kai kurie privatumo problemos, susijusios su AI yra pernelyg pavojingi, kad valdymo organai nepastebėtų.

Jei perimtų dirbtinio intelekto reguliavimą, vyriausybė turėtų sutelkti dėmesį į savo rinkėjų privatumo ir pilietinių laisvių apsaugą. Kibernetiniai nusikaltėliai vis atranda būdų, kaip išnaudoti dirbtinio intelekto sistemas savo schemose. Asmenys, kurie nėra gerai išmanantys dirbtinio intelekto, gali lengvai apsigauti dėl susintetintų balsų, netikrų vaizdo įrašų ir robotų valdomų internetinių profilių.

Tačiau viena iš pagrindinių problemų, susijusių su vyriausybe, reguliuojančia AI, yra ta, kad ji gali netyčia slopinti naujoves. AI yra sudėtinga, besivystanti technologija. Jei diegimo, kūrimo ir mokymo gaires prižiūrintys pareigūnai nesupranta, kaip veikia dirbtinis intelektas, jie gali priimti išankstinius, neveiksmingus sprendimus.

AI kūrėjai, technologijų įmonės ir laboratorijos

Atsižvelgiant į galimas kliūtis, kurios gali kilti dėl vyriausybės stebimo AI, daugelis verčiau norėtų, kad technologijų įmonės vadovautųsi reguliavimu. Jie mano, kad kūrėjai turėtų būti atsakingi už išleidžiamas technologijas. Savireguliacija leidžia jiems skatinti naujoves ir sutelkti dėmesį į efektyvų šių sistemų tobulinimą.

Be to, jų nuodugnus AI supratimas padės jiems parengti sąžiningas, pagrįstas gaires, teikiančias pirmenybę naudotojų saugai, nepažeidžiant funkcionalumo. Kaip ir bet kurios technologijos atveju, pramonės patirtis supaprastina stebėjimą. Neapmokytų pareigūnų paskyrimas reguliuoti technologijas, kurių jie vargiai supranta, gali sukelti daugiau problemų nei naudos.

Kaip pavyzdį paimkite 2018 m. JAV Senato posėdį apie „Facebook“ duomenų privatumo įstatymus. Šiame pranešime autorius „The Washington Post“., pamatysite, kad daugelis įstatymų leidėjų yra supainioti su pagrindinėmis „Facebook“ funkcijomis. Taigi, nebent JAV Senatas sukurs vienintelį technologijų specialistų skyrių, jie greičiausiai nebus kvalifikuoti reguliuoti tokią pažangią, nuolat kintančią sistemą kaip AI.

Tačiau pagrindinė problema, susijusi su technologijų įmonėmis, reguliuojančiomis save, yra ta, kad šešėlinės korporacijos gali piktnaudžiauti savo galia. Be trečiosios šalies įsikišimo, jie iš esmės gali daryti ką nori.

Galutiniams vartotojams

Kai kurie baiminasi, kad vyriausybės ir privatūs subjektai piktnaudžiaus AI sistemomis. Jie nėra tikri, ar saujelei valdymo organų bus suteikta visiška tokių galingų technologijų kontrolė, ypač todėl, kad dirbtinis intelektas vis dar vystosi. Galų gale jie gali kovoti dėl valdžios, o ne siekti veiksmingo reguliavimo.

Siekiant sumažinti šią riziką, skeptikai mano, kad galutiniai vartotojai nusipelno laisvos valios naudoti AI modelius taip, kaip nori. Jie sako, kad vyriausybės institucijos turėtų kištis tik tada, kai dirbtinio intelekto vartotojai pažeidžia įstatymus. Tai ambicingas tikslas, tačiau techniškai jį būtų galima pasiekti, jei atvirojo kodo AI kūrėjai dominuotų rinkos dalyse.

Be to, ši sąranka nepalankioje padėtyje atsiduria technologijų neišmanančius asmenis. Vartotojai yra atsakingi už apribojimų nustatymą savo sistemose – deja, ne visi turi tam pakankamai išteklių.

Taip pat trumparegiška iš rinkos pašalinti patentuotus modelius. Išplitimas Atvirojo kodo AI modeliai turi keletą teigiamų ir neigiamų padarinių; kai kuriems minusai nusveria privalumus.

Kiti subjektai, kurie vaidina vaidmenį reguliuojant AI

Nors pagrindiniai subjektai vadovaus AI reguliavimui, yra institucijų, kurios atlieka svarbų vaidmenį:

Žiniasklaidos priemonės vaidina svarbų vaidmenį formuojant visuomenės supratimą apie AI. Jie praneša apie pramonės pokyčius, dalijasi naujais įrankiais, informuoja apie žalingą AI naudojimą ir apklausia ekspertus apie svarbias problemas.

Dauguma faktų, kuriuos galutiniai vartotojai žino apie AI, iš esmės gaunami iš žiniasklaidos priemonių. Skelbdami klaidingus duomenis, tyčia ar ne, padarysite negrįžtamą žalą – negalite neįvertinti, kaip greitai plinta dezinformacija.

2. Nevyriausybinės organizacijos

Kelios ne pelno organizacijos siekia apsaugoti AI naudotojų privatumą ir pilietines laisves. Jie šviečia visuomenę per nemokamus išteklius, pasisako už naują politiką, bendradarbiauja su vyriausybės pareigūnais ir išreiškia nepastebėtus rūpesčius.

Vienintelė NPO problema yra ta, kad joms paprastai trūksta išteklių. Kadangi jie nėra susiję su vyriausybe, kasdienėms operacijoms jie pasikliauja privačiais prašymais ir aukomis. Deja, tik kelios organizacijos gauna tinkamą finansavimą.

3. Technikos pramonės asociacijos

Į DI orientuotos technologijų pramonės asociacijos gali atstovauti visuomenės teisėms ir interesams. Kaip ir NPO, jie dirba su įstatymų leidėjais, atstovauja suinteresuotiems asmenims, pasisako už sąžiningą politiką ir didina sąmoningumą konkrečiomis problemomis.

Tačiau skirtumas yra tas, kad jie dažnai yra susiję su privačiomis įmonėmis. Jų nariai vis dar teikia prašymus, tačiau paprastai jie gaus pakankamai finansavimo iš savo pagrindinių organizacijų, jei tik pasieks rezultatus.

4. Akademinės institucijos

Nors dirbtinis intelektas kelia keletą pavojų, jis iš esmės yra neutralus. Visas šališkumas, privatumo problemos, saugumo klaidos ir galima kibernetinio nusikaltimo veikla kyla iš žmonių, todėl AI savaime nėra ko bijoti.

Tačiau labai mažai jau supranta, kaip veikia šiuolaikiniai AI modeliai. Klaidingos nuomonės iškreipia žmonių supratimą apie dirbtinį intelektą, įamžindamos nepagrįstas baimes, tokias kaip AI užvaldyti žmoniją ar pavogti darbus.

Akademinės institucijos galėtų užpildyti šias švietimo spragas naudodamos prieinamus išteklius. Šiuolaikinių LLM ir NLP sistemų srityje kol kas nėra per daug mokslinių darbų. Visuomenė gali atsakingiau naudoti dirbtinį intelektą ir kovoti su elektroniniais nusikaltimais, jei visiškai supranta, kaip jis veikia.

5. Teisėsaugos agentūros

Teisėsaugos institucijos turėtų tikėtis susidurti su daugiau AI įgalintos kibernetinės atakos. Daugėjant generatyvinių modelių, sukčiai gali greitai susintetinti balsus, generuoti netikrus vaizdus, asmenį identifikuojančią informaciją (PII) ir netgi sukurti visiškai naujas asmenybes.

Daugelis agentūrų nėra pasirengę kovoti su šiais nusikaltimais. Jie turėtų investuoti į naujas sistemas ir mokyti savo pareigūnus apie šiuolaikinius elektroninius nusikaltimus; kitu atveju jiems bus sunku sugauti šiuos sukčius.

AI reglamento ateitis

Atsižvelgiant į greitą AI prigimtį, mažai tikėtina, kad vienas valdymo organas galėtų jį kontroliuoti. Taip, technologijų lyderiai turės daugiau galios nei vartotojai, tačiau įvairūs subjektai turi bendradarbiauti, kad valdytų AI riziką, netrukdydami pažangai. Geriausia nustatyti kontrolės priemones dabar, kol dirbtinis bendrasis intelektas (AGI) vis dar yra tolimas tikslas.

Tai reiškia, kad AI reguliavimas yra toks pat tolimas kaip ir AGI. Tuo tarpu vartotojai turi laikytis saugos praktikos, kad galėtų kovoti su dirbtinio intelekto sukeliamomis grėsmėmis. Tokie geri įpročiai, kaip žmonių, su kuriais bendraujate internetu, apribojimas ir skaitmeninės AII apsauga jau yra labai svarbūs.