Idėja, kad AI technologijos turi būti reguliuojamos, yra bendras požiūris. Dauguma vyriausybių, AI produktų kūrėjų ir net paprasti AI produktų vartotojai sutinka su tuo. Deja, geriausias būdas sureguliuoti šią sparčiai augančią sritį yra neišspręstas galvosūkis.
Nekontroliuojamos dirbtinio intelekto technologijos gali neigiamai sutrikdyti mūsų gyvenimo būdą ir kelti grėsmę mūsų egzistavimui. Tačiau kaip vyriausybės gali naršyti iššūkių labirinte, kylančiame šioje sparčiai besivystančioje srityje?
1. Duomenų privatumo ir apsaugos taisyklės
Vienas iš pagrindinių AI technologijų problemų yra duomenų privatumas ir saugumas. Dirbtinio intelekto sistemos yra duomenų ištroškusios mašinos. Jiems reikia duomenų, kad jie veiktų, daugiau duomenų, kad jie veiktų efektyviai, ir dar daugiau duomenų, kad galėtų tobulėti. Nors tai nėra problema, tai, kaip šie duomenys gaunami, jų pobūdis ir kaip jie apdorojami bei saugomi, yra vienas didžiausių pokalbių temų, susijusių su AI taisyklėmis.
Atsižvelgiant į tai, logiškas kelias yra nustatyti griežtas duomenų privatumo taisykles, kurios reglamentuoja duomenis rinkimas, saugojimas ir apdorojimas, taip pat asmenų, kurių duomenys yra naudojami, teisės pasiekti ir kontroliuoti jų duomenis. Klausimai, kuriuos greičiausiai spręs šios taisyklės:
- Kokius duomenis galima rinkti?
- Ar kai kurie privatūs duomenys turėtų būti laikomi AI tabu?
- Kaip dirbtinio intelekto įmonės turėtų tvarkyti jautrius asmens duomenis, pvz., sveikatos įrašus ar biometrinę informaciją?
- Ar dirbtinio intelekto įmonės turėtų būti įpareigotos įdiegti mechanizmus, kad asmenys galėtų prašyti lengvai ištrinti arba ištaisyti savo asmens duomenis?
- Kokios pasekmės AI įmonėms, kurios nesilaiko duomenų privatumo taisyklių? Kaip turėtų būti stebimas atitikimas ir kaip turėtų būti užtikrintas vykdymas?
- Galbūt svarbiausia, kokį standartą AI įmonės turėtų įgyvendinti, kad užtikrintų jų turimos informacijos jautraus pobūdžio saugumą?
Šie ir keli kiti klausimai sudarė esmę kodėl ChatGPT buvo laikinai uždraustas Italijoje. Jei šios problemos nebus išspręstos, dirbtinio intelekto erdvė gali būti laukiniai vakarai duomenų privatumui, o Italijos draudimas gali tapti kitų pasaulio šalių draudimų šablonu.
2. Etinės AI sistemos kūrimas
DI įmonės dažnai giriasi savo įsipareigojimu laikytis etinių gairių kurdamos AI sistemas. Bent jau popieriuje jie visi yra atsakingo AI kūrimo šalininkai. Žiniasklaidoje „Google“ vadovai pabrėžė, kaip įmonė rimtai žiūri į AI saugą ir etiką. Panašiai „Saugus ir etiškas AI“ yra „OpenAI“ generalinio direktoriaus Samo Altmano mantra. Tai gana sveikintina.
Bet kas kuria taisykles? Kas nusprendžia, kurios AI etikos gairės yra pakankamai geros? Kas nusprendžia, kaip atrodo saugus AI vystymas? Atrodo, kad šiuo metu kiekviena dirbtinio intelekto įmonė turi savo atsakingą ir etišką AI plėtrą. OpenAI, Anthropic, Google, Meta, Microsoft ir visi. Paprasčiausiai pasikliauti AI įmonėmis, kad jos elgsis teisingai, yra pavojinga.
The Nekontroliuojamos AI erdvės pasekmės gali būti katastrofiškos. Leisti atskiroms įmonėms nuspręsti, kokių etikos gairių laikytis, o kurių atsisakyti, prilygsta vaikščiojimui lunatiniu būdu į AI apokalipsę. Sprendimas? Aiški etinė AI sistema, užtikrinanti:
- AI sistemos nesąžiningai nepažeidžia arba nediskriminuoja asmenų ar tam tikrų grupių dėl rasės, lyties ar socialinio ir ekonominio statuso.
- AI sistemos yra saugios, patikimos ir sumažina nenumatytų pasekmių ar žalingo elgesio riziką.
- DI sistemos kuriamos atsižvelgiant į platesnį DI technologijų poveikį visuomenei.
- Kad žmonės išlaikytų galutinę AI sistemų kontrolę ir skaidriai priimtų sprendimus.
- AI sistemos yra sąmoningai ribojamos žmonėms naudingais būdais.
3. Speciali reguliavimo agentūra
Dėl galimo poveikio žmonių civilizacijai diskusijos apie AI saugą paprastai yra lygiagrečios su sveikatos krizės ar branduolinės nelaimės pavojumi. Norint išvengti galimų branduolinių incidentų, reikalinga speciali agentūra, tokia kaip JAV NRC (Branduolinio reguliavimo komisija). Norint išvengti pavojingų sveikatos krizių rizikos, būtina įsteigti FDA (Maisto ir vaistų administraciją).
Panašiai, siekiant užtikrinti, kad viskas nepasisektų AI erdvėje, reikalinga speciali agentūra, panaši į FDA ir NRC, nes AI ir toliau agresyviai veržiasi į visas mūsų gyvenimo sritis. Deja, AI reguliavimo šalies viduje klausimas yra sudėtingas. Tikėtina, kad bet kurios specialios reguliavimo agentūros darbas be tarpvalstybinio bendradarbiavimo bus nepaprastai sunkus. Kaip ir JAV NRC (Branduolinio reguliavimo komisija) turi dirbti kartu su Tarptautine atomine energija. Kad agentūra (TATENA) veiktų geriausiai, bet kuriai šalies AI reguliavimo agentūrai taip pat reikės tarptautinio analogo.
Tokia agentūra būtų atsakinga už:
- AI taisyklių kūrimas
- Atitikties ir vykdymo užtikrinimas
- Prižiūrėti AI projektų etinės peržiūros procesą
- Bendradarbiavimas ir bendradarbiavimas tarp šalių dirbtinio intelekto saugos ir etikos klausimais
4. Autorių teisių ir intelektinės nuosavybės problemų sprendimas
Esami autorių teisių įstatymai ir teisinės sistemos žlunga dirbtinio intelekto akivaizdoje. Dėl AI įrankių, ypač generuojamųjų AI įrankių, sukūrimo jie atrodo kaip viešai patvirtinta autorių teisių pažeidimo mašina, su kuria nieko negalite padaryti.
Kaip? Na, daugelis šiuolaikinių AI sistemų yra mokomos naudojant autorių teisių saugomą medžiagą. Žinote, autorių teisių saugomi straipsniai, autorių teisių saugomos dainos, autorių teisių saugomi vaizdai ir kt. Taip patinka įrankiai „ChatGPT“, „Bing AI“ ir „Google Bard“. gali daryti nuostabius dalykus, kuriuos daro.
Nors šios sistemos akivaizdžiai naudojasi žmonių intelektine nuosavybe, kaip šios AI sistemos tai daro niekuo nesiskiria nuo žmogaus, skaitančio autorių teisių saugomą knygą, klausančio autorių teisių saugomų dainų ar žiūrinčio į autorių teisių saugomą vaizdai.
Galite perskaityti autorių teisių saugomą knygą, sužinoti iš jos naujų faktų ir panaudoti tuos faktus kaip savo knygos pagrindą. Taip pat galite klausytis autorių teisių saugomos dainos, kad įkvėptumėte kurti savo muziką. Abiem atvejais naudojote autorių teisių saugomą medžiagą, tačiau tai nebūtinai reiškia, kad išvestinis produktas pažeidžia originalo autorių teises.
Nors tai yra logiškas paaiškinimas, paaiškinantis netvarką, kurią AI daro autorių teisių įstatymuose, vis tiek kenkia autorių teisių ir intelektinės nuosavybės savininkams. Atsižvelgiant į tai, būtinos taisyklės:
- Aiškiai apibrėžkite visų šalių, dalyvaujančių AI sistemos gyvavimo cikle, atsakomybę ir atsakomybę. Tai apima kiekvienos šalies – nuo AI kūrėjų iki galutinių vartotojų – vaidmenų išaiškinimą, kad būtų užtikrinta atsakomybė šalys atsako už bet kokius AI padarytus autorių teisių ar intelektinės nuosavybės pažeidimus sistemos.
- Sustiprinti esamas autorių teisių sistemas ir galbūt įvesti su dirbtiniu intelektu susijusius autorių teisių įstatymus.
- Siekiant užtikrinti naujoves dirbtinio intelekto erdvėje ir kartu apsaugoti originalių kūrėjų teises, AI reglamentuose turėtų būti iš naujo apibrėžtos sąžiningo naudojimo ir transformuojančio darbo sąvokos AI sukurtas turinys. Reikalingi aiškesni apibrėžimai ir gairės, siekiant užtikrinti, kad dirbtinio intelekto erdvė galėtų toliau tobulėti, laikantis autorių teisių ribų. Labai svarbu rasti pusiausvyrą tarp naujovių ir turinio kūrėjų teisių išsaugojimo.
- Aiškūs bendradarbiavimo su teisių turėtojais būdai. Jei dirbtinio intelekto sistemos vis tiek naudos žmonių intelektinę nuosavybę, dirbtinio intelekto kūrėjams turėtų būti aiškūs būdai arba sistemos teisių savininkams bendradarbiauti, ypač finansinių kompensacijų srityje, jei išvestinis tokių intelektinių nuosavybių darbas yra komercializuotas.
AI reglamentas yra labai reikalingas pataisymas
Nors dirbtinis intelektas pasirodė kaip daug žadantis daugelio mūsų visuomenės problemų sprendimas, pats AI greitai tampa problema, kurią reikia skubiai išspręsti. Atėjo laikas žengti žingsnį atgal, apmąstyti ir atlikti reikiamus pataisymus, siekiant užtikrinti teigiamą AI poveikį visuomenei. Mums labai reikia skubiai perkalibruoti savo požiūrį į AI sistemų kūrimą ir naudojimą.