Vien per pastaruosius kelerius metus dirbtinio intelekto galimybės smarkiai išaugo. Šiandien galime naudoti AI kurdami meną, rašydami istorijas, mokydamiesi apie pasaulį ir dar daugiau. Bet ar visa tai vyksta per anksti? Ar AI vystosi per greitai ir kokie ženklai tai rodo?

Kodėl žmonės susirūpinę AI?

2023 m. kovo pabaigoje „Future of Life Institute“ internete paskelbė dokumentą pavadinimu „Pristabdyti milžiniškus AI eksperimentus: atviras laiškas“. Dokumente buvo pateikti argumentai prieš dirbtinio intelekto plėtojimą po GPT-4, OpenAI naujausios AI maitinamo pokalbių roboto iteracijos, sudėtingumo.

Laiške buvo parašyta, kad „AI sistemos, turinčios konkurencingą žmogaus intelektą, gali kelti didelį pavojų visuomenei ir žmonijai“. „Galingos AI sistemos turėtų būti sukurtos tik tada, kai būsime tikri, kad jų poveikis bus teigiamas ir rizika bus tokia valdomas“.

Nemažai žinomų figūrų technologijų srityje, įskaitant Steve'ą Wozniaką ir Elonas Muskas pasirašė laišką ir nori pristabdyti AI plėtrą

instagram viewer
. Šis prašymas sustabdyti AI plėtrą verčia suabejoti, kaip pavojinga darosi AI ir kokia rizika ji kelia žmonių gyvybei.

Taigi, kokie ženklai rodo, kad AI juda per greitai?

1. Konkurencija su žmonėmis

Jau matėme, kad technologijos pakeičia darbuotojus daugelyje scenarijų. Užsukę į greito maisto restoraną dabar galite užsisakyti per kompiuterio ekraną, o kai norite nusipirkti bakalėjos, galite atsiskaityti automatine sistema. Tai gali būti greitas ir patogus pasirinkimas, tačiau automatizacijai vis labiau išryškėjant įvairiose pramonės šakose, žmonių poreikis mažėja.

Čia ir prasideda problema. Žinoma, žmonės turi dirbti, kad išlaikytų save, tačiau dėl automatizavimo tai tampa daug sunkiau. Tai ypač pasakytina apie minimalaus darbo užmokesčio darbuotojus, tokius kaip maitinimo paslaugų, gamybos ir mažmeninės prekybos sektoriaus darbuotojai. Pagrindines užduotis, tokias kaip užsakymų tikrinimas, krovinių paėmimas ir valymas, gali atlikti mašinos. Dirbtinio intelekto integravimas reiškia, kad netrukus mums gali nebereikėti šios technologijos operatorių.

Apie tai pranešė FormStack kad 76 % įmonių naudoja automatizavimą kasdienėms darbo eigoms standartizuoti arba automatizuoti. Ir, su Zapieras praneša, kad 94 % darbuotojų teigė, kad jų darbas yra susijęs su pasikartojančiomis ir daug laiko reikalaujančiomis užduotimis, Dirbtinio intelekto varoma automatika gali labai lengvai tapti didžiąja pasaulinės darbo jėgos dalimi pramonės šakoms.

2. Žmonių tinginystės skatinimas

Vienas iš pagrindinių AI privalumų yra tai, kad jis gali supaprastinti tiek daug užduočių. Tačiau šis patogumas gali labai lengvai užleisti vietą tinginiui. Ir kai kuriais atvejais tai jau yra.

Paimkite, pavyzdžiui, „ChatGPT“. Naudodami „ChatGPT“ galite atlikti įvairius veiksmus pavyzdžiui, rašyti esė, tyrinėti temas, kurti anekdotus, versti tekstą ir dar daugiau. Turėti paslaugą, kuri gali greitai atlikti užduotis už jus, yra puiku, bet taip pat skatina mus nusiraminti. Tokiu būdu stabdomos pastangos ir kūrybiškumas tikrai gali turėti neigiamą poveikį visai žmonijai, o tai yra pagrindinė priežastis, kodėl tiek daug žmonių nerimauja dėl dirbtinio intelekto.

Šiais laikais esame taip pripratę prie dirbtinio intelekto paslaugų, todėl, žinoma, jomis labai pasitikėjome. Pavyzdžiui, „Microsoft“ virtualusis asistentas „Cortana“ naudoja mašininį mokymąsi ir dirbtinį intelektą, kad vykdytų vartotojų komandas. Daugelis kitų virtualių asistentų, įskaitant Apple Siri, taip pat naudoja dirbtinį intelektą.

Pasitikėti šia technologija gali būti saugu, bet iš tikrųjų to nežinome, ypač atsižvelgiant į tai, kad AI vis dar labai vystosi.

3. Netikros informacijos plitimas

Vaizdo kreditas: Deep Homage/Flickr

Įprastose srityse AI įgijo didelį žinomumą dėl savo gebėjimo kurti meną, vaizdus ir vaizdo įrašus. Dirbtinio intelekto teikiamos paslaugos gali būti naudojamos ne tik kuriant meną, bet ir sukurti ypač prieštaringą žiniasklaidos formą, vadinamą giliomis klastotėmis. Deepfake yra vaizdo įrašai, kuriuose žmogaus veidas yra uždėtas ant kito asmens kūno.

Tai skamba gana smagiai, bet gali būti labai lengvai piktnaudžiaujama.

Jau yra tūkstančiai vaizdo įrašų, kuriuose įžymybės ir politiniai veikėjai sako neįtikėtinai nešvankius ir netinkamus dalykus naudodami gilius klastojimus. Nors kai kuriuos klastotes labai lengva atpažinti, kai kurios yra tokios sudėtingos, kad sunku atskirti, ar jos tikros, ar ne. Kai taip nutinka, žmonės gali manyti, kad viešas asmuo kažką pasakė, o iš tikrųjų to jie niekada nesakė.

Atsižvelgdami į tai, žmonės susidarys nuomonę apie šiuos vaizdo įrašus ir taip prisidės prie dezinformacijos plitimo internete.

Be to, AI valdomi pokalbių robotai taip pat gali suteikti vartotojams klaidingos informacijos. Pokalbių robotai, tokie kaip „ChatGPT“, „Boost“. AI ir „Drift“ gali suteikti vartotojams daug informacijos, tačiau ši informacija ne visada yra tiksli. Kaip aptarė Globėjas, AI pokalbių robotai jokiu būdu nėra įsipareigoję teikti jums tikros informacijos, o tai reiškia, kad netikros naujienos gali labai lengvai praslysti ir patekti pas jus.

4. Kenkėjiškų programų kūrimas

2023 m. pradžioje apie tai pradėjo sklisti naujienos kenkėjiški veikėjai, kuriantys kenkėjiškas programas naudodami „ChatGPT“.. Šiuo atveju kibernetinių analitikų įmonė „Check Point Research“ nustatė, kad asmenys įsilaužimo forume diskutavo apie „ChatGPT“ naudojimo naudą kuriant kenkėjiškas programas. Forumo įrašo autorius pasidalijo informacijos vagystė, kurią jie parašė Python naudodami ChatGPT, skatindami kitus kenkėjiškus veikėjus kurti kenkėjiškas programas naudojant pokalbių robotą.

Kenkėjiškos programos turi būti užkoduotos, o tai gali užtrukti, ypač jei kūrėjas nenaudoja šablono iš jau egzistuojančios programos.

Naudodami „ChatGPT“ ne tik kenkėjiški veikėjai gali supaprastinti kenkėjiškų programų kūrimo procesą, bet ir mažiau technologiškai išmanantys asmenys gali kurti kenkėjiškas programas. Tobulėjant dirbtiniam intelektui, gali būti įmanoma sukurti neįtikėtinai sudėtingą kenkėjišką programą, galinčią apeiti antivirusinę aptikimą, autentifikavimą, užkardas ir kitas apsaugos priemones.

5. Reguliavimo trūkumas

Dažna technologijų pramonės problema yra naujesnių paslaugų, pvz., „blockchain“ platformų ir AI produktų, reguliavimo trūkumas. Kai kurie gali manyti, kad reguliavimo trūkumas yra geras dalykas, tačiau jis taip pat gali užleisti vietą neteisėtai praktikai.

Dėl reguliavimo trūkumo ne tik gali padaugėti dirbtinio intelekto sukčiavimo ir elektroninių nusikaltimų, bet ir tai, kaip mokslininkai kuria dirbtinio intelekto technologijas, gali pradėti kirsti kai kurias rimtas sienas. Kalbant apie dirbtinį intelektą, reikia atsižvelgti į etinius aspektus. Ar sistema gali tapti per daug sąmoninga? Kokios rūšies AI turės poveikį žmogaus gyvenimui? Ar turėtume panaudoti AI tokiu būdu? Klausimų sąrašas tęsiasi ir tęsiasi.

Be reguliavimo kai kurios įmonės gali pradėti peržengti moralines ribas, o tai savo ruožtu gali būti labai bloga žinia platesnei visuomenei.

AI juda sparčiai ir neabejotinai kelia pavojų

Negalima paneigti, kad dirbtinio intelekto potencialas yra didžiulis, tačiau tai turėtų būti tinkamai panaudota, kad būtų sumažinta tikimybė, kad viskas taps nekontroliuojama. Jau matėme, kaip dirbtinis intelektas naudojamas piktybiškai, todėl nežinome, kaip ši problema gali išsivystyti, kai viskas vyksta toliau. Laikas parodys, ar dirbtinis intelektas mūsų pasaulyje taps palaima, ar prakeiksmu, ir tai, kaip su juo elgiamasi dabar, tikrai turės įtakos šiam rezultatui.