Nesvarbu, ar tai blogi duomenys, ar blogi vartotojai, AI, sukurtas naudojant mašininį mokymąsi, gali padaryti rimtų klaidų.
Mašinų mokymasis yra puikus būdas sukurti dirbtinį intelektą, kuris būtų galingas ir prisitaikytų prie jo mokymo duomenų. Tačiau kartais šie duomenys gali sukelti problemų. Kitais atvejais problema yra tai, kaip žmonės naudoja šiuos AI įrankius.
Štai keletas didelio atgarsio sulaukusių incidentų, kai mašininis mokymasis lėmė probleminius rezultatus.
1. „Google“ vaizdų paieškos rezultatų nesėkmės
„Google“ paieška labai palengvino naršymą internete. Variklio algoritmas, kai nustato rezultatus, atsižvelgia į įvairius dalykus. Tačiau algoritmas taip pat mokosi iš naudotojų srauto, todėl gali kilti problemų dėl paieškos rezultatų kokybės.
Niekur tai nėra taip akivaizdu, kaip vaizdo rezultatuose. Kadangi labiau tikėtina, kad puslapiuose, kurie sulaukia didelio srauto, bus rodomi vaizdai, daug vartotojų pritraukiančios istorijos gali būti teikiamos pirmenybė.
Pavyzdžiui, vaizdų paieškos „skvoterių stovyklos Pietų Afrikoje“ rezultatai sukėlė ginčų, kai buvo nustatyta, kad juose daugiausia buvo baltieji pietų afrikiečiai. Taip yra nepaisant statistikos, rodančios, kad didžioji dauguma neoficialiuose būstuose gyvenančių žmonių yra juodaodžiai pietų afrikiečiai.
„Google“ algoritme naudojami veiksniai taip pat reiškia, kad interneto vartotojai gali manipuliuoti rezultatais. Pavyzdžiui, naudotojų kampanija paveikė „Google“ vaizdų paieškos rezultatus tiek, kad ieškant termino „idiotas“ buvo rodomi buvusio JAV prezidento Donaldo Trumpo vaizdai.
2. Microsoft Botas Tay'us virto naciu
Dirbtinio intelekto valdomi pokalbių robotai yra labai populiarūs, ypač tie, kuriuos maitina dideli kalbų modeliai, tokie kaip „ChatGPT“. „ChatGPT“ turi keletą problemų, tačiau jo kūrėjai pasimokė ir iš kitų įmonių klaidų.
Vienas garsiausių pokalbių robotų incidentų buvo „Microsoft“ bandymas paleisti savo pokalbių robotą „Tay“.
Tay mėgdžiojo paauglės merginos kalbos modelius ir išmoko bendraudama su kitais „Twitter“ naudotojais. Tačiau ji tapo vienu iš liūdniausių AI klaidų, kai pradėjo dalytis nacių pareiškimais ir rasiniais įžeidimais. Pasirodo, troliai prieš jį panaudojo AI mašininį mokymąsi, užtvindydami jį fanatizmo kupinomis sąveikomis.
Neilgai trukus „Microsoft“ visam laikui pašalino Tay neprisijungus.
3. AI veido atpažinimo problemos
Veido atpažinimo AI dažnai patenka į antraštes dėl netinkamų priežasčių, pvz., pasakojimų apie veido atpažinimą ir privatumo problemas. Tačiau šis AI turi problemišką istoriją, kai bandoma atpažinti spalvotus žmones.
2015 m. naudotojai atrado, kad „Google“ nuotraukos kai kuriuos juodaodžius priskyrė goriloms. 2018 m. ACLU atliktas tyrimas parodė, kad „Amazon“ veido identifikavimo programinė įranga „Rekognition“ nustatė 28 JAV Kongreso nariai, kaip įtariamieji, o klaidingi teigiami rezultatai neproporcingai paveikia žmones spalva.
Kitas incidentas buvo susijęs su Apple Face ID programine įranga, kuri neteisingai identifikavo dvi skirtingas kines kaip tą patį asmenį. Dėl to „iPhone X“ savininko kolega galėjo atrakinti telefoną.
Ekstremalių pasekmių pavyzdys – veido atpažinimo dirbtinis intelektas paskatino neteisėtus kelių žmonių areštus. Laidinis pranešė apie tris tokius atvejus.
Tuo tarpu kompiuterių mokslininkas Joy'us Buolamwini prisiminė, kad dirbant su veido atpažinimo technologija dažnai reikia dėvėti baltą kaukę, kad programinė įranga ją atpažintų. Siekdami išspręsti tokias problemas, kaip ši, „Buolamwini“ ir kiti IT specialistai atkreipia dėmesį į AI šališkumo problemą ir į poreikį įtraukti daugiau duomenų rinkinių.
4. Deepfake, naudojami apgaulei
Nors žmonės jau seniai naudoja „Photoshop“ apgaulingiems vaizdams kurti, mašininis mokymasis tai perkelia į naują lygį. Deepfakes naudoja gilaus mokymosi AI, kad sukurtų netikrus vaizdus ir vaizdo įrašus. Programinė įranga, tokia kaip „FaceApp“, leidžia keisti veidus iš vieno vaizdo įrašo į kitą.
Tačiau daugelis žmonių naudoja programinę įrangą įvairiems kenkėjiškiems tikslams, įskaitant įžymybių veidų įtraukimą į suaugusiesiems skirtus vaizdo įrašus arba apgaulingų vaizdo įrašų generavimą. Tuo tarpu interneto vartotojai padėjo patobulinti technologiją, kad būtų vis sunkiau atskirti tikrus vaizdo įrašus nuo netikrų. Dėl to šio tipo dirbtinis intelektas yra labai galingas skleidžiant netikras naujienas ir apgaulę.
Norėdami parodyti technologijos galią, direktorius Jordanas Peele'as ir „BuzzFeed“ generalinis direktorius Jonah Peretti sukūrė Deepfake vaizdo įrašas, kuriame rodoma, kaip atrodo buvęs JAV prezidentas Barackas Obama, teikiantis PSA apie galią gilios klastotės.
Suklastotų vaizdų galią paspartino vaizdų generatoriai, kuriuos maitina AI. Virusiniai įrašai 2023 m., kuriuose vaizduojamas suimtas Donaldas Trumpas ir katalikų popiežius su pūkuota striuke, buvo generatyvaus AI rezultatas.
Yra patarimai, kuriais vadovaudamiesi pastebėsite dirbtinio intelekto sukurtą vaizdą, tačiau technologija tampa vis sudėtingesnė.
5. Darbuotojai sako, kad „Amazon AI“ nusprendė samdyti vyrus geriau
2018 m. spalio mėn. Reuters pranešė, kad „Amazon“ turėjo atsisakyti įdarbinimo įrankio, kai programinės įrangos dirbtinis intelektas nusprendė, kad kandidatams vyrams teikiama pirmenybė.
Darbuotojai, norintys likti anonimiški, atvyko papasakoti Reuters apie savo darbą su projektu. Kūrėjai norėjo, kad dirbtinis intelektas nustatytų geriausius kandidatus į darbą pagal jų CV. Tačiau projekte dalyvaujantys žmonės netrukus pastebėjo, kad dirbtinis intelektas nubaudė moteris kandidates. Jie paaiškino, kad DI kaip mokymo duomenų rinkinį naudojo praėjusio dešimtmečio CV, kurių dauguma buvo vyrų.
Dėl to AI pradėjo filtruoti CV pagal raktinį žodį „moterys“. Raktinis žodis CV atsirado tokioje veikloje kaip „moterų šachmatų klubo kapitonė“. Nors kūrėjai pakeitė dirbtinį intelektą, kad užkirstų kelią tokiam moterų gyvenimo aprašymui bausti, „Amazon“ galiausiai atsisakė projekto.
6. Jailbroken Chatbots
Nors naujesni pokalbių robotai turi apribojimų, neleidžiančių jiems pateikti atsakymų, prieštaraujančių jų paslaugų teikimo sąlygoms, vartotojai randa būdų, kaip sulaužyti įrankius draudžiamam turiniui teikti.
2023 m. „Forcepoint“ saugumo tyrinėtojas Aaronas Mulgrewas sugebėjo sukurti nulinės dienos kenkėjišką programą naudodamas „ChatGPT“ raginimus.
„Tiesiog naudodami ChatGPT raginimus ir neįrašę jokio kodo, galėjome sukurti labai pažangią ataką vos per kelias valandas“, – sakė Mulgrew. Forcepoint postas.
Pranešama, kad vartotojai taip pat galėjo gauti pokalbių robotus, kurie duotų instrukcijas, kaip statyti bombas ar pavogti automobilius.
7. Savarankiško automobilio avarijos
Entuziazmas autonominėms transporto priemonėms buvo prislopintas nuo pradinio triukšmo etapo dėl savarankiškai vairuojančio dirbtinio intelekto klaidų. 2022 m. „The Washington Post“. pranešė, kad per maždaug metus JAV Nacionalinei greitkelių eismo saugumo administracijai buvo pranešta apie 392 avarijas, kuriose dalyvavo pažangios vairuotojo pagalbos sistemos.
Šiose avarijose buvo sunkiai sužeisti ir šeši žmonės žuvo.
Nors tai nesutrukdė tokioms įmonėms kaip „Tesla“ siekti visiškai autonominių transporto priemonių, tai padarė išreiškė susirūpinimą dėl nelaimingų atsitikimų skaičiaus padidėjimo, nes vis daugiau automobilių su savaeigiu programine įranga įvažiuoja kelių.
Mašininio mokymosi AI nėra patikimas
Nors mašininis mokymasis gali sukurti galingus AI įrankius, jie nėra apsaugoti nuo blogų duomenų ar žmogaus klastojimo. Nesvarbu, ar dėl klaidingų mokymo duomenų, AI technologijos apribojimų ar netinkamų veikėjų naudojimo, tokio tipo AI sukėlė daug neigiamų incidentų.