Dirbtinio intelekto galimybės plečiasi eksponentiškai, dirbtinis intelektas dabar naudojamas pramonės šakose nuo reklamos iki medicinos tyrimų. Dirbtinio intelekto naudojimas jautresnėse srityse, tokiose kaip veido atpažinimo programinė įranga, algoritmų samdymas ir sveikatos priežiūros paslaugos, sukėlė diskusijas apie šališkumą ir teisingumą.

Šališkumas yra gerai ištirtas žmogaus psichologijos aspektas. Tyrimai reguliariai atskleidžia mūsų nesąmoningus pageidavimus ir išankstines nuostatas, o dabar matome, kad AI atspindi kai kuriuos iš šių šališkumų savo algoritmuose.

Taigi, kaip dirbtinis intelektas tampa šališkas? Ir kodėl tai svarbu?

Kaip dirbtinis intelektas tampa šališkas?

Siekdami paprastumo, šiame straipsnyje mes nurodysime mašininis mokymasis ir gilus mokymasis algoritmai kaip dirbtinio intelekto algoritmai ar sistemos.

Tyrėjai ir kūrėjai gali diegti dirbtinio intelekto tendencijas dviem būdais.

Pirma, kognityviniai tyrėjų šališkumai gali būti netyčia įtvirtinti mašininio mokymosi algoritmuose. Kognityvinis šališkumas yra nesąmoningas žmogaus suvokimas, kuris gali turėti įtakos žmonių sprendimų priėmimui. Tai tampa svarbia problema, kai šališkumas susijęs su žmonėmis ar žmonių grupėmis ir gali pakenkti tiems žmonėms.

Šie šališkumai gali būti įvesti tiesiogiai, bet netyčia, arba mokslininkai gali mokyti intelektą dirbdami duomenų rinkiniuose, kuriuos patys paveikė šališkumas. Pavyzdžiui, veido atpažinimo dirbtinį intelektą galima išmokyti naudojant duomenų rinkinį, kuriame yra tik šviesios odos veidai. Tokiu atveju dirbtinis intelektas veiks geriau, kai susidoros su šviesiaodžiais veidais, o ne tamsus. Ši dirbtinio intelekto šališkumo forma yra žinoma kaip neigiamas palikimas.

Antra, šališkumas gali atsirasti, kai dirbtinis intelektas yra apmokomas dėl neišsamių duomenų rinkinių. Pavyzdžiui, jei dirbtinis intelektas mokomas duomenų rinkinyje, kuriame yra tik kompiuterių mokslininkai, jis neatstovaus visos populiacijos. Tai veda prie algoritmų, kurie nepateikia tikslių prognozių.

Tikrojo pasaulio dirbtinio intelekto šališkumo pavyzdžiai

Pastaruoju metu buvo daugybė gerai praneštų dirbtinio intelekto šališkumo pavyzdžių iliustruoja pavojų leisti šiems šališkumams įsivyrauti.

JAV pagrįstas sveikatos priežiūros prioritetas

2019 m. Mašininio mokymosi algoritmas buvo sukurtas padėti ligoninėms ir draudimo bendrovėms nustatyti, kuriems pacientams būtų naudingiausios tam tikros sveikatos priežiūros programos. Remiantis maždaug 200 milijonų žmonių duomenų baze, algoritmas pirmenybę teikė baltaodžiams, o ne juodaodžiams.

Buvo nustatyta, kad taip nutiko dėl klaidingos algoritmo prielaidos, kad skirtingos sveikatos priežiūros išlaidos skiriasi nuo juodaodžių ir baltų žmonių, o šališkumas galiausiai sumažėjo 80%.

COMPAS

Alternatyvių sankcijų pataisos nusikaltėlių valdymo profiliavimas arba COMPAS buvo dirbtinio intelekto algoritmas, skirtas numatyti, ar konkretūs žmonės dar kartą įžeis. Algoritmas sudarė dvigubą melagingą teigiamą poveikį juodaodžiams nusikaltėliams, palyginti su baltais nusikaltėliais. Šiuo atveju tiek duomenų rinkinys, tiek modelis buvo ydingi, todėl atsirado didelis šališkumas.

„Amazon“

2015 m. Nustatyta, kad samdymo algoritmas, kurį „Amazon“ naudoja pareiškėjų tinkamumui nustatyti, labai palankiai vertina vyrus, o ne moteris. Taip buvo todėl, kad duomenų rinkinyje beveik vien tik vyrai ir jų gyvenimo aprašymai, nes dauguma „Amazon“ darbuotojų yra vyrai.

Kaip sustabdyti AI šališkumą

Dirbtinis intelektas jau daro perversmą mūsų darbe kiekviena pramonė. Turėti šališkų sistemų, kontroliuojančių jautrius sprendimų priėmimo procesus, yra mažiau nei pageidautina. Geriausiu atveju tai sumažina dirbtiniu intelektu pagrįstų tyrimų kokybę. Blogiausiu atveju tai aktyviai žaloja mažumų grupes.

Yra jau naudojami AI algoritmų pavyzdžiai padėti žmonėms priimti sprendimus sumažinant žmogaus kognityvinių tendencijų poveikį. Dėl to, kaip mokomi mašininio mokymosi algoritmai, jie gali būti tikslesni ir mažiau šališki nei toje pačioje padėtyje esantys žmonės, todėl sprendimai priimami teisingiau.

Bet, kaip mes parodėme, yra ir priešingai. Rizika, leidžianti dirbtiniam intelektui pritaikyti ir šalinti žmogaus šališkumą, gali nusverti kai kurias galimas naudas.

Dienos pabaigoje, Dirbtinis intelektas yra toks pat geras, kaip ir duomenys, su kuriais jis mokomas. Norint sukurti nešališkus algoritmus, reikia atlikti išsamią ir išsamią išankstinę duomenų rinkinių analizę, užtikrinant, kad duomenyse nebūtų netiesioginių šališkumų. Tai yra sunkiau, nei skamba, nes tiek daug mūsų šališkumų yra nesąmoningi ir juos dažnai sunku atpažinti.

Iššūkių prevencija dirbtinio intelekto šališkumo srityje

Kuriant dirbtinio intelekto sistemas, reikia įvertinti kiekvieną žingsnį dėl jo galimybių įtvirtinti šališkumą algoritme. Vienas pagrindinių veiksnių, užkertančių kelią šališkumui, yra užtikrinti, kad teisingumas, o ne šališkumas, būtų „virinamas“ algoritmu.

Sąžiningumo apibrėžimas

Sąžiningumas yra gana sunku apibrėžti sąvoka. Tiesą sakant, tai yra diskusija, kuri niekada nebuvo pasiekta sutarimo. Kad viskas būtų dar sunkiau, kuriant AI sistemas teisingumo sąvoka turi būti apibrėžta matematiškai.

Pavyzdžiui, ar kalbant apie „Amazon“ samdymo algoritmą, ar teisingumas atrodytų kaip tobulas 50/50 vyrų ir moterų padalijimas? Arba kita proporcija?

Funkcijos nustatymas

Pirmasis žingsnis dirbtinio intelekto srityje yra tiksliai nustatyti, ko jis pasieks. Naudojant COMPAS pavyzdį, algoritmas numatytų nusikaltėlių pakartotinio nusižengimo tikimybę. Tada reikia nustatyti aiškius įvesties duomenis, kad algoritmas veiktų. Tam gali tekti apibrėžti svarbius kintamuosius, pvz., Ankstesnių nusikaltimų skaičių ar padarytų nusikaltimų rūšį.

Tinkamas šių kintamųjų apibrėžimas yra sunkus, bet svarbus žingsnis užtikrinant algoritmo teisingumą.

Duomenų rinkinio kūrimas

Kaip aptarta, pagrindinė dirbtinio intelekto šališkumo priežastis yra neišsamūs, nereprezentatyvūs ar šališki duomenys. Kaip ir veido atpažinimo AI atveju, prieš mašininį mokymosi procesą reikia kruopščiai patikrinti įvesties duomenis, ar nėra šališkumo, tinkamumo ir išsamumo.

Atributų pasirinkimas

Algoritmuose tam tikri atributai gali būti svarstomi arba ne. Atributai gali būti lytis, rasė ar išsilavinimas - iš esmės viskas, kas gali būti svarbu algoritmo užduočiai atlikti. Priklausomai nuo pasirinktų atributų, algoritmo prognozavimo tikslumas ir šališkumas gali būti labai paveikti. Problema ta, kad labai sunku išmatuoti, kiek algoritmas yra šališkas.

AI šališkumas nėra čia pasilikti

Dirbtinio intelekto šališkumas įvyksta tada, kai algoritmai dėl šališko įvesties pateikia šališką ar netikslią prognozę. Jis įvyksta tada, kai kuriant ir mokant algoritmą atsispindi ar sustiprinami šališki ar neišsamūs duomenys.

Geros naujienos yra tai, kad padauginus PG tyrimų finansavimo, mes greičiausiai pamatysime naujų metodų, kaip sumažinti ir net pašalinti PG šališkumą.

El
5 paplitę mitai apie dirbtinį intelektą, kurie nėra tiesa

Užfiksuokime tiesią klaidą, apimančią dirbtinį intelektą.

Skaitykite toliau

Susijusios temos
  • Paaiškinta technologija
  • Dirbtinis intelektas
  • Mašininis mokymasis
Apie autorių
Jake'as Harfieldas (Paskelbti 6 straipsniai)

Jake'as Harfieldas yra laisvas rašytojas, įsikūręs Pertyje, Australijoje. Kai nerašo, jis dažniausiai lauke fotografuoja vietinę laukinę gamtą. Galite jį aplankyti www.jakeharfield.com

Daugiau iš Jake'o Harfieldo

Prenumeruokite mūsų naujienlaiškį

Prisijunkite prie mūsų naujienlaiškio, kuriame rasite techninių patarimų, apžvalgų, nemokamų el. Knygų ir išskirtinių pasiūlymų!

Dar vienas žingsnis…!

Prašome patvirtinti savo el. Pašto adresą el. Laiške, kurį jums ką tik išsiuntėme.

.