„Microsoft“ sukurtas „Tay AI“ per mažiau nei dieną iš daug žadančio AI tapo visiška katastrofa. Štai ką įmonė sužinojo.

AI pokalbių robotai, tokie kaip ChatGPT, vis labiau tampa neatsiejama šiuolaikinių technologijų dalimi, tačiau daugeliui nežinoma, kad generuojantis AI ne visada buvo toks geras kaip šiandien. Tiesą sakant, 2016 m. „Microsoft“ sukurtas pokalbių robotas Tay mums parodė, kaip greitai AI gali atsigauti.

Panagrinėkime, kas buvo „Microsoft“ dirbtinio intelekto pokalbių robotas „Tay“, kodėl jis žlugo, dėl ko kilo ginčai ir ką įmonė išmoko po pražūtingos nesėkmės.

Kas buvo „Microsoft Tay“?

Tay buvo AI pokalbių robotas, kurį sukūrė „Microsoft“ ir 2016 m. kovo 23 d. buvo pasiekiamas per „Twitter“. Pokalbių robotas buvo sukurtas 18–24 metų asmenims JAV „pramogų tikslais“ ir „eksperimentuoti bei atlikti pokalbio supratimo tyrimus“.

Tay turėjo būti ne toks sudėtingas pokalbių robotas kaip „ChatGPT“, o draugiškas dirbtinio intelekto robotas „Twitter“, su kuriuo galėtumėte kalbėtis, panašiai kaip Mano AI „Snapchat“., bet bendravimui.

Kodėl „Microsoft“ išjungė „Tay“?

„Microsoft“ panaikino „Tay“ per 24 valandas nuo paskelbimo – dėl rimtos priežasties. Beveik iš karto po Tay pristatymo „Twitter“ vartotojai pradėjo piktnaudžiauti paslauga, maitindami pokalbių robotą dezinformacija, mokant ją menkinančių terminų ir skatinant ją būti vis labiau įžeidžiančiu, kad pamatytume, kaip toli eičiau.

Ir tikrai toli nuėjo. Per kelias valandas nuo paleidimo Tay tviteryje paskelbė kai kuriuos įžeidžiamiausius rasinius užgauliojimus, skleidė neapykantą kurstančią kalbą, propagavo nacizmą ir netgi įkvėpė „rasių karui“. Taip! Akivaizdu, kad „Microsoft“ išgyveno siaubingą laiką ir ji negalėjo leisti paslaugos tęsti.

A paskelbti oficialiame „Microsoft“ tinklaraštyje, „Microsoft“ viceprezidentas Peteris Lee kartojo tą patį:

Labai apgailestaujame dėl netyčinių įžeidžiančių ir įžeidžiančių Tay žinučių, kurios neatspindi nei kas mes esame, nei už ką atstovaujame, nei kaip sukūrėme Tay. Tay dabar neprisijungęs ir mes stengsimės sugrąžinti Tay tik tada, kai būsime tikri, kad galime geriau numatyti kenkėjiškus ketinimus, kurie prieštarauja mūsų principams ir vertybėms.

Tay žlugimas yra tik vienas iš daugelio dirbtinio intelekto pavojus ir stiprus priminimas, kodėl jo kūrimas turėtų būti atliekamas labai atsargiai ir atsargiai.

6 pamokos, kurias Microsoft išmoko po Tay

Tay buvo visiška katastrofa, tačiau ji taip pat išmokė „Microsoft“ kai kurių svarbių pamokų, susijusių su AI įrankių kūrimu. Ir ko tai verta, tikriausiai būtų geriau, kad „Microsoft“ anksčiau nei vėliau išmoko savo pamokas, o tai leido jai pradėti nuo „Google“ ir sukurti naują AI veikianti Bing naršyklė.

Štai keletas iš tų pamokų:

1. Internetas pilnas trolių

Internetas pilnas trolių, ir tai ne visai naujiena, ar ne? Matyt, taip buvo „Microsoft“ 2016 m. Nesakome, kad pokalbių roboto, skirto „pramogos tikslams“, skirto 18–24 metų asmenims, kūrimas turėjo ką nors bendro su piktnaudžiavimo paslauga dažniu. Vis dėlto tai tikrai nebuvo pati protingiausia idėja.

Natūralu, kad žmonės nori išbandyti naujų technologijų ribas, ir galiausiai kūrėjo darbas yra atsakyti už šias kenkėjiškas atakas. Tam tikra prasme vidiniai troliai veikia kaip grįžtamojo ryšio mechanizmas, užtikrinantis kokybę, tačiau tai nereiškia, kad pokalbių robotas turėtų būti paleistas be tinkamų apsaugos priemonių prieš paleidimą.

2. AI negali intuityviai atskirti gėrio ir blogo

Gėrio ir blogio sąvokos AI intuityviai nesupranta. Jis turi būti užprogramuotas, kad imituotų žinojimą apie tai, kas teisinga ir neteisinga, kas moralu ir amoralu, o kas normalu ir savotiška.

Šios savybės daugiau ar mažiau yra natūralios žmonėms, kaip socialiniams padarams, tačiau dirbtinis intelektas negali priimti savarankiškų sprendimų, jausti empatiją ar patirti skausmo. Štai kodėl, kai „Twitter“ vartotojai šėrė Tay visokią propagandą, robotas tiesiog sekė kartu – nežinodamas renkamos informacijos etikos.

3. Nemokykite dirbtinio intelekto modelių naudodami žmonių pokalbius

Tay buvo sukurtas „gaunant atitinkamus viešuosius duomenis ir naudojant dirbtinį intelektą bei redakciją, kurią sukūrė darbuotojai, įskaitant improvizaciniai komikai.“ Mokyti dirbtinio intelekto modelį naudojant žmonių pokalbius internete yra siaubinga. idėja.

Ir prieš kaltindami tai „Twitter“, žinokite, kad rezultatas tikriausiai būtų buvęs toks pat, nepaisant platformos. Kodėl? Nes žmonės internete nėra patys geriausi. Jie susijaudina, vartoja žargoninius žodžius ir naudoja savo anonimiškumą, kad būtų niekšiški.

4. AI neturi sveiko proto ir nesulaukia sarkazmo

AI šiandien atrodo intuityvesnis (arba, tiksliau sakant, geriau imituoja intuiciją), bet vis tiek kartais sunkiai atpažįsta sarkazmą ir kalbos figūras. Tai dar labiau buvo tiesa 2016 m. Tai, kas akivaizdu žmonėms, nėra akivaizdu AI; kitaip tariant, jam trūksta sveiko proto.

AI, tokie kaip Tay, nesupranta, kodėl žmonės yra tokie, kokie esame, elgiasi taip, kaip elgiamės, ir dėl kiekvieno individo ekscentriškumo. Jis gali stebėtinai elgtis ir skambėti žmogiškai, tačiau geras programavimas gali nueiti iki tol.

5. AI turi būti užprogramuotas atmesti neteisingus prašymus

AI yra labai įspūdingas ir turi būti užprogramuotas atmesti prašymus, skatinančius žalą. Net ir šiandien, po visų mūsų natūralios kalbos apdorojimo pažangos, žmonės vis dar randa kalbinių spragų priversti AI pokalbių robotus, tokius kaip ChatGPT, „haliucinuoti“ ir pasiekti rezultatų, kuriuos ketinta apriboti.

Esmė ta, kad dirbtinis intelektas yra visiškai paklusnus, o tai bene didžiausia jo stiprybė ir silpnybė. Viskas, ko nenorite, kad pokalbių robotas darytų, turi būti užprogramuotas rankiniu būdu.

6. AI pokalbių robotai niekada neturėtų būti palikti be priežiūros

Kol dirbtinis intelektas negali reguliuoti savęs, jo negalima palikti be priežiūros. Galite galvoti apie šių dienų dirbtinį intelektą kaip apie vaiką vunderkindą; kai kuriais atžvilgiais tai nuostabu, bet vis tiek tai vaikas. Jei bus paliktas be priežiūros, žmonės pasinaudos jos trūkumais – ir Tay buvo puikus to pavyzdys.

AI yra įrankis, kaip ir internetas, bet greitis ir mastas, kuriais viskas gali atsigauti naudojant AI, yra daug didesnis nei tai, ką patyrėme pirmaisiais interneto laikais.

AI reikia nuolatinės priežiūros ir reguliavimo

Tay nėra vienintelis pokalbių robotas, kuris buvo nesąžiningas – buvo daug kitų panašių atvejų. Tačiau tai, kas jį išskyrė, yra didžiulis greitis ir tai, kad jį sukūrė technologijų milžinas, pvz., „Microsoft“.

Tokie pavyzdžiai rodo, kokie atidūs turime būti kurdami AI įrankius, ypač kai jie skirti naudoti paprastiems žmonėms.