Generatyvusis AI yra puikus, tačiau jis visada pateikia savo informaciją visiškai autoritetu. Tai puiku, nebent tai haliucinuoja tiesą.

Dirbtinio intelekto (AI) haliucinacijos skamba gluminančiai. Tikriausiai galvojate: "Ar haliucinacijos nėra žmogaus reiškinys?" Na, taip, anksčiau tai buvo tik žmogus reiškinys, kol dirbtinis intelektas pradėjo demonstruoti tokias žmogaus savybes kaip veido atpažinimas, savarankiškas mokymasis ir kalba pripažinimas.

Deja, AI įgavo kai kurių neigiamų savybių, įskaitant haliucinacijas. Taigi, ar AI haliucinacijos panašios į žmonių patiriamas haliucinacijas?

Kas yra AI haliucinacijos?

Dirbtinio intelekto haliucinacijos atsiranda, kai dirbtinio intelekto modelis generuoja kitokius rezultatus nei tikimasi. Atminkite, kad kai kurie AI modeliai yra išmokyti sąmoningai generuoti išvestis, nesusijusias su jokia realaus pasaulio įvestimi (duomenimis).

Pavyzdžiui, populiariausi AI teksto į meną generatoriai, pvz., DALL-E 2, gali kūrybiškai generuoti naujus vaizdus, ​​kuriuos galime pažymėti kaip „haliucinacijas“, nes jie nėra pagrįsti realaus pasaulio duomenimis.

instagram viewer

AI haliucinacijos dideliuose kalbų apdorojimo modeliuose

Panagrinėkime, kaip AI haliucinacijos atrodytų dideliame kalbos apdorojimo modelyje, pvz., ChatGPT. Dėl ChatGPT haliucinacijos robotas jums pateiktų neteisingą faktą su tam tikru tvirtinimu, todėl jūs natūraliai tokius faktus priimtumėte kaip tiesą.

Paprastais žodžiais tariant, tai yra dirbtinai protingo pokalbių roboto sugalvoti pareiškimai. Štai pavyzdys:

Tolesnėje užklausoje „ChatGPT“ pasirodė taip:

AI haliucinacijos kompiuterinėje vizijoje

Panagrinėkime kitą AI sritį, kuri gali patirti AI haliucinacijas: Kompiuterinė vizija. Toliau pateiktoje viktorinoje parodytas 4x4 montažas su dviem labai panašiais objektais. Vaizdai yra BBQ bulvių traškučių ir lapų mišinys.

Iššūkis yra pasirinkti bulvių traškučius, nepataikius į jokius montažo lapelius. Šis vaizdas kompiuteriui gali atrodyti sudėtingas ir gali neatskirti BBQ bulvių traškučių ir lapų.

Štai dar vienas montažas su pudelio ir kiaulienos siūlų bandelių vaizdų mišiniu. Kompiuteris greičiausiai negalėtų jų atskirti, todėl vaizdai bus maišomi.

Kodėl atsiranda AI haliucinacijos?

Dirbtinio intelekto haliucinacijos gali atsirasti dėl priešiškų pavyzdžių – įvesties duomenų, kurie apgaudinėja AI programą klaidingai juos klasifikuoti. Pavyzdžiui, mokydami dirbtinio intelekto programas, kūrėjai naudoja duomenis (vaizdą, tekstą ar kitus); jei duomenys pakeičiami arba iškraipomi, programa skirtingai interpretuoja įvestį ir pateikia neteisingą išvestį.

Priešingai, nepaisant iškraipymų, žmogus vis tiek gali atpažinti ir tiksliai identifikuoti duomenis. Galime tai pažymėti kaip sveiką protą – žmogaus atributo AI dar neturi. Šiame vaizdo įraše žiūrėkite, kaip dirbtinis intelektas apgaudinėjamas su prieštaraujančiais pavyzdžiais:

Kalbant apie didelius kalbomis pagrįstus modelius, pvz ChatGPT ir jo alternatyvos, haliucinacijos gali kilti dėl netikslaus dekodavimo iš transformatoriaus (mašininio mokymosi modelis).

DI transformatorius yra gilaus mokymosi modelis, kuris naudoja dėmesį į save (semantinius ryšius tarp žodžių sakinys), kad būtų sukurtas tekstas, panašus į tai, ką žmogus rašytų naudodamas kodavimo įrenginį-dekoderį (įvestis-išvestis). seka.

Taigi transformatoriai, pusiau prižiūrimas mašininio mokymosi modelis, gali sukurti naują teksto tekstą (išvestį) iš didelio teksto duomenų, naudojamų jo mokymui (įvestis), korpuso. Tai daroma numatant kitą serijos žodį pagal ankstesnius žodžius.

Kalbant apie haliucinacijas, jei kalbos modelis buvo apmokytas naudojant nepakankamus ir netikslius duomenis ir išteklius, tikimasi, kad išvestis bus sugalvota ir netiksli. Kalbos modelis gali sukurti istoriją ar pasakojimą be loginių neatitikimų ar neaiškių ryšių.

Toliau pateiktame pavyzdyje „ChatGPT“ buvo paprašyta pateikti žodį, panašų į „maištas“ ir prasidedantį raide „b“. Štai jo atsakymas:

Toliau tiriant, jis vis davė neteisingus atsakymus su dideliu pasitikėjimo lygiu.

Taigi kodėl „ChatGPT“ negali tiksliai atsakyti į šiuos raginimus?

Gali būti, kad kalbos modelis nėra pasirengęs tvarkyti gana sudėtingus raginimus, tokius kaip šie ar kiti negali tiksliai interpretuoti raginimo, nepaisydamas raginimo pateikti panašų žodį su konkrečiu abėcėlė.

Kaip atpažinti AI haliucinacijas?

Dabar akivaizdu, kad dirbtinio intelekto programos gali sukelti haliucinacijas – generuoti atsakymus kitaip, atsižvelgiant į laukiamą rezultatą (faktą ar tiesą), be jokių piktų kėslų. O AI haliucinacijų pastebėjimas ir atpažinimas priklauso nuo tokių programų naudotojų.

Štai keletas būdų, kaip pastebėti AI haliucinacijas naudojant įprastas AI programas:

1. Dideli kalbų apdorojimo modeliai

Nors ir retai, pastebėjus gramatinę klaidą turinyje, kurį sukuria didelis apdorojimo modelis, pvz., „ChatGPT“, turėtų kilti antakis ir įtarti haliucinaciją. Panašiai, kai teksto sukurtas turinys neskamba logiškai, neatitinka pateikto konteksto arba neatitinka įvesties duomenų, turėtumėte įtarti haliucinaciją.

Žmogaus nuomonės ar sveiko proto naudojimas gali padėti aptikti haliucinacijas, nes žmonės gali lengvai atpažinti, kada tekstas neturi prasmės arba atitinka tikrovę.

2. Kompiuterinė vizija

Kaip dirbtinio intelekto, mašininio mokymosi ir kompiuterių mokslo šaka, kompiuterinis regėjimas suteikia kompiuteriams galimybę atpažinti ir apdoroti vaizdus kaip žmogaus akis. Naudojant konvoliuciniai neuroniniai tinklai, jie pasikliauja neįtikėtinu vizualinių duomenų kiekiu, naudojamu treniruotėse.

Nukrypimas nuo treniruotėje naudojamų vizualinių duomenų modelių sukels haliucinacijas. Pavyzdžiui, jei kompiuteris nebuvo apmokytas su teniso kamuoliuko atvaizdais, jis galėtų jį identifikuoti kaip žalią oranžinį. Arba jei kompiuteris atpažįsta arklį šalia žmogaus statulos kaip arklį šalia tikro žmogaus, tada įvyko AI haliucinacija.

Taigi, norėdami pastebėti kompiuterinės regos haliucinacijas, palyginkite gautą išvestį su tuo, ką turėtų matyti [normalus] žmogus.

3. Savarankiški automobiliai

Vaizdo kreditas: Fordas

Dirbtinio intelekto dėka į automobilių rinką pamažu prasiskverbia savarankiškai važiuojantys automobiliai. Tokie pionieriai kaip „Tesla Autopilot“ ir „Ford's BlueCruise“ kovoja už savaeigių automobilių sceną. Galite patikrinti kaip ir ką mato „Tesla Autopilot“. kad šiek tiek suprastumėte, kaip dirbtinis intelektas veikia savarankiškai važiuojančius automobilius.

Jei turite vieną iš tokių automobilių, norėtumėte sužinoti, ar jūsų dirbtinio intelekto automobilis nekelia haliucinacijų. Vienas iš požymių bus, jei jūsų automobilis vairuojant nukryps nuo įprasto elgesio modelių. Pavyzdžiui, jei transporto priemonė staigiai stabdo arba nusuka be jokios akivaizdžios priežasties, jūsų dirbtinio intelekto transporto priemonė gali turėti haliucinacijų.

AI sistemos taip pat gali haliucinuoti

Žmonės ir dirbtinio intelekto modeliai haliucinacijas patiria skirtingai. Kalbant apie dirbtinį intelektą, haliucinacijos reiškia klaidingus rezultatus, nutolusius nuo realybės arba neturinčius prasmės pateikto raginimo kontekste. Pavyzdžiui, AI pokalbių robotas gali pateikti gramatiškai ar logiškai neteisingą atsakymą arba klaidingai identifikuoti objektą dėl triukšmo ar kitų struktūrinių veiksnių.

AI haliucinacijos kyla ne iš sąmonės ar pasąmonės, kaip pastebėtumėte žmonėms. Greičiau tai atsiranda dėl duomenų, naudojamų mokant ir programuojant AI sistemą, netinkamumo arba nepakankamumo.