Diskusijos apie AI jausmą nėra jokia naujiena, tačiau naujienos apie Google AI LaMDA pakurstė liepsnas. Po to, kai inžinierius pareiškė, kad botas buvo sąmoningas, net turi sielą, vėl iškilo keletas pažįstamų klausimų.
Ar DI, kaip LaMDA, iš tikrųjų gali būti jautrus arba sąmoningas, ir jei taip, kaip jūs galite pasakyti? Ar tai svarbu?
Kas yra LaMDA?
LaMDA (angl. Language Model for Dialogue Applications) trumpinys, pirmą kartą pasirodė 2021 m. „Google“ kūrėjų konferencijoje. Pažangi AI sistema turėtų padėti kurti kitus mažesnius pokalbių robotus. Kai „Google“ pirmą kartą ją pristatė, ji paskelbė apie planus integruoti jį į viską, padedant tokioms paslaugoms kaip „Google Assistant“ ir „Search“ jaustis žmogiškesnėmis ar bent jau natūraliomis.
Kai „Google“ inžinierius Blake'as Lemoine'as kalbėjosi su LaMDA, norėdamas išsiaiškinti, ar joje nenaudojama neapykantos kalba, jam susidarė kitoks įspūdis. Lemoine'as tvirtino, kad LaMDA buvo jautrus, ir jei nežinotų, kad tai botas, manytų, kad tai aštuonerių metų vaikas.
Po pokalbių su LaMDA Lemoine'as bandė įrodyti, kad buvo sąmoningas, ir apginti, jo manymu, įstatymines savo teises. Atsakydama į tai, „Google“ suteikė Lemoine'ui mokamų administracinių atostogų dėl konfidencialumo susitarimų pažeidimo.
Ar LaMDA iš tikrųjų yra jautrus?
Taigi, ar LaMDA iš tikrųjų yra jautri? Dauguma ekspertų, kurie svarstė šį klausimą, yra skeptiški. LaMDA yra labai pažangi dirbtinio intelekto pokalbių platforma, analizuojanti trilijonus žodžių iš interneto, todėl ji įgudusi skambėti kaip tikras žmogus.
Tai ne pirmas kartas, kai viena iš „Google“ AI suklaidina žmones manydama, kad tai yra žmogus. 2018 m. „Google“ pademonstravo savo „Duplex AI“ paskambinusi restoranui ir rezervuoti staliuką. Darbuotojas kitame gale nė karto neabejojo, kad kalbasi su žmogumi.
Sunku apibrėžti jausmą, nors daugumai žmonių abejoju, kad AI pasiekė tą tašką dar. Tačiau svarbus klausimas gali būti ne tai, ar LaMDA iš tikrųjų yra jautri, o koks skirtumas, jei ji gali suklaidinti žmones, kad tai yra.
Galimos LaMDA teisinės pasekmės
LaMDA situacija kelia daug teisinių ir etinių klausimų. Pirma, kai kurie žmonės gali suabejoti, ar „Google“ buvo teisus išleido Lemoine'ą, nes apie tai kalbėjo.
Remiantis Niujorko darbo įstatymo 740 straipsniu, pranešėjų apsauga gina darbuotojus nuo pasekmės, jei jie mano, kad jų darbdavio veikla pažeidžia įstatymus arba kelia didelį pavojų visuomenei saugumo. Tariamas LaMDA jausmas ne visai atitinka šį teisinį reikalavimą, bet ar turėtų?
AI teisių suteikimas yra sudėtingas dalykas. Nors AI gali kurti daiktus ir atrodyti žmogiškais, galite susidurti su sudėtingomis situacijomis, jei šios mašinos turi teisinę apsaugą. Teisinės teisės yra susijusios su apdovanojimais ir bausmėmis, kurios neturi įtakos dirbtiniam intelektui, o tai apsunkina teisingumą.
Jei savarankiškai važiuojantis automobilis partrenkia pėsčiąjį, ar AI kaltas, jei įstatymai jį traktuoja kaip žmogų? Ir jei taip, tai griežtai neteikia aukai teisingumo, nes negalite techniškai nubausti dirbtinio intelekto taip, kaip už žmogų.
Kitas klausimas, kylantis naudojant LaMDA ir panašius AI pokalbių robotus, yra jų saugumas. Jei šie robotai atrodo įtikinamai tikri, žmonės gali jais labiau pasitikėti ir būti pasirengę jiems duoti jautresnė informacija. Tai atveria duris daugybei privatumo ir saugumo problemų, jei ši technologija pateks į netinkamas rankas.
AI pristato sudėtingus etinius klausimus
AI, pvz., LaMDA, tampa vis sudėtingesni ir tikroviškesni. Šiai tendencijai augant, įmonės ir įstatymų leidėjai turėtų iš naujo įvertinti, kaip jie elgiasi su dirbtiniu intelektu ir kaip šie sprendimai gali paveikti teisingumą ir saugumą.
Esant dabartinei situacijai, „Google“ LaMDA AI gali būti nejautri, tačiau ji yra pakankamai gera, kad apgaudinėtų žmones, kad taip yra, o tai turėtų sukelti pavojaus signalą.