„ChatGPT“ yra naudinga daugeliui užduočių, tačiau yra keletas esminių trūkumų, dėl kurių turėtumėte gerai pagalvoti, prieš pasitikėdami juo dėl medicininės konsultacijos.

„ChatGPT“ – dirbtinio intelekto (DI) pokalbių robotas, kurį sukūrė „OpenAI“ – tapo „viskas viename“ įrankiu, leidžiančiu atsakyti į daugelį paprastų ir sudėtingų klausimų, įskaitant medicininės konsultacijos prašymus. Jis gali atsakyti į medicininius klausimus ir išlaikyti Jungtinių Valstijų medicinos licencijavimo egzaminą (USMLE), tačiau jis negali pakeisti susitikimo su gydytoju ligoninėje.

Tobulėjant ChatGPT, ji gali visiškai pakeisti sveikatos priežiūros sektorių. Integruota su sveikatos sistemomis gali pagerinti pacientų prieigą prie priežiūros ir padidinti gydytojų darbo efektyvumą. Tačiau, kadangi jis pagrįstas dirbtiniu intelektu, kelia susirūpinimą dėl galimų pavojų.

1. „ChatGPT“ turi ribotas žinias

ChatGPT ne viską žino. „OpenAI“ teigimu, „ChatGPT“ turi ribotas žinias, ypač kai kalbama apie tai, kas įvyko po 2021 m. rugsėjo mėn.

instagram viewer

„ChatGPT“ neturi tiesioginės prieigos prie paieškos sistemų ar interneto. Jis buvo apmokytas naudojant daugybę tekstinių duomenų iš daugelio šaltinių, įskaitant knygas, svetaines ir kitus tekstus. Ji „nežino“ pateikiamų duomenų. Vietoj to, „ChatGPT“ naudoja perskaitytą tekstą, kad sukurtų numatymus, kokius žodžius ir kokia tvarka naudoti.

Todėl ji negali gauti naujausių naujienų apie medicinos sričių pokyčius. Taip, „ChatGPT“ nežino apie širdies persodinimą iš kiaulės į žmogų ar bet kokius kitus labai naujausius medicinos mokslo pasiekimus.

2. „ChatGPT“ gali pateikti neteisingą informaciją

„ChatGPT“ gali atsakyti į jūsų užduodamus klausimus, tačiau atsakymai gali būti netikslūs arba šališki. Pasak a PLoS skaitmeninė sveikata tyrime ChatGPT buvo atliktas mažiausiai 50 % tikslumu per visus USMLE tyrimus. Ir nors kai kuriais aspektais jis viršijo 60 % išlaikymo slenkstį, klaidos galimybė vis tiek išlieka.

Be to, ne visa informacija, naudojama mokant ChatGPT, yra autentiška. Nepatvirtinta arba galimai šališka informacija pagrįsti atsakymai gali būti neteisingi arba pasenę. Medicinos pasaulyje netiksli informacija gali kainuoti net gyvybę.

Kadangi „ChatGPT“ negali savarankiškai tyrinėti ar tikrinti medžiagos, ji negali atskirti fakto ir prasmės. Gerbiami medicinos žurnalai, įskaitant Amerikos medicinos asociacijos žurnalą (JAMA). nustatytas griežtas reglamentas, kad tik žmonės gali rašyti mokslines studijas, paskelbtas 2012 m žurnalas. Kaip rezultatas, turėtumėte nuolat tikrinti ChatGPT atsakymus.

3. „ChatGPT“ jūsų fiziškai neapžiūri

Medicininės diagnozės priklauso ne tik nuo simptomų. Gydytojai gali gauti įžvalgų apie ligos pobūdį ir sunkumą atlikdami paciento fizinę apžiūrą. Siekdami diagnozuoti pacientus, gydytojai šiandien naudoja ir medicinos technologijas, ir penkis pojūčius.

ChatGPT negali atlikti pilnos virtualios patikros ar net fizinės apžiūros; ji gali atsakyti tik į simptomus, kuriuos pateikiate kaip pranešimus. Paciento saugumui ir priežiūrai fizinės apžiūros klaidos arba visiškas fizinio tyrimo ignoravimas gali būti žalingi. Kadangi ChatGPT jūsų fiziškai neapžiūrėjo, ji pasiūlys neteisingą diagnozę.

4. „ChatGPT“ gali pateikti klaidingą informaciją

Neseniai atliktas tyrimas Merilendo universiteto medicinos mokykla ChatGPT patarimai dėl krūties vėžio patikros nustatė šiuos rezultatus:

„Iš savo patirties matėme, kad ChatGPT kartais sukuria netikrus žurnalų straipsnius arba sudaro sveikatos konsorciumus, kad pagrįstų savo teiginius. - Paul Yi M.D., UMSOM diagnostinės radiologijos ir branduolinės medicinos docentas

Testuodami ChatGPT paprašėme negrožinės literatūros knygų, apimančių pasąmonės temą, sąrašo. Dėl to ChatGPT sukūrė suklastotą daktaro Gustavo Kuhno knygą pavadinimu „Nesąmonės galia“.

Kai pasiteiravome apie knygą, ji atsakė, kad tai buvo „hipotetinė“ knyga. „ChatGPT“ nepasakys, ar žurnalo straipsnis ar knyga yra klaidingi, jei daugiau neklausysite.

5. ChatGPT yra tik AI kalbos modelis

Kalbos modeliai veikia įsimendami ir apibendrindami tekstą, o ne tirdami ar tirdami paciento būklę. Nepaisant atsakymų, atitinkančių žmogaus kalbos ir gramatikos standartus, „ChatGPT“ vis dar turi daug problemų, panašiai kaip ir kiti AI robotai.

„ChatGPT“ nėra jūsų gydytojo pakaitalas

Žmonių gydytojai visada bus reikalingi, kad priimtų galutinį sprendimą dėl sveikatos priežiūros. „ChatGPT“ paprastai pataria pasikalbėti su licencijuotu sveikatos priežiūros specialistu, kai prašote medicininės pagalbos.

Dirbtinio intelekto įrankius, tokius kaip „ChatGPT“, galima naudoti norint suplanuoti gydytojo vizitus, padėti pacientams gydytis ir išsaugoti informaciją apie sveikatą. Tačiau tai negali pakeisti gydytojo kompetencijos ir empatijos.

Neturėtumėte pasikliauti dirbtiniu intelektu pagrįstu įrankiu diagnozuodami ar gydydami savo sveikatą, nesvarbu, ar tai būtų fizinė ar psichinė.