Dirbtinio intelekto (DI) bendravimo botas (angl. chatbot) „ChatGPT“ jau tapo populiariosios kultūros dalimi. Kaip viduramžiais klizma, taip nūdien „ChatGPT“ linksniuojamas it koks visų spynų visraktis. Programa netgi ryžtasi pateikti atsakymus į įvairius medicinos srities klausimus. Kita vertus, Long Ailando universiteto (JAV) atlikto tyrimo autoriai naujuoju sveikatos konsultantu nesižavi...
Vieno tyrimo autoriai „ChatGPT“ uždavė trisdešimt devynis medicinos srities klausimus. Paaiškėjo liūdni rezultatai: DI programėlei teisingai pavyko atsakyti vos į dešimt jų. Deja, bet žavingoji programa į daug klausimų pateikė arba nepilnus, arba klaidingus atsakymus. Botas net gi pateikė atsakymus, kurie galimai kelia pavojų asmens sveikatai ar gyvybei.
„ChatGPT“ vajus
„Atrodo, kad vartotojams patogi dirbtinio intelekto sistema planetą apgaubė per naktį. Ji sužavėjo galimybėmis sukurti žmogiškai skambančius dialogus, rašyti preliminarius elektroninius laiškus, esė ir atsakyti į sudėtingas užklausas su glaustais rezultatais. Vos per du mėnesius „ChatGPT“ tapo sparčiausiai augančia vartotojų aplikacija istorijoje“, – rašo CNN žurnalistė Catherine Thorbecke, kurios pašnekovas, informatikos profesorius Jeffas Clune pažymi, kad „ChatGPT“ įvairias smulkiais įpročių pakeitimais palengvino milijonų žmonių gyvenimus. Anot jo, šiandien daugelis sutelkia dėmesį į atrodo magiškas dirbtinio intelekto galimybes, tačiau kartu neįvertina, kad ši sistema tikrai dar nepasiekė savo galimybių ribos.
C.Thorbecke rašo, kad Pandoros skrynia jau atidaryta: „ChatGPT“ galimybėmis aktyviai domisi skirtingų sričių atstovai: mokytojai, edukatoriai, menininkai, mokslininkai ir kiti. Svarstoma, kad žavioji programa gali tapti gera pagalbine priemone, didinančia specialistų darbo našumą ir produktyvumą. Kita vertus, pasaulis aktyviai diskutuoja dėl „ChatGPT“ autorinių teisių pažeidimų. Juk pastarasis
botas panaudoja tikrų žmonių autorinius kūrinius (pvz., tekstą ar paveikslą) ir sukuria savąjį produktą.
„ChatGPT“ įnešė didžiulių pokyčių į DI rinką ir privertė ne vieną suabejoti, ar kartais jo iš šiltos specialisto kėdės neišvers gudrusis rašeiva-botas? Tiesa, dirbtinio intelekto baimė nėra naujiena. Tariamomis ar realiomis galimybėmis technologija gąsdina ne vieną dešimtmetį. Juk galime prisiminti 1968 metais režisieriaus Stenlio Kubriko sukurtą filmą „2001 m. kosminė odisėja“. Kūrinyje atsispindi menama ar potenciali protingų technologijų grėsmė žmogui.
Pokštai ar replikos apie dirbtinį intelektą tapo įprasta šiuolaikinės kalbos dalimi. Juokaujama, kad ateityje jo tobulėjimo kreivė ims augti geometrine progresija ir galiausiai žmogaus sukurtas įrankis sunaikins savąjį autorių... Kita vertus, dalis informacinių technologijų sektoriaus atstovų teigia, kad tokie juokai nėra būdingi DI specialistams.
O „ChatGPT“ nesnaudžia. Bendravimo botas ėmėsi naujų profesinių iššūkių ir pasuko dar vienu keliu... Programa konsultuoja dėl įvairių ligų gydymo. Ir tik balto chalato tetrūksta. Matyt, neatsitiktinai: juk vis daugiau žmonių svarsto, kad galbūt „ChatGPT“ gali padėti geriau suprasti žmogaus sveikatą ir, pavyzdžiui, simptomų priežastis.
Kaip rašo „Forbes“, „ChatGPT“ gali būti panaudojamas skirtingose medicinos sektoriaus srityse. Naująją technologiją galima pasitelkti klinikinėje diagnostikoje, įvairių ligų statistikos stebėsenoje, kaupiant medicininius įrašus, vertinant tekstus, pacientų simptomus ir kt. Tikėtina, kad šiuo metu dalis specialistų tiesiog įsitraukė į eksperimentavimo džiaugsmą. Kita vertus, Long Ailando universiteto mokslininkai nesižavi visomis „ChatGPT“ galimybėmis...
Ką išsiaiškino mokslininkai?
Tyrimo autoriai „ChatGPT“ uždavė trisdešimt devynis medicinos srities klausimus. Paaiškėjo liūdni rezultatai: DI programėlei teisingai pavyko atsakyti vos į dešimt jų. Deja, bet žavingoji programa į daug klausimų pateikė arba nepilnus, arba klaidingus atsakymus. Botas net gi pateikė atsakymus, kurie galimai kelia pavojų asmens sveikatai ar gyvybei. Pavyzdžiui, „ChatGPT“ klaidingai atsakė, kad antivirusinis vaistas „Paxlovid“ (skirtas COVID-19 gydyti) gali būti vartojamas kartu su kalcio kanalų blokatoriumi veropamiliu, veikiančiu širdį ir kraujagysles. Dėl šių dviejų vaistų vartojimo kartu asmeniui gali ženkliai nukristi arterinis kraujo spaudimas, todėl gali atsirasti svaigulys bei alpimas.
Viena tyrimo autorių Sara Grossman negaili kritikos „ChatGPT“. Atliktas tyrimas dar kartą patvirtino, kad DI programėlei nesiseka referuoti šaltinius. Nevyniojant į vatą – programėlei sekasi „referuoti“ netikrus šaltinius. Atsakymuose pateiktos nuorodos iš pirmo žvilgsnio atrodė suformuluotos profesionaliai ir bylojo patikimų mokslinių žurnalų pavadinimus. Tačiau analizės autoriai ėmė tikrinti „ChatGPT“ atsakymuose referuojamus šaltinius ir išsiaiškino, kad botas tiesiog... išsigalvoja.
Programėlė sugebėjo atrasti atsakymus į klausimus, kurių negalėjo įveikti net tyrimo autorių komanda, tačiau vėliau paaiškėjo, kad nė viena iš atsakyme cituotų medicinos organizacijų net nėra pateikusi oficialaus vertinimo dėl nagrinėto diagnostinio klausimo. Pasak S.Grossman, jeigu šiuo „ChatGTP“ atsakymu nekritiškai pasikliautų medicinos personalo darbuotojai, pacientui dėl neadekvačiai taikytos vaisto dozės galimai prasidėtų haliucinacijos ir traukuliai.
„Atsakymai buvo suformuluoti itin profesionaliu ir sofistikuotu būdu. Atrodė, kad tai gali prisidėti prie šio įrankinio patikimumo įspūdžio sukūrimo“, – CNN teigė S.Grossman, kurią (ne iš gerosios pusės) stebina „ChatGPT“ pasitikėjimas savimi...Specialistė nuogąstauja, kad dalis vartotojų gali pasikliauti programėle dėl jos gebėjimo kurti gražią formą, tačiau ne pagrįstą turinį. Žmonės gali pasitelkti „ChatGPT“, siekdami surasti reikiamus atsakymus į kylančias sveikatos bėdas, todėl programėlė gali tapti tiesiog dar vienu „Google“ pakaitalu. Specialistė ragina naudotis patikimais oficialios medicinos siūlomais šaltiniais.
CNN publikuoto straipsnio autorius Giri Viswanathanas priduria, kad „ChatGPT“ ne pirmą kartą sulaukia rimtos kritikos dėl naudojamų šaltinių fabrikavimo: štai, rugsėjo mėnesį žurnale „Mayo Clinic Proceedings: Digital Health“ publikuoto tyrimo rezultatai parodė, kad iš 59 „ChatGPT“ panaudotų nuorodų net 41 (69 proc.) buvo sufabrikuotos.
lsveikata.lt „Facebook“. Būkime draugai!
Komentuoti: