Dar prieš kelerius metus dėl sveikatos sunerimusiam žmogui kelias buvo vienas – skambinti į polikliniką ir laukti vizito. Šiandien vis daugiau žmonių dėl negalavimų tariasi su „ChatGPT“ ar kitu pokalbių robotu, kuris atsako per kelias sekundes, kalba suprantamai, neprašo siuntimo ir „priima“ bet kuriuo paros metu. „Nepaisant viso triukšmo, dirbtinis intelektas nėra pasiruošęs perimti gydytojo vaidmens“, – konstatuoja mokslininkai ir perspėja šiuo patarėju aklai nepasikliauti.
„OpenAI“ duomenimis, kasdien daugiau nei 40 mln. žmonių „ChatGPT“ užduoda klausimus apie sveikatą, o JAV, sveikatos politikos tyrimų organizacijos KFF duomenimis, kas šeštas suaugusysis tai daro reguliariai.
Pasitikėjimas auga
Niujorke gyvenanti verslininkė Bethany Crystal prabudusi pastebėjo raudonas dėmes ant kojų ir, užuot skambinusi gydytojui, pasikonsultavo su „ChatGPT“. Pokalbių robotas nedelsdamas liepė moteriai vykti į priimamąjį, mat gali grėsti vidinis kraujavimas. Po trijų sunkių dienų amerikietei nustatyta reta autoimuninė liga, naikinanti trombocitus.
„Jei ne dirbtinis intelektas, į ligoninę nebūčiau spėjusi laiku“, – amerikiečių visuomeniniam radijui pasakojo B.Crystal.
Tokių istorijų žiniasklaidoje daugėja. Tendenciją, kad sveikata susirūpinę žmonės pagalbos kreipiasi į DI, patvirtina ir skaičiai: „OpenAI“ duomenimis, kasdien daugiau nei 40 mln. žmonių „ChatGPT“ užduoda klausimus apie sveikatą, o JAV, sveikatos politikos tyrimų organizacijos KFF duomenimis, kas šeštas suaugusysis tai daro reguliariai.
Jaunimas kreipiasi dar dažniau. Pirmasis tokio masto JAV tyrimas, paskelbtas medicinos žurnale „JAMA Network Open“, atskleidė, kad kas aštuntas paauglys ir jaunas suaugusysis prašo DI pagalbos psichikos sveikatos klausimais. Tarp 18-21 metų amžiaus jaunimo tai daro kas penktas, du trečdaliai kreipiasi bent kartą per mėnesį, o daugiau nei 93 proc. sako, kad patarimai jiems padėjo.
Tyrėjai mano, kad priežastys paprastos ir žmogiškos – pokalbių robotas pasiekiamas visą parą, už konsultaciją mokėti nereikia, eilėje laukti – taip pat, o pokalbis atrodo saugus, nes niekas apie jį nesužinos ir neteis.
Kodėl pokalbių robotais taip lengva patikėti, dienraščiui „Yale News“ aiškino Yale universiteto profesorė Shaili Gupta, kurios pacientai vis dažniau ateina į kabinetą jau pasikonsultavę su DI. „Robotai mokomi kalbėti kaip žmonės – sako „aš“ ir „tu“, reaguoja užjaučiamai. Žmogui atrodo, kad tai – asmeninis, saugus pokalbis, po kurio jis pats nuspręs, ką daryti su gauta informacija“, – teigė profesorė. Tačiau, jos žodžiais, būtent tai ir kelia didžiausią pavojų – žmonės ima pasitikėti robotu taip, kaip pasitikėtų draugu ar gydytoju.
Modeliai „haliucinuoja“
Vasarį britų dienraštis „The Guardian“ ėmėsi tikrinti, kaip informaciją apie sveikatą pateikia „Google“ dirbtinis intelektas, ir rado spragų. Paieškoje virš įprastų rezultatų rodomos vadinamosios DI santraukos (
AI Overviews) iš pradžių atrodo patikimos ir išsamios, tačiau vartotojas neįspėjamas, kad jose gali būti klaidų. Pastaba „Tai tik informaciniais tikslais, dėl medicininių patarimų kreipkitės į specialistą“ atsiranda tik paspaudus mygtuką „Rodyti daugiau“ – ir slepiasi pačioje apačioje, parašyta smulkesniu šriftu.
„Kai žmogui pirmą kartą pateikiama medicininė informacija be jokio perspėjimo, kyla rimtų pavojų. Net patys pažangiausi DI modeliai vis dar „haliucinuoja“ – gali pateikti išgalvotą informaciją arba sakyti tai, ką žmogus nori išgirsti, o ne tai, kas yra tiesa“, – „The Guardian“ komentavo Masačusetso technologijos instituto mokslininkas Patas Pataranutapornas.
Dar anksčiau, sausį, tas pats „The Guardian“ buvo aptikęs konkrečių klaidų „Google“ DI santraukose: vienu atveju kasos vėžiu sergantiems žmonėms buvo patarta vengti riebaus maisto, nors iš tiesų rekomenduojama priešingai. Labdaros organizacijos „Pancreatic Cancer UK“ atstovė Anna Jewell tuomet perspėjo, kad paklausęs tokio patarimo žmogus gali taip nusilpti, kad nebeištvertų nei chemoterapijos, nei gyvybę gelbstinčios operacijos.
Kitais atvejais, kaip rašo dienraštis, DI klaidingai aiškino kepenų tyrimų rezultatus ir rekomendavo diagnostikos priemonę, skirtą visai kitai ligai.
„DI santraukos sukurtos greičiui, ne tikslumui“, – trumpai apibendrino Queen Mary Londono universiteto profesorė Gina Neff.
Neteisingai klausia
Klaidina ne tik „Google“ santraukos. Šį mėnesį Oksfordo universiteto mokslininkų paskelbtas tyrimas atskleidė, kad ir patys pokalbių robotai, tokie kaip „ChatGPT“, žmonėms padeda kur kas prasčiau nei tikimasi.
Tyrėjai beveik 1,3 tūkst. savanorių pateikė dešimt medicininių scenarijų ir paprašė nustatyti galimą sveikatos sutrikimą ir pasirinkti tinkamą veiksmų planą. Viena grupė naudojosi DI pokalbių robotais, kita galėjo rinktis bet kokį informacijos šaltinį – dauguma atsakymų ieškojo „Google“ paieškoje.
Rezultatai nustebino: kai robotai buvo testuojami atskirai, teisingą diagnozę jie nustatė beveik 95 proc. atvejų. Tačiau kai juos pasitelkė tikri žmonės, teisingų diagnozių liko vos trečdalis, o tinkamą veiksmų planą pasirinko maždaug 44 proc. dalyvių – rezultatas nesiskyrė nuo tų, kurie atsakymų ieškojo tiesiog internete.
Mokslininkai tokį atotrūkį aiškina tuo, kad žmonės dažnai nežino, kuriuos simptomus paminėti, pamiršta svarbius savo ligos istorijos faktus, kartais nesupranta DI atsakymų arba tiesiog jų nepaiso.
„Nepaisant viso triukšmo, DI nėra pasiruošęs perimti gydytojo vaidmens“, – teigė tyrimo autorė dr. Rebecca Payne iš Oksfordo. Jos kolega, Oksfordo interneto instituto profesorius Adamas Mahdi pridūrė, kad DI sistemos turi būti testuojamos taip pat griežtai kaip nauji vaistai – su tikrais žmonėmis, o ne vien standartizuotais egzaminais, kuriuos robotai jau seniai puikiai išlaiko.
Šiemet nepriklausoma JAV pacientų saugos organizacija netinkamą DI pokalbių robotų naudojimą sveikatos priežiūroje įvardijo kaip didžiausią metų sveikatos technologijų pavojų – pirmąjį kasmetiniame sąraše. Kaip rašoma ataskaitoje, organizacijos ekspertai fiksavo atvejus, kai pokalbių robotai klaidingai diagnozavo ligas, skyrė nereikalingus tyrimus ir net išgalvojo neegzistuojančias kūno dalis – visa tai pateikdami tokiu tonu, lyg kalbėtų patyręs gydytojas.
Profesorė Sh.Gupta dienraščiui „Yale News“ pasakojo ir apie savo pacientą: vyras, kuriam ėmė skaudėti krūtinę, kreipėsi ne į gydytoją, o į DI pokalbių robotą, ir po to buvo tvirtai įsitikinęs, kad serga širdies liga. Nors visi tyrimai rodė ką kita, perkalbėti pacientą gydytojams buvo labai sunku.
„Viena vertus, šios platformos žmonėms suteikia lengvai prieinamą sveikatos informaciją, ir tai puiku, – sakė Sh.Gupta. – Kita vertus, pacientai ateina su daugybe duomenų, tačiau patys juose pasimeta, o gydytojui dalį vizito tenka skirti tam, kad atskirtų tiesą nuo dezinformacijos.“
Anot Duke universiteto tyrėjos Monicos Agrawal, DI vertėtų naudoti kaip pirmąjį žingsnį, bet ne galutinį atsakymą – pavyzdžiui, įkelti straipsnį apie gydymo rekomendacijas ir klausti konkrečių dalykų, o ne prašyti roboto diagnozuoti ar skirti gydymą. „Pati tyrinėju, kur medicininis DI klysta, bet vis tiek juo naudojuosi“, – prisipažįsta tyrėja.
lsveikata.lt „Facebook“. Būkime draugai!