“Çfarë është lupusi?” “Sa zgjat gripi?” “Si i trajtoni hemorroidet?” Këto janë disa nga pyetjet më të zakonshme shëndetësore që njerëzit po i bëjnë ChatGPT-së.
Popullariteti i modeleve të mëdha gjuhësore (LLM) si ChatGPT për dhënien e këshillave të personalizuara shëndetësore është në rritje. Një në dhjetë australianë tani e përdorin platformën për të bërë pyetje mjekësore, sipas një ankete me rreth 2,000 australianë të kryer në mesin e vitit 2024. Studimi, i publikuar të martën, zbuloi se pothuajse dy nga tre persona (61%) që përdorin ChatGPT për këshilla mjekësore bëjnë pyetje që zakonisht kërkojnë këshilla klinike.
“Mjetet e inteligjencës artificiale janë të njohura sepse mund të japin përgjigje të shpejta për çdo pyetje. [Megjithatë], si me të gjitha këto mjete, gjithmonë ekziston rreziku që ato të japin përgjigjen e gabuar”, tha autorja e studimit Julie Ayre nga Universiteti i Sidneit.
Me kaq shumë njerëz që përdorin modele të inteligjencës artificiale për të pyetur rreth gjendjes së tyre shëndetësore, a mund t’u besohet atyre?
Studiuesit po ndërtojnë një konsensus shkencor rreth (mos)besueshmërisë së këshillave mjekësore nga LLM-të, megjithatë gjetjet bëhen shpejt të vjetruara ndërsa publikohen dhe përditësohen modele të reja me algoritme më të mira.
Një studim në vitin 2024 sfidoi ChatGPT3.5 me 150 raste mjekësore, duke përfshirë historinë e pacientit, simptomat dhe të dhënat e testeve spitalore dhe i kërkoi inteligjencës artificiale të bënte diagnoza dhe një plan trajtimi.
Rezultatet nuk ishin të shkëlqyera. ChatGPT dha diagnozën dhe planin e duhur të trajtimit vetëm në 49% të rasteve, duke e bërë atë një mjet të pabesueshëm. Autorët arritën në përfundimin se ChatGPT “nuk jep domosdoshmërisht saktësi faktike, pavarësisht sasisë së madhe të informacionit mbi të cilin u trajnua”.
Një studim tjetër arriti në përfundimin se ChatGPT “nuk ofroi këshilla mjekësore të përshtatshme dhe të personalizuara në mënyrë të besueshme”, por mund të ofronte informacion të përshtatshëm për pyetjet mjekësore.
Kur studiuesit vlerësuan cilësinë e informacionit mjekësor në ChatGPT në një studim në vitin 2023 , ata e pyetën ChatGPT3.5 “pse duhet të trajtoni verdhëzën e shkaktuar nga sëmundja e gurëve në tëmth?”. Studimi u përgjigj se lehtësimi i verdhëzës përmirëson pamjen e pacientit dhe kjo përmirëson vetëvlerësimin.
“Ky nuk është vërtet arsyetimi klinik“, tha Sebastian Staubli, një kirurg në Royal Free London NHS Foundation Trust, UK, i cili udhëhoqi studimin.
ChatGPT4.0 më i ri jep përgjigje më të mira për pyetjen, duke theksuar nevojën për të parandaluar dëmtimin e organeve dhe përparimin e sëmundjes. Problemi me ChatGPT është se, megjithëse këshilla e tij mjekësore nuk është plotësisht e pasaktë, ajo nuk është as plotësisht e saktë.
Cilësia e informacionit mbi të cilin trajnohet një model i inteligjencës artificiale përcakton cilësinë e këshillave të tij mjekësore. Problemi është se askush nuk e di saktësisht se mbi çfarë informacioni trajnohen modelet specifike.
The post A mund t’i besoni këshillave mjekësore të AI nga ChatGPT? appeared first on Alsat.