Chatboti jako ChatGPT poskytují lékařskou pomoc na vyžádání. A není ani tak dobrá. Vědci proto varují před používáním umělé inteligence pro diagnózy. ChatGPT to vidí podobně.
Nevysvětlitelné svírání v žaludku, přetrvávající kašel nebo podivná skvrna na nehtu: skutečnost, že lidé zpochybňují Google na širokou škálu příznaků, není nový fenomén. Zdá se, že s chatboty založenými na umělé inteligenci, jako je ChatGPT, možnosti digitální autodiagnostiky nadále rostly.
Jak ukazuje studie v odborném časopise Nature Medicine, na lékařskou kompetenci takové umělé inteligence se stále nahlíží s velkými výhradami. Ve skutečnosti nejsou diagnostiky AI zdaleka bezchybné. Lékařští stážisté by to měli také vzít v úvahu, jak je uvedeno v aktuální publikaci v časopise „Plos One“.
Spolehlivost, srozumitelnost a empatie
Zapojení vědci zkoumali reakce lidí na lékařské rady generované AI. „Nezajímala nás technická způsobilost AI, ale spíše otázka, jak je výstup AI vnímán,“ říká Moritz Reis z Univerzity Julia Maximiliana ve Würzburgu.
Za tímto účelem výzkumný tým rozdělil více než 2 000 testovaných subjektů do tří skupin, které dostávaly identické lékařské rady. První skupině bylo řečeno, že doporučení pochází od lékaře. Ve druhé skupině se jako původce jmenoval chatbot založený na AI a třetí skupina předpokládala, že rada přišla od chatbota, ale zkontroloval jí lékař.
Testované osoby hodnotily doporučení z hlediska spolehlivosti, srozumitelnosti a empatie. Jakmile měli podezření, že se zapojila AI, vnímali radu jako méně empatickou a spolehlivou.
To platilo také pro skupinu, která věřila, že lékař přezkoumal doporučení AI. V důsledku toho se stali méně ochotni se těmito doporučeními řídit. „Účinek zaujatosti vůči AI není obrovský, ale je statisticky významný,“ komentuje Reis.
Vysvětlení pro AI skepticismus
Kognitivní psycholog částečně vysvětluje skepsi k AI stereotypy: ,,Mnoho lidí věří, že stroj nemůže být empatický, pokud jde o srozumitelnost, všechny tři skupiny hodnotily rady stejně.“
Zjištěný skepticismus AI je pro výzkumnou skupinu důležitý, protože AI hraje v medicíně stále důležitější roli. V současné době se publikují četné studie o nových aplikacích umělé inteligence. O to důležitější je přijetí veřejnosti, říká Reis: „Otázka budoucího využití umělé inteligence v medicíně není jen o tom, co je technicky možné, ale také o tom, jak daleko pacienti zajdou. A to zejména co se týče vzdělávání o relevantních aplikacích a obecně nezbytné umělé inteligenci.
„Další studie navíc ukázaly, jak je pro důvěru pacientů důležité, že konečnou rozhodovací vlastní pravomoc má nakonec vždy lidský lékař společně s pacientem,“ zdůrazňuje Reis.
Transparentnost jako klíčový faktor
Vědec se domnívá, že transparentnost je obzvláště důležitá: ,,To například znamená, že AI nejen stanoví diagnózu, ale také srozumitelným způsobem vysvětluje, jaké informace vedly k tomuto výsledku.“
Kvalita těchto výsledků se vědecky zkoumá již dlouhou dobu – s různou mírou úspěšnosti. Například studie publikovaná v „Journal of Medical Internet Research“ v roce 2023 potvrdila, že ChatGPT měl vysokou úroveň diagnostické přesnosti: testovaný pomocí 36 případových studií, chatbot stanovil správnou konečnou diagnózu v téměř 77 % případů.
Podle nizozemské studie se diagnostické schopnosti na pohotovostech dokonce přiblížily lékařům. ChatGPT, vyzbrojený anonymizovanými údaji od 30 pacientů léčených v nizozemském centru první pomoci, stanovil správnou diagnózu v 97 % případů. Říká to studie, která se publikovala v „Annals of Emergency Medicine“.
Naproti tomu autoři studie publikované v odborném časopise „Jama“ v roce 2023 zjistili, že chatbot správně diagnostikoval pouze 27 případů ze 70 lékařských případových studií. To je jen 39 %. Studie prezentovaná v časopise Jama Pediatrics dospěla k závěru, že tato míra úspěšnosti se stala ještě horší u nemocí, které primárně postihují děti.
ChatGPT v lékařském vzdělávání
Autoři současné studie „Plos-One“ zkoumali, zda by ChatGPT mohl být užitečný v lékařském výcviku. V konečném důsledku chatbot nejen čerpá z obrovské znalostní základny. Ovšem tyto znalosti zprostředkuje interaktivním a srozumitelným způsobem, píše výzkumný tým z kanadského London Health Sciences Centre.
Skupina krmila ChatGPT 150 takzvanými případovými výzvami z databáze lékařských anamnéz popisujících symptomy a progresi onemocnění. Budoucí i současní lékaři se požádali, aby provedli diagnózu a vypracovali plán léčby pomocí postupu výběru odpovědi.
V tomto testu byl ChatGPT správný v téměř polovině případů (74 ze 150). Studie zjistila, že ChatGPT měl potíže s interpretací laboratorních hodnot a zobrazovacích testů a chyběly důležité informace.
V souladu s tím autoři usuzují, že ChatGPT ve své současné podobě není jako diagnostický nástroj přesný. A při používání chatbota jako diagnostického nástroje i jako učební pomůcky je nutná opatrnost.
„Kombinace vysoké relevance a relativně nízké přesnosti argumentuje proti spoléhání se na ChatGPT pro lékařskou radu, protože může představovat důležité informace, které se mohou jevit jako zavádějící,“ uvádí studie. Je to varování, které se s největší pravděpodobností týká i lékařských laiků, kteří používají chatbota pro digitální autodiagnostiku.
Vlastní hodnocení ChatGPT
ChatGPT sám zdůrazňuje, že se k tomu nehodí. Na otázku o jeho diagnostické kvalifikaci robot odpoví: ,,Nejsem lékař a nemám žádné lékařské vzdělání. Mohu poskytovat informace o lékařských tématech, poskytovat obecné rady a odpovídat na otázky, ale nemohu provádět lékařské diagnózy ani poskytovat odbornou lékařskou pomoc. Máte-li jakékoli zdravotní problémy nebo dotazy, měli byste se vždy poradit s lékařem nebo kvalifikovaným poskytovatelem zdravotní péče.“
Zdroj: spiegel, TowPoint