當前位置: 華文頭條 > 健康

醫療大模型MedGPT提供診療決策服務遇到的技術瓶頸

2023-12-07健康

【微軟全球資深副總裁、微軟研究院負責人 Peter Lee: GPT-4 是否真的會給醫療健康領域帶來新的不同還需要檢驗。因為我們曾經也對電腦技術幫助醫療健康領域或促進醫學進步持樂觀態度,但卻一次次失望。這些挑戰可能源於過度樂觀。】

外地患者來京看病,多數是知道自己得了什麽疾病的,來京的目的是找專家看病獲得個體化診療方案,然後多數患者又回到當地醫院進行治療了。對於99.99%的常見病(癌癥、糖尿病、心腦血管疾病、肝膽病、...),診斷其實並不是醫生面臨的困難問題(那是工程師的難題),而為特定患者使用者制定個體化的診療方案才是真正的難題。

醫療大模型MedGPT的發展進入到模逐鹿的時代,使用醫療大模型的醫患診療使用者最大的需求是能夠獲得有關個體化診療方案方面的建議。目前,醫療大模型僅僅能提供科普知識水平(know-what, know-why, know-how, know-who, know-when, know-where)的診療方案建議,還沒有一種醫療大模型能夠提供專家智慧水平的個體化擇優(know-which)的診療方案建議。

醫療大模型善於分析疾病發展相關性因素進行推測,而不是根據疾病發生發展的因果關系進行邏輯推理,為使用者提供個體化診療方案已成為醫療大模型發展遇到的「瓶頸」。在醫學實際套用中,診斷和治療過程都發生在不穩定的環境中,這就導致在機器學習的環境中涉及很多混雜因素。可從三個方面分析造成這些「瓶頸」的原因:

(一)臨床推理的大前提「醫學知識」存在不足

1、知識不全面:機器學習的醫學知識都是顯性知識,而臨床專家做決策經常用到的隱性知識或經驗性知識難以獲取。

2、知識更新緩慢:臨床診療新知識從產生到見於專著或論著,都需要幾年時間。而醫學知識來源越豐富、時間越久遠,知識老化就越快。

3、知識自身缺陷:制定醫療規範、指南的專家,並未曾想到人工智慧數位化轉化的要求,在規範、指南中的一些邏輯表達並不準確或不清楚。

4、案例價值有限:機器學習的臨床案例,往往假設其診療是正確的、記錄是準確的、方法是先進的,很難辨認病歷記錄是否隱瞞真實醫療過程、過度醫療或醫療差錯。

5、診療技術發展快:針對同一種疾病,往往存在多種診療方法或方案,優略判斷標準不確定,隨時間發展而變。

(二)臨床推理的小前提「患者數據」獲取不全

針對稍微復雜的疾病,「癌癥、糖尿病、心腦血管疾病、肝膽病、...」,患者的個體化病情變化多種多樣,患者數據涉及病史、癥狀、體征、化驗、影像、病理、治療後病情變化等。對於不同患者使用者,患者情境的數據難以充分獲取。

(三)臨床推理結果的可靠性與價值有限

臨床執業醫師(執業人)提供診療方案具有合規性而不是「必須」的準確性。對於臨床決策,行業監管指標是符合管理規則。但是對AI機器推理推測難以監管,缺乏明確的監管判斷指標。

在臨床診斷、治療及預後推理過程中,臨床醫生經常用到邏輯思維、辯證思維和批判性思維,做出恰當的推理。醫療大模型雖然有獨特的演算法,如何在把推理結果展示給使用者之前,對自身做出的結論進行辯證的分析糾錯,自我質疑反思,以讓使用者放心呢?

醫療大模型提供的診療建議雖然具有科學性,但目前還不具有合規性,僅僅具有科普性,那麽套用價值這樣有限的醫療大模型,其商業模式缺乏想象空間。

基於上述原因,醫療大模型提供個體化多方案擇優的診療方案建議,要想短期突破瓶頸還面臨巨大挑戰,還需要AI工程師與臨床醫生聯合做深入的研究。

(原創,王悅華 首都醫科大學宣武醫院)