当前位置: 华文头条 > 健康

医疗大模型MedGPT提供诊疗决策服务遇到的技术瓶颈

2023-12-07健康

【微软全球资深副总裁、微软研究院负责人 Peter Lee: GPT-4 是否真的会给医疗健康领域带来新的不同还需要检验。因为我们曾经也对计算机技术帮助医疗健康领域或促进医学进步持乐观态度,但却一次次失望。这些挑战可能源于过度乐观。】

外地患者来京看病,多数是知道自己得了什么疾病的,来京的目的是找专家看病获得个体化诊疗方案,然后多数患者又回到当地医院进行治疗了。对于99.99%的常见病(癌症、糖尿病、心脑血管疾病、肝胆病、...),诊断其实并不是医生面临的困难问题(那是工程师的难题),而为特定患者用户制定个体化的诊疗方案才是真正的难题。

医疗大模型MedGPT的发展进入到模逐鹿的时代,使用医疗大模型的医患诊疗用户最大的需求是能够获得有关个体化诊疗方案方面的建议。目前,医疗大模型仅仅能提供科普知识水平(know-what, know-why, know-how, know-who, know-when, know-where)的诊疗方案建议,还没有一种医疗大模型能够提供专家智慧水平的个体化择优(know-which)的诊疗方案建议。

医疗大模型善于分析疾病发展相关性因素进行推测,而不是根据疾病发生发展的因果关系进行逻辑推理,为用户提供个体化诊疗方案已成为医疗大模型发展遇到的「瓶颈」。在医学实际应用中,诊断和治疗过程都发生在不稳定的环境中,这就导致在机器学习的环境中涉及很多混杂因素。可从三个方面分析造成这些「瓶颈」的原因:

(一)临床推理的大前提「医学知识」存在不足

1、知识不全面:机器学习的医学知识都是显性知识,而临床专家做决策经常用到的隐性知识或经验性知识难以获取。

2、知识更新缓慢:临床诊疗新知识从产生到见于专著或论著,都需要几年时间。而医学知识来源越丰富、时间越久远,知识老化就越快。

3、知识自身缺陷:制定医疗规范、指南的专家,并未曾想到人工智能数字化转化的要求,在规范、指南中的一些逻辑表达并不准确或不清楚。

4、案例价值有限:机器学习的临床案例,往往假设其诊疗是正确的、记录是准确的、方法是先进的,很难辨认病历记录是否隐瞒真实医疗过程、过度医疗或医疗差错。

5、诊疗技术发展快:针对同一种疾病,往往存在多种诊疗方法或方案,优略判断标准不确定,随时间发展而变。

(二)临床推理的小前提「患者数据」获取不全

针对稍微复杂的疾病,「癌症、糖尿病、心脑血管疾病、肝胆病、...」,患者的个体化病情变化多种多样,患者数据涉及病史、症状、体征、化验、影像、病理、治疗后病情变化等。对于不同患者用户,患者情境的数据难以充分获取。

(三)临床推理结果的可靠性与价值有限

临床执业医师(执业人)提供诊疗方案具有合规性而不是「必须」的准确性。对于临床决策,行业监管指标是符合管理规则。但是对AI机器推理推测难以监管,缺乏明确的监管判断指标。

在临床诊断、治疗及预后推理过程中,临床医生经常用到逻辑思维、辩证思维和批判性思维,做出恰当的推理。医疗大模型虽然有独特的算法,如何在把推理结果展示给用户之前,对自身做出的结论进行辩证的分析纠错,自我质疑反思,以让用户放心呢?

医疗大模型提供的诊疗建议虽然具有科学性,但目前还不具有合规性,仅仅具有科普性,那么应用价值这样有限的医疗大模型,其商业模式缺乏想象空间。

基于上述原因,医疗大模型提供个体化多方案择优的诊疗方案建议,要想短期突破瓶颈还面临巨大挑战,还需要AI工程师与临床医生联合做深入的研究。

(原创,王悦华 首都医科大学宣武医院)