据外媒Today报道,一位母亲考特尼病急乱投医,向ChatGPT分享了儿子亚历克斯症状的有关信息后,意外之喜出现了——ChatGPT精准地发现孩子可能罹患脊髓栓系综合征。
而在这之前,考特尼已经带着亚历克斯四处求医三年,陆续问诊了17名医生,他们分别来自牙科、儿科、耳鼻喉、成人内科、肌肉骨骼等各个科室,却始终查不出孩子的病因。
亚历克斯。图源:today.com
事情要从2020年新冠疫情封锁期间说起,当时4岁的亚历克斯收到了母亲送的跳跳屋玩具,谁也没有想到这会开启他三年饱受病痛折磨的日子。
起初,亚历克斯只是不停地磨牙,而后考特尼又逐渐发现孩子的发育速度明显减缓,甚至出现左右脚不平衡的情况——“他会先用右脚向前走,然后拖着左脚往前。”
与此同时,亚历克斯还开始遭受愈发严重的头痛,这让亚历克斯每天不得不以服用布洛芬为生。
“我们看了这么多的医生,一度长时间待在急诊室里。我一直在努力。我几乎(在电脑上)浏览了一整夜,经历了这所有事情。”当ChatGPT给出诊断意见后,这位母亲接受媒体采访时的感动、喜悦溢于言表。
原来,在许多脊柱裂患儿中,孩子的背部都有一个可见的开口。然而,亚历克斯所患的却是隐匿性脊柱裂,封闭而难以发现。这也是为什么之前的17位医生,无一人发现。
报道一出,网友们便开始纷纷热议,大部分网友喜闻乐见大模型在医疗领域的这种应用:”无法负担医疗费用和在贫困国家的人们将会大大受益于此。”
图源:X(推特)
更有网友补充道,意义不止于此——这对罕见病、疑难杂症很有帮助。
图源:X(推特)
当然,一些网友谨慎的质疑也不无道理:“如果没有人类专家的交叉确认,我们要如何确定ChatGPT的诊断是正确的?”
图源:X(推特)
不过,用大模型看病早已不是什么个例。今年以来,大语言模型的概念持续走高,国内外科技巨头们也纷纷将大模型运用于“AI+医疗”之中。
“百模大战”之下,医疗大模型也正热闹。
科技巨头涌入医疗大模型
这无疑是振奋人心的消息。此前的“AI+医疗”大多落地在医疗影像领域,但随着大语言模型的技术突破,临床中产生的巨量繁杂的医疗数据也有了用武之地。ChatGPT等大模型拥有更全面的知识体系,可以帮助发现许多人类医生忽略的细节。
据不完全统计,国内外如谷歌、英伟达、亚马逊、腾讯、百度、京东等科技巨头,都已经率先开始了医疗大模型的布局。
据悉,今年4月以来,谷歌就已经开始在美国一些顶尖私立医院实测其第二代医疗大模型——Med-PaLM 2。该模型由DeepMind的医疗健康团队,基于PaLM 2微调得来,使用者可以直接输入一张X光片,Med-PaLM 2就会对患者的病情进行诊断和分析。
图源:Google Research
与此同时,该模型也成为了在美国医疗执照考试中达到专家水平的首个大模型。根据一份内部邮件,谷歌认为Med-PaLM 2在“就医渠道较为有限”的国家尤其有用。
谷歌官网介绍,在一组对照实验中,Med-PaLM 2的答案甚至在九项指标中的八项都要优于医生给出的答案。
图源:Google Research
另外,英伟达早在2021年就开始与Schrodinger战略合作,试图提升其计算平台的速度和精确度,加速开发新的治疗方法。2个月前,英伟达又投资5000万美元,推进生物和化学领域AI基础模型的开发训练。
放眼国内,医疗大模型的商业化探索也正如火如荼地展开。
9月8日,腾讯健康对外公布了其医疗大模型,产品矩阵包括智能问答、家庭医生助手、数智医疗影像平台等多个应用场景 AI 产品矩阵。而早在2020年7月,腾讯自主研发的首个AI驱动的药物发现平台云深智药(iDrug)就正式对外发布。
图源:腾讯AI Lab-iDrug
今年7月,科大讯飞、京东等公司也动作频频。科大讯飞表示,“讯飞医疗”基于星火认知大模型,全面升级了医疗诊后康复管理平台,要将“专业的诊后管理和康复指导延伸到院外”。
京东健康也于7月13日,对外发布了“京医千询”医疗大模型,为远程医疗服务提供技术底座。
纵观各家企业的医疗大模型布局,我们也不难发现,大模型已经深入了医疗领域的各个角落,除了AI问诊,大模型在医疗影像、临床决策辅助、医院管理、药物研发等不同应用场景还有“一百种可能”。
大模型的出现,似乎也成为了某些“AI+医疗”应用场景的救命稻草。
当国内AI制药融资金额在2022年腰斩,财报开始露出难色时,ChatGPT为代表的大模型,似乎又给这个行业带来了新的躁动,智能涌现此前也对AI制药有过分析。
AI幻觉、数据隐私,还是老大难
一面是头部公司积极布局,开始商业化探索;但另一面,以世界卫生组织为代表的许多社会组织和个人,也在积极呼吁,对AI医疗服务采取”非常谨慎”的态度。
今年5月,世界卫生组织就在声明中强调:“仓促采用未经检验的AI系统可能会导致医务人员的错误,对患者造成伤害,损害人们对人工智能的信任,进而可能影响(或延迟)AI技术在全球的长期惠益何应用。”
图源:世卫组织
对于大模型在医疗领域的质疑,首先是可靠性的问题。任何医疗行为都直接关乎于人的生命安全,因此必须确保AI所提供的信息是准确且安全的,容错率更低。
然而,截止目前,AI显然做不到这一点。在与ChatGPT等大模型交流时,AI幻觉仍然时有发生。例如,在向ChatGPT提问有关流感的问题时,它可能会给出几篇标题听起来真实,但实际并不存在的论文。
这显然是不可接受的。毕竟,谁也不想过去的“网上问病,癌症起步”再次上演。尽管ChatGPT等大模型拥有巨量的知识,可能不像人类医生一样存在盲点,但目前来看,大模型也只能成为医生和临床诊断的助手,而不是替代医生。
美国医学协会主席杰西·埃伦菲尔德在回应媒体采访时,就强调说:“正如我们要求证明新药和生物制剂是安全有效的一样,我们也必须确保AI医疗保健应用的安全性和有效性。”
除此之外,由于医疗信息自身的敏感性,数据安全与隐私这个老问题,医疗大模型依然逃不开。
有别于通用大模型基于海量互联网来训练的方式,医疗大模型所需的数据大多是私有且涉及个人隐私的。
要想保障训练数据安全,目前主要的应对方法是通过技术手段进行加密处理,将医疗数据加密处理后上传大模型,再将结果解密传回。
但这也有个问题,就是如果管理规范不完善,也可能导致加密数据被非法使用或泄露。