AI医疗:实际应用效果究竟几何?

Ai项目交流群,Ai账号交易充值,Ai软件分享,Ai网站导航,Ai工具大全等
复制公众号
今天,你“AI医”了吗?
在科技浪潮奔涌向前的当下,我们的生活与工作正以前所未有的速度与深度,与人工智能(AI)等数智技术紧密交织。技术恰似一个不知疲倦的成长者,每日都在“进阶”。从“数智+消费”“数智+文旅”到“数智+体育”,从自动驾驶的便捷出行、智能制造的高效生产到智慧城市的精细管理,数智技术如同一把万能钥匙,加速融入千行百业,不断解锁新的应用场景,持续重塑着人类的生产生活方式。
为探寻数智技术在各个领域的无限可能,本版今起特别开设“解码数智+”栏目,诚邀读者一同走进不断涌现的数智技术应用新场景,见证科技带来的奇妙变革。
AI:医疗领域的“多面手”初显锋芒
在医疗这片关乎生命与健康的领域,人工智能(AI)技术的应用场景正日益丰富多元。在人工智能大模型掀起的热潮中,“生病问AI”成为大众关注的焦点。当患者手持AI生成的诊疗建议走进诊室,当AI的“意见”偶尔挑战医生的判断时,一系列问题如潮水般涌来:AI医疗靠谱吗?它会替代医生吗?在享受效率提升的同时,患者和医生又该如何规避潜在风险?
患者问诊:AI成贴心“小助手”
打开北京清华长庚医院微信小程序里的“AI肝胆医院”,记者在对话框中输入“右上腹不适”。刹那间,AI便与记者展开了一场“对话”:“您的症状是持续性的还是间歇性的”“是否伴随发热或恶心呕吐”……在一连串问题的引导下,AI迅速给出了前往肝胆内科诊疗的建议。
“清华长庚医院正在全力开发肝病全周期管理大模型,目前初步版本已在医院微信小程序上线。它能够基于患者的症状进行预问诊,并给出精准的分诊建议。”清华大学北京清华长庚医院肝胆内科主任医师杨明介绍道,这套AI系统会综合患者的症状和化验检查结果,给出分诊建议,且准确率颇高。
采访中,不少医生反映,如今患者拿着AI诊疗建议前来就诊的情况愈发常见。“有些患者会在看病前借助AI梳理思路,带着相对清晰的想法来看病。”北京大学人民医院胸外科副主任医师陈修远说道。患者利用AI大模型,依据自身病史和检验检查数据,获取初步的疾病解释和可能的诊疗方向。
“这相当于提前为患者进行了一次疾病科普,让他们对疾病有了初步的认识,从而更容易理解医生的专业判断和建议,使后续的沟通更加顺畅高效。”杨明补充道。
医生诊疗:AI成得力“好帮手”
患者问诊有AI助力,医生看病也离不开AI的“加持”。
多位医生在采访中表示,对于直径小于5毫米的结节,医生的检出率相对较低,而使用AI后,检出率显著提升。“非常好用。”北京大学人民医院放射科主任医师王屹给予了高度评价。
“如果把外科手术类比成开车,那么CT就如同一张精确的纸质地图,而有了AI三维重建,就相当于拥有了一幅更为精准直观的电子地图。”陈修远形象地比喻道。他口中的“AI三维重建”算法,已在北京大学人民医院部署多年。这套系统借助AI对肺部复杂结构进行更为精准的呈现,大大提高了解剖结构的准确识别率。
“这类系统的运用,能够帮助医生从繁重的影像初筛工作中解脱出来,将更多精力投入到结合影像结果进行更深入的综合分析、制定个性化的治疗方案以及处理更复杂的诊断问题上。”山东省公共卫生临床中心胸外二科副主任医师张运曾说道。
不只是医学影像领域,在手术规划方面,AI也展现出了令人意想不到的效果。
中国人民解放军总医院骨科医学部关节外科副主任医师李海峰以关节置换手术为例介绍:“过去,为防止假体型号不匹配,这类手术往往需要为每位患者准备全套不同型号的假体,这无疑造成了资源浪费。现在,AI可以通过分析患者的CT数据,结合海量既往手术数据模型,提前精准预测所需假体型号。”
信息“过载”:AI医疗背后的隐忧
AI在辅助医疗过程中展现出的效率和精度有目共睹,但它是否会取代医生呢?
采访中,尽管医生们普遍认可AI在辅助诊疗方面的价值,但对于AI或治疗建议,仍持谨慎态度。
“我只建议患者将AI问诊作为了解疾病的途径,不建议患者直接执行AI的建议。”北京中医药大学东方医院脾胃肝胆科主任医师李晓红说道。
对此,杨明解释:“目前AI问诊主要基于大模型,抓取的资料对其生成结果有较大影响。”
“这些内容虽然逻辑性强且体系完整,但是否适用于不同患者还需进一步判断。”王屹指出,如果患者对疾病了解不足,可能很难识别出其中的问题。
针对AI的医疗建议,不少专家表示,“过载”的信息反而会加重患者的焦虑。
李海峰说:“有时患者用AI生成的报告非常详尽,列出了所有可能出现的问题,导致他们带着困惑甚至恐慌来找医生求证。然而实际情况是,很多假设并不具有临床意义。”
“有些疾病是多因素叠加的系统性问题,仅仅依靠患者提供的症状描述,很难得出准确的诊断。”李晓红坦言,随着人们对AI的认识不断深入,大家逐渐意识到AI生成的内容需要经过真实性考量。
一张处方,不仅是对症下药的依据,背后更承载着医生的责任与担当。
“医生以专业知识作为诊疗的出发点,但面对每位患者时,需要结合其自身特点来调整治疗方案,在这方面AI可能有所欠缺。”杨明以肝病为例解释道,比如一位转氨酶升高的患者,有乙肝、脂肪肝病史,近期又有大量饮酒和服用他汀类药物史。“AI在诊疗时可能只会主动询问其过往病史,基于其患乙肝的信息,给出‘需要服用抗病毒药物’的建议,但会遗漏患者未主动提供的关键细节,如饮酒和药物史,因此给出的建议容易失之偏颇。”
“在影像领域,虽然AI已经被广泛运用,但在目前的筛查技术条件下,仅依靠AI可能漏掉一些非常早期的、形态不典型的病灶。”张运曾表示,如果没有结合用药史、既往影像对比等多维度信息进行综合判断,很可能导致误诊。
“大模型可以解放手脚,但不能替代大脑。”李晓红认为,医疗决策依赖于复杂的临床判断和丰富经验,尤其是面对不典型病例或多病共存的情况,经验丰富的医生能够捕捉到细微症状和体征,这是AI目前难以企及的。
“医生不仅仅是疾病的治疗者,更是患者的心理支持者。”张运曾直言,“AI很难为患者提供心理支撑,而医学是有温度的,这种温度是通过医生来传递的。”
规范发展:让AI医疗“懂规矩”“更透明”
需要警惕的是,AI大模型在生成内容时会出现“AI幻觉”,即编造信息的现象。
“临床使用中,AI偶尔会犯一些让人啼笑皆非的错误。”南京航空航天大学人工智能学院院长张道强举例说,临床影像学的变化极为复杂,有时看到的可能是无诊断价值的“干扰信号”,而AI却可能将其判断为病变,“还有一些用户在使用AI协助生成内容时,发现它存在杜撰医学名词出处、虚构参考文献等情况。”
针对这种信息编造问题,张道强认为,应从算法和数据两方面着手改进。“医疗领域十分特殊,必须严格控制失误,这要求我们在大模型研发初期必须严格把控数据的唯一性和准确性。再拿算法来说,提升AI的抗干扰性与可靠性是重要课题。当AI从实验室走进真实环境中,怎样提高系统在真实环境下的识别精度与可靠性?任何信息变化,都可能造成细微的偏差。”张道强说道。
可解释性也是AI医疗的重要发展方向。南京航空航天大学人工智能学院教授秦杰解释:“AI的决策过程更像是一个‘黑箱子’,患者可能无法判断结果是如何得出的。因此,应当解释决策得出的路径,从而帮助人们更好地作出判断。让AI本身更‘懂规矩’、更‘透明’,是我们的思考方向。”
对于数据样本而言,样本的规模和质量都会对AI生成的结果产生很大影响。“如何将医生的经验与数据驱动的大模型更好结合?如何让顶尖医生的经验在AI上复现?这些都是我们需要研究的。”秦杰说,从模型的任务和性能来讲,“通专结合”是AI下一步发展方向,“也就是在大模型基础上,结合垂直场景进行任务深挖。”
理性拥抱:AI医疗的未来之路
面对AI医疗这一新兴事物,我们既要积极拥抱新技术,又要保持理性。
“AI只是工具,绝对不是偷懒神器。”王屹表示,医生使用AI时,应结合自己扎实的专业基础和丰富的临床实践,对AI提供的信息进行批判性思考和理性分析应用,不能过度依赖。
采访中,专家也建议,有关部门应整合医疗大数据,统一研究和设计,制定AI医生的标准和评价考核体系,让AI更好地辅助医生。
“从法律角度来说,涉及AI案件的责任主体认定与归责更为困难。”中国科学院大学公共政策与管理学院教授马一德指出,“AI应用的开发部署往往涉及多个环节、多个主体。从算法设计,到具体操作,每一个环节都可能对最终的AI行为产生影响。责任链条的拉长和分散,使得出现问题时难以锁定责任承担者。”
马一德建议,通过完善法律法规、强化数据安全、建立权责机制和加强伦理监管等举措,推动AI医疗应用的规范化部署。
目前,国家药品监督管理局已明确,利用AI进行疾病诊断、辅助决策、影像识别等的医用软件,属于医疗器械范畴,必须按照医疗器械法规进行注册和监管。
“患者使用AI进行问诊,AI的回答不需要负法律责任,而对医生来说,他们需要对病人的诊疗结果负责。”杨明提醒,应确保AI技术在法律框架下合理应用,严守数据安全与伦理底线,确保技术应用始终服务于医疗本质。

Google Gemini
Sora