当下,以DeepSeek大模型为代表的人工智能(AI)技术正在加速重构医疗生态。
在今年全国两会上,如何推动人工智能技术在医疗领域稳健落地、如何有效防范潜在风险等成为代表委员们关注的话题
。笔者认为,在推动大模型赋能医疗智能决策中,需要研究和解决面临的伦理风险。
2024年11月,国家卫生健康委、国家中医药局、国家疾控局联合印发《卫生健康行业人工智能应用场景参考指引》,对医学影像智能辅助诊断、临床专病智能辅助决策等领域提出了分场景、分层次的应用规范。各大医院正在加速部署人工智能大模型。其中,DeepSeek作为国产大模型的代表,凭借多模态分析和大规模数据处理能力,被应用于医学影像阅片、病历质控、临床辅助决策等多个环节。据不完全统计,全国已有20多个省份的100多家医院实现DeepSeek本地化部署。
在推动大模型赋能医疗智能决策过程中,面临的伦理风险需要厘清和解决。
其一,数据安全与患者隐私保护压力持续上升。
大模型需要运用大量患者信息进行训练与推断,这些数据往往来源于电子病历、检验检测报告及医学影像,一旦在传输或存储环节监管不力,就可能带来隐私泄露风险。
其二,大模型在医疗领域具有较强的“黑箱”特征。
虽然DeepSeek等人工智能在诊断速度与准确率上取得进步,但它们常常无法向医生或患者详细展示推断过程。一旦遇到疑难病例或出现偏差,临床医生若难以追溯模型决策的逻辑基础,就会影响最终的诊疗效果,并且给医患沟通带来障碍。
其三,责任归属与风险分担问题依旧模糊。
人工智能在现阶段常以辅助决策形式介入医疗流程,理论上并非独立诊疗主体。若对其建议过于倚重,一旦出现漏诊或误诊情况,究竟由医院、临床医生还是技术提供方承担责任,缺乏明确的法律框架予以指引。
其四,行业监管与持续评价不足也为医疗智能决策埋下隐患。
尽管多项场景化要求已经在《卫生健康行业人工智能应用场景参考指引》中提出,但不同地区、不同医疗机构的具体落地标准存在较大差异。国家药监局对人工智能医疗器械上市前审批严格,但对于人工智能模型上线后的更新迭代、适应证扩展等环节尚缺乏细化监管。
针对这些问题,应构建明确的伦理标准,厘清医疗智能决策的伦理边界。应按照科技部等10个部门于2023年9月联合印发的《科技伦理审查办法(试行)》的相关要求,参考世界卫生组织于2024年发布的《卫生领域人工智能的伦理与治理:多模态大模型指南》的建议,制定大模型驱动的医疗智能决策伦理指南,由医生、法律专家、生成式人工智能开发人员等共同组成的伦理委员会对其进行审查。
为确保患者充分了解人工智能诊疗方案,应建立明确的患者知情同意机制。在应用DeepSeek等大模型进行诊疗之前,医务人员应当事先告知患者人工智能辅助决策的方式、诊断依据及可能存在的不确定性。同时,应当允许患者参与决策制定过程,并有权选择是否接受决策结果。
在界定医疗智能决策出现事故时的责任时,需要结合我国现有的医疗损害责任体系。若医疗机构或医务人员在使用人工智能过程中操作或管理不当导致患者受损害,应由医疗机构承担过错责任;如果损害是由医疗智能自身程序瑕疵或设计缺陷引起的,设计者和生产者应承担无过错的产品瑕疵责任。在司法实践中,可以倾向于责任的证明分配,将缺陷的存在、缺陷与损害之间的因果关系的证明责任分配给设计者、生产者或医疗机构。
此外,为保障患者合法权益,可考虑推行“智能医疗保险”制度,以分散医疗损害赔偿风险,并及时补偿受害人损失。开发者、制造商、所有者(医疗机构)等通过多种方式支付费用,确保医疗智能决策法律责任的支付来源。
针对智能决策中可能出现的医疗数据泄露,需进一步加强对患者信息保护。涉及患者个人信息的数据披露必须经过患者同意和匿名化处理,并确保数据传输和处理在受控环境中进行。
另外,要促进医疗智能决策的可持续性。监管机构需加强对大模型在医疗决策中应用过程的监督,定期抽查诊断精准度,并要求医疗机构展开定期自查,及时化解出现的新风险。应帮助医生了解医疗智能决策的基本原理、方法、实际应用场景,并加强伦理教育,防止医生对人工智能形成过度依赖。
良术需要善治,良器需有“良芯”。人工智能与医生不是取代关系,而是共同守护“治病救人”的医疗初心。对于大模型在医疗决策中给出的新证据、新论断要持“审慎验证、充分研判”的态度,方能使其行稳致远,助力健康中国建设再上新台阶。