近日,广东一位医学博主在社交平台发帖称:“天都塌了!病人用DeepSeek查了我的治疗方案后提出质疑,气得我又查了一遍指南,结果发现指南确实更新了……”该帖迅速引发热议,短短一天内获得超15万点赞、3万条评论,不少医生纷纷留言分享类似经历。这一现象折射出人工智能在医疗领域的深度渗透,也引发了新的思考:AI辅助诊疗是否正在重塑医患关系?医生该如何应对“AI武装”的患者?

AI诊疗能力获认可,部分医生自嘲“被AI教育”
据记者调查,类似“患者用DeepSeek质疑医生”的案例并非个例。深圳某医院全科医生孙某透露,近期一位患者拿着DeepSeek生成的灰指甲治疗方案直接要求开药,经核对后发现AI的建议“基本靠谱”。北京大学深圳医院胸外科主任谢远财也测试了DeepSeek对肺结节的诊断能力,发现其分析“与临床判断高度吻合”。
在中医领域,尽管AI开方的精准度尚不及资深中医师,但已有患者反馈,DeepSeek对常见病症的分析“与医生解释几乎一致”。广州医科大学附属妇女儿童医疗中心儿科医师印根权表示,AI在儿童疾病诊断上“能提供较高水平的建议”,但家长仍需专业医生解读。
AI辅助 vs. 医生决策:谁更可信?
尽管AI表现亮眼,医学界普遍认为其仍无法完全替代医生。重庆医科大学附属儿童医院主治医师胡伟指出,AI在影像识别、数据分析等方面优势明显,但临床诊断依赖触诊、问诊等动态交互,AI难以模拟医生的经验直觉。例如,阑尾炎的判断需结合触痛反应,而AI无法进行物理检查。
此外,AI的局限性还体现在:
- “AI幻觉”风险:可能基于错误数据生成不合理建议。
- 个性化不足:治疗方案需结合患者个体差异,AI难以灵活调整。
- 法律与伦理问题:我国明确规定,AI不得替代医师开具处方,责任仍由医生承担。
医患新生态:沟通成本增加还是效率提升?
面对“AI赋能”的患者,医生反应不一。部分医生坦言,解释AI建议“耗费更多时间”,尤其当患者先入为主时,沟通难度加大。但也有医生认为,AI提升了患者医学素养,使问诊更高效。南方医科大学南方医院睡眠医学中心冯媛医生举例,一位睡眠呼吸暂停患者通过DeepSeek提前了解病情,就诊时沟通“格外顺畅”,节省了一半问诊时间。
政策与法律:AI医疗的“红线”
目前,湖南、北京等地已明确禁止互联网医院使用AI自动生成处方。国家卫健委《互联网诊疗监管细则》也强调,处方必须由医师本人开具,AI不得替代诊疗服务。法律界人士指出,若患者自行采用AI建议导致不良后果,责任由个人承担;但若医生盲目采纳AI方案,则需负医疗责任。
未来展望:AI是助手,而非替代者
尽管AI在医疗领域的应用日益广泛,但其核心定位仍是“辅助工具”。广东省中医院心血管科医师胡世云指出:“AI能整合数据,但无法替代医生的临床决策和人文关怀。” 专家建议,医患双方应理性看待AI:
- 患者:可将AI建议作为参考,但最终诊疗需遵医嘱。
- 医生:善用AI提升效率,同时保持专业判断力。
随着AI技术的迭代,医疗行业正迎来深刻变革。如何平衡技术创新与医疗安全,将成为未来医患共同面对的课题。