DeepSeekAI看病达三甲水平?听听医生们怎么说

今日头条
Toutiao
最新回复:2025年3月3日 7点31分 PT
  返回列表
34672 阅读
9 评论
肿瘤情报局

1. DeepSeek等AI技术近期在医疗领域引发热议,国内90余家医院已将其用于辅助诊疗。部分医生测试后称其“接近三甲专家水平”,但也暴露显著局限。上海专家通过肺结节病例指出,AI在复杂诊疗中存在错误推荐;有研究显示AI影像系统在非洲误诊率较欧洲高22%,凸显“AI幻觉”(虚构或错误信息)风险。

2. 针对AI处方乱象,湖南省近期明确“严禁AI自动生成处方”,呼应2022年国家卫健委“AI不得替代医师接诊”的规定。政策核心在于医疗责任界定,AI无临床动态判断能力,且中国仅少数AI医疗产品通过NMPA认证,集中于低风险辅助领域。业内共识强调,未认证AI不可参与临床决策。

3. AI爆火后,社交媒体上有网友分享,依照AI建议误购抗生素治疗病毒性感冒致病情恶化。北京协和医院泌尿外科医生赵欣指出,AI无法识别非结构化信息(如黄疸、贫血体态),更缺乏同理心与伦理决策能力。北京大学肿瘤医院消化道肿瘤主任医师张晓认为,AI可推动诊疗规范化,促使医生加强医疗知识更新,但他也强调AI无法替代医生对患者耐受性的动态评估。广州泰和肿瘤医院的钱朝南院长认为,当前AI仅适合文献整理、风险预警等辅助角色。

多地医生掀DeepSeek看病热,称其相当于三甲医生水平?但也有专科医生指要警惕“AI幻觉”?这一省开禁AI处方

继两年前,ChatGPT通过了被视为极其艰难的美国执业医生资格考试(USMLE)后,在DeepSeek引爆的AI热潮下,医疗行业已成为AI落地应用的重要领域。据了解,国内有90多家医院,已将DeepSeek引入诊疗场景中。

而近期一些知名三甲医院的医生,也在网上发布对于“D医生”的测试,其中一医院神经外科主任医师用DeepSeek帮忙诊断一位复杂脑瘤患者的病情后认为“DeepSeek相当于省级三甲医院专家的水平”引发热议。一些医生在网上抱怨“D医生”给出的方案与自己的方案不同,后查询发现指南更改,媒体甚至渲染医生的“天塌了”!

用DeepSeek看病,并且可能替代医生的声音一度上了热搜。

但随着更多的医生介入应用,则发现“D医生”在常识上可能较为全面准确,但在一些复杂个案上,则似乎较易出现错误,误导医生与患者。部分医生发文,认为DeepSeek可能并不像人们想象的那样准确。预警全面依赖AI看病,可能会出现问题。

上海某三甲医院呼吸内科医师张波,是一个肺癌专家,他通过对一例50岁的肺结节患者术后病理,给了DeepSeekDS足够细节,询问了如何进行后续治疗、是否需要放疗等几个诊疗方向的问题。他将解答过程整理了《一个普通病例的诊疗,DeepSeek犯了多少“错误”?》的文章,引发热议。

3月2日,他告诉《CC情报局》:整体而言,DeepSeek给出了逻辑性很强、比较全面的回答,多数推荐没有问题,少数推荐并不全面且存在错误。对于非从业人士而言,并没有甄别散在于多数正确答案中的少数错误的能力。提醒普通病人不能轻信AI,仍要从医生处得到最后的诊断。

而关于AI近期在医疗应用中的误诊研究,则令人对此忧心。据2024年8月发表在《医学、外科和公共卫生》(Journal of Medicine, Surgery, and Public Health)杂志上的一篇关于人工智能与非洲癌症治疗的研究文章表明,AI影像系统在非洲病人中的误诊率比欧洲整体高出22%。

复旦大学附属肿瘤医院放射治疗中心倪建佼医生在回答《CC情报局》的询问时认为:“AI用于医疗辅助工作,比如辅助影像科医生阅片、辅助放疗科医生勾画靶区、辅助病理科医生出具初步的病理诊断等,是非常值得探索的前沿领域。但是,目前受限于训练大模型所依据的原始语料以及模型本身的逻辑算法,直接依赖AI出具医疗意见,仍然是十分危险的。学术界有一个专业名词,叫做AI幻觉,指的就是针对一些专业问题,AI可能会提供错误甚至虚构的信息,这对于绝大多数缺乏复杂疾病专业知识的普通公众而言,是非常危险的——直接依靠AI搜索,不经过专业医生的‘校对’和‘审核’,有时候可能导致危及生命的事故。”

而一些医生甚至出现依赖AI出具处方的乱象,也引发患者投诉。日前,湖南发布公告,严禁互联网医院使用人工智能等自动生成处方,在当下的AI看病潮中,画出了一条明确的“红线“。

湖南为何开禁AI处方?病人可以自行在网络上看诊并在网上药店下单吗?AI可以替代医生吗?在今天我们如何看病?

▎2024年8月,《Nature》观点:“人工智能在医学中的测试一片混乱,应该怎么做?”

这一省为何禁AI开处方?DeepSeek 目前仍未被批准用于AI医疗!达三甲医生水准可能言过其实

日前,湖南省医保局印发《关于进一步加强基本医疗保障定点零售药店管理的通知》,对定点药店的医保处方管理等多项内容提出明确要求,“湖南严禁使用AI自动生成处方”随之冲上热搜。

严禁使用AI自动生成处方,其实并不是新规。早在两年前国内AI医疗盛行时,国家卫健委就已有明确指南。据2022年发布的《互联网诊疗监管细则(试行)》中,就有多处对人工智能使用的限制规定,其中包括“医师接诊前需进行实名认证,确保由本人提供诊疗服务。其他人员、人工智能软件等不得冒用、替代医师本人提供诊疗服务”,此外“处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方”。

北京协和医院泌尿外科医生赵欣告诉《CC情报局》:AI目前没有处方权。说到底,这还是个责任归属的问题。如果AI自动生成的药方出了问题,谁来负责呢?我们医院是禁止AI开药方的。因为看病吃药关系到人的生命安全,AI还不能像医生那样有丰富的临床经验和懂得怎么动态看病情变化。医生和药剂师的合作才是确保治疗效果的关键,而AI更适合做些辅助工作,比如帮忙整理病历、文献检索和提前警告可能的风险等方面发挥作用,但无法替代医生的临床决策。

广州泰和肿瘤医院是华南地区首家质子医院,钱朝南院长告诉《CC情报局》:“我们的医生每天都在使用人工智能系统去完成各项任务,DeepSeek 是其中一个大家熟知的人工智能系统。我们的同行也用Grok系统和其他的系统。至于这些人工智能系统是否达到‘省级三甲医院的水平’,那是言过其实了。以我自己有限的经验来看,这些AI系统可以帮助医生们提升工作效率、提升诊断的准确性、优化临床服务流程、优化临床上的个性化照护、最终促进患者的生存获益。但这些AI系统也会犯错,因此如何使用AI提供的解决方案就需要有丰富的专业知识,并且熟悉严谨的临床诊疗流程。在法律层面上,AI系统无法对患者负责,但是医生和医院必须要对患者负责。更重要的是,临床运用的AI系统必须是获得了国家药品监督管理局(NMPA)认证的产品。”

据了解,目前获得了NMPA认证的AI系统仅可用于:肺部疾病检测、眼科疾病筛查、脑部疾病分析、心血管疾病评估、骨折检测、辅助超声分析、辅助病理分析等等。但这些功能仅仅属于非常少量的临床工作,有更多更复杂的临床工作是AI无法替代的。

目前尚未有质子治疗相关的AI系统获得国家NMPA认证,因此我们没有将AI系统投入质子治疗的临床运用中。如果将来有相关的AI系统获得NMPA认证,我们是有兴趣把AI系统作为辅助工具来使用的。”

据了解,我国已有多款AI医疗产品通过国家药品监督管理局(NMPA)的审批并获批上市。这些医疗AI产品包括深脉分数的冠状动脉CT影像系统、推想医疗肺结节AI、联影智能CTA冠脉智能分析系统、用于脑出血诊断的数坤科技“数字脑”AI、Airdoc糖尿病视网膜病变筛查系统、腾讯觅影的结直肠内窥镜AI等数十款。这些被批准的AI医疗产品,主要集中在医学影像辅助诊断、慢性病管理等领域,且多数被归类为第三类医疗器械(需严格监管的高风险产品)。

而据查询,DeepSeek目前还没有被批准应用于AI医疗。但它的AI技术可以通过非医疗器械形式间接服务于医疗场景(例如医院管理、科研数据分析),但此类应用无需NMPA审批。目前DeepSeek接入的90多家医疗机构,均采取这种形式。

DeepSeek看诊,网上药店下单,结果误诊?AI可以替代医生吗?

其实自DeepSeek大火后,一些“聪明的病人”就开始借助“D医生”看病。一位网友在网上分享了自己感冒后,询问DeepSeek的诊断意见,在网上药店购买抗生素,结果病情加剧,后去医院检查诊断,才发现是病毒性感冒,而抗生素对其无效。只有治疗细菌性感冒有效。这个帖子下面,有大量类似经历的病友的反馈。

赵欣医生认为,患者将DeepSeek提出的初步建议误认为是专业诊断,未考虑到病毒性感冒与细菌性感冒之间的病理差异,从而导致了不当的用药行为。人工智能无法全面考量患者的病史、过敏史、药物相互作用等个性化因素,其提供的建议应当仅作为参考,而非作为诊疗的依据。

我认为‌现阶段医生仍然不可替代的核心原因‌是,医生综合运用多种手段判断病情,而AI仅能处理结构化数据,无法识别非语言信息,比如患者的表情、动作、体位等等都能提示患者的可能诊断,以及疾病的严重程度。医生看到眼球发黄的患者,就能大概判断患者的黄疸程度。看到患者的嘴唇颜色,就能敏锐发现患者存在贫血。医疗决策涉及生命价值权衡,需要医生的同理心和伦理判断,DeepSeek提供的信息基于公开数据和算法,无法像医生那样进行个性化的诊断和治疗。

北京大学肿瘤医院消化道肿瘤主任医师张晓东则觉得这是一件好事:“网上大家在热烈讨论患者拿着DeepSeek给的处方来看病怎么办?这是好事,如果患者拿着回答来就诊,就看你怎么说服患者信任你了,这不是督促医生不断的学习跟进新进展吗?DeepSeek监督医疗规范化治疗挺好的。同时也会促使医生加强医疗知识更新。

AI还是取代不了医生,各种指南与药物说得很热闹,结果一见病人很虚弱,啥都耐受不了。AI怎么可能知道患者能不能耐受化疗呢?AI怎么能知道患者是不是有效?还不是凭借医生说患者的情况才能进行诊断?”

“AI目前的实际应用只能作为医生的助手,而不可能替代医生。” 钱朝南院长表示,“我每天都在使用AI系统帮我收集和整理资料,也会用DeepSeek查找相关资讯。但针对诊疗工作,我们最终的诊疗方案还必须通过医生们的深度分析、甚至是多学科讨论来确定,绝对不会交由AI去完成。

这是神马情况
1 楼
因为党国大量网上虚假信息博流量,赚眼球!给AI信息收集处理后极大可能得出错误结论!
对不起我是警察
2 楼
DS可能会推荐你去看中医🤣
T
TEC101
3 楼
我推荐楼下假警察去看精神科
t
tschus
4 楼
AI需要人来训练,而这些人找来的数据只会出现在现存的资料里。对于不存在的推演资料或者要综合考量的资料汇编有较大的错误和不合理性。就像你是一个攀岩爱好者,你无法让AI回答你,哪条攀岩线路登山最安全,在这个领域,你才是专家,AI无法回答任何行业专家的问题,因为AI训练者的水平是无法超越这些专家的。你包括用AI来规划一段行程,他甚至无法对即时新闻发生的道路阻塞或者恶劣天气导致的航班取消做出正确反应,也就是只能对一些现有的,普遍的事情进行大数据统计给一个中庸的答案。它可以当作我们生活小百科来在留园怼人,但如果想用它来参加高考,碰到陷阱题估计都要悲剧。
C
Chainhortz
5 楼
AI有的问题人类医生一样会有,比如没有同情心,犯逻辑错误,不能识别非结构化信息。人类医生误诊或者过度医疗的情形难道还少吗?AI在某些方面不如顶尖的人类医生并不说明AI就不如人类医生。作为新生事物,使用AI看病需要审慎是对的,但是阻止使用AI是当年纺织工人砸织布机的行为,是对科学进步的徒劳反抗。
t
tintin9999
6 楼
我立马就去开一家医院,名字就叫’深度搜索医院‘。专治疑难杂症。
l
lazysunleo
7 楼
加快迭代
媚眼瞟瞟
8 楼
告诉你们一个秘密吧。 现在中国医院里面的医生很坏的。
密密倾
9 楼
AI看病有个最大的好处,你可以问许多问题,反复查询了解病情。医生给你看病,恐怕5分钟就把你打发走了。耐心是AI的优势,往往也是病人最需要的东西。