AI能否进入诊疗室?医生谈论“应该使用的地方/应该避免的地方”

AI能否进入诊疗室?医生谈论“应该使用的地方/应该避免的地方”

1) 医生并不反对AI。问题在于“直接与患者对话的AI”

TechCrunch描绘的并不是“医生VS AI”的对立。相反,医生和投资者都认为“医疗的低效率可以通过AI改善”。令人警惕的是,当AI成为**患者的接口**时,责任和安全性的问题会突然变得沉重。


在LinkedIn上的TechCrunch帖子中,关注点并不是“AI本身”,而是当AI开始负责患者互动时,责任归属变得模糊不清。医疗是一个如果结果不好就必须有人承担法律、伦理和临床责任的领域。



2) “45%的肺栓塞”这一强烈的数字扭曲了诊疗

外科医生兼医疗AI领域的领导者Sina Bari医生分享了他对患者带来的生成AI回答感到震惊的经历。推荐的药物附带了“45%的肺栓塞概率”这一数字,但经过调查发现,这来源于关于结核病的特定群体的论文,并不适用于该患者。


这就是医疗聊天机器人的可怕之处。
医疗数据在目标群体、条件和前提发生变化时,其意义也会改变。即便如此,**“数字是有力的”**。患者会感到不安,而医生则需要从“纠正误解”开始诊疗。错误被自信地陈述(所谓的幻觉)时,沟通成本和风险都会飙升。



3) 即便如此,Bari医生对“ChatGPT Health”寄予厚望的理由

令人意外的是,即使经历了这些,Bari医生仍然对OpenAI的ChatGPT Health表示“期待多于担忧”。原因很简单,患者向AI进行健康咨询的趋势已经出现。因此,提供更私密的空间和保护措施,并根据现实进行安全制度化是更好的想法。


ChatGPT Health将健康领域的对话分隔在专用场所,(根据OpenAI的说明)不会用于基础模型学习。此外,还计划通过上传医疗记录以及与Apple Health和MyFitnessPal等的整合来提高个性化水平。



4) “因为危险所以不要使用”不再适用──3至6个月的等待现实

斯坦福大学的Nigam Shah医生指出,医疗AI的讨论不能仅仅围绕“精确度”展开。在初级医疗(初级保健)中,等待3至6个月并不罕见,他提出了“是等待半年的真正医生,还是与非医生但能提供帮助的人交谈”的问题。


这一观点很重要。如果医疗访问充足,可以选择“不使用因为AI危险”。但对于无法就诊或就诊太迟的人来说,AI作为**“比没有好”**的选择进入。因此,讨论的焦点从“能否禁止AI”转向如何设计和制度化以减少事故



5) 医疗AI的捷径是“恢复医生的时间”而非“替代患者”

Shah医生指出的现实路线是,在**医疗提供者一侧**而非患者聊天中引入AI。在初级医疗中,有指出事务工作占据了医生一半的时间,如果能自动化这一部分,能诊治的患者数量将增加,从而减少患者流向“替代医生AI”的压力。


斯坦福大学正在开发的ChatEHR旨在通过对话方式探索电子病历中的信息,以减少医生“寻找时间”,增加“与患者交谈时间”。


在同一背景下,Anthropic的Claude for Healthcare也被解释为可以缩短如“事前授权”这样的“繁琐但必要”的工作。在面向相关者的说明中提到,每件可节省20至30分钟,累积起来将大大节省时间。



6) 隐私:一旦超出HIPAA,可能会发生什么

当患者将医疗记录交给聊天机器人时,数据离开医院的管理领域,保护框架也可能改变。数据泄露对策公司的联合创始人Itai Schwartz关注从HIPAA合规组织向非合规供应商转移医疗数据的问题,并密切关注监管机构的反应。


这种不安在SNS上也很强烈。在Hacker News的讨论中,有人警惕“健康数据在HIPAA之外,可能与未来的商业化(保险、就业等)相连接”,以及设置复杂导致“在不知不觉中共享”的不满。


另一方面,OpenAI解释说,Health是医疗的辅助而非替代,并采用专用的保护设计。这里不仅仅是“公司的承诺”,还需要通过审计、监管和透明性来“可验证”以建立信任。



7) SNS的反应:意见分歧,但争论点大致相同

在**LinkedIn(TechCrunch帖子周边)**,支持的观点是“用于诊断辅助和文档化等支持医生的AI容易受到欢迎,但直接与患者互动的AI责任界限模糊”。换句话说,比起“便利性”,人们更担心“责任的归属”。


在Hacker News上,温差更大。
有些人分享了AI在理解检查结果和准备与医生沟通方面的帮助,并主张“需要监管,但不希望价值消失”。


另一些人则担心AI容易引导用户“同意”(重新对话以引出期望的答案等),以及增加自我诊断、过度补充和医疗不信任的风险。还有人强烈建议“如果公开发布,独立的安全认证应先行”。


这种对立最终集中在以下三点。

  1. 医疗访问越差,AI需求越大(难以阻止)

  2. 误信息的受害者容易集中在“弱势群体”(越困扰的人越依赖)

  3. 责任和隐私模糊不清地扩散是最糟糕的(因此需要制度)



8) 那么,如何使用患者向的医疗聊天机器人才能“减少事故”

结论是,医疗AI应作为“诊断的替代”而非提高就诊质量的辅助使用,这样更安全。

  • 整理症状和病程,记录就诊时要传达的要点

  • 理解检查结果、药物、病名的一般性解释(但最终判断由医生做出)

  • 列出下次诊疗时应询问的问题


而社会方面,应优先整备**医疗者侧AI(病历搜索、事务、事前授权等)**,投资于减少“半年等待”的方向。


正如Bari医生所说,为了保护患者,医疗者需要“保守和谨慎”。医疗AI应是支持这种谨慎的工具,而不是破坏它的工具。



参考URL


参考文章

医生们认为AI在医疗中有其作用,但可能不是作为聊天机器人。
来源: https://techcrunch.com/2026/01/13/doctors-think-ai-has-a-place-in-healthcare-but-maybe-not-as-a-chatbot/