ChatGPT 每周处理 2.3 亿次健康咨询。 60 万人把症状发给一个没有执照的"医生"——而它甚至不知道你叫什么。
一粒口周疱疹引发的肾衰竭
2026 年 1 月,浙江的吴先生嘴角长了个小东西。口周疱疹,搁谁身上都不算个事儿。
但他没去医院。他打开了 AI 问诊工具。
AI 说:伐昔洛韦口服,每次 8 粒。
吴先生照做了。顺手还吃了一颗消炎止痛药。
两天后,他的血肌酐飙到正常值的 10 倍。急性药物性肾损伤。
就因为一粒小疱疹。你说气不气人?
这起事件被红星新闻在 1 月 26 日报道。问题的根子不在 AI 给错了药——伐昔洛韦确实是对症药。根子在 AI 只说了"8 粒",没说药品规格,没问肝肾功能,没查合并用药。它的建议是"去语境化"的,像一张没有患者姓名的处方签。
说实话这事让我后背发凉。一个口周疱疹差点搞出肾衰竭,搁谁身上谁不慌?
吴先生把"建议"当成了"诊断"。这锅他不背——也不全该他背。
AI 赢了医生的战场
先别急着骂 AI 。
Google Health 2020 年在 Nature 发了篇论文,用英国和美国的大型乳腺癌数据集训练了一个 AI 筛查系统。结果让放射科医生不太舒服:检测准确率比人类高 5.7%,假阳性降了 5.7%,假阴性——也就是漏诊——降了 9.4%。
刺耳吗?刺耳。但数据不骗人。
这组数据意味着什么?意味着在乳腺癌筛查这个狭窄战场上, AI 的"火力密度"已经超过了单个人类专家。
国内也不差。某三甲医院上了 AI 影像诊断平台后,影像科效率涨了 60%,漏诊率掉了 20%。某互联网医疗公司的 AI 辅助诊断系统跑过了 1000 万病例,准确率 90% 以上。
就像战争史上第一次机枪射速超过弓箭手——不是全面碾压,但在特定阵地上,机器确实更快更准。
但战场不是战争的全部。哎,这话扯远了,说回正题。
信任的裂痕
一项覆盖 10,035 名美国成年人的调查( 2025 年 12 月至 2026 年 1 月)给出了几组矛盾的数字:
只有 15.1% 的人对 AI 诊断的信任度达到或超过人类专家。
但 51% 的成年人曾用 AI 做出重要的健康决策——并且没咨询任何医生。
嘴上说不信,手上已经点了发送。这不是矛盾,这是典型的侥幸心理——"我知道不靠谱,但应该没事吧"。
Ohio State 在 2026 年 3 月的跟进调查更耐人寻味:对 AI 能提升医疗效率的信心,从 64% 滑到了 55%。 Dr. Ravi Tripathi 的判断是, AI 正在经历新技术典型的"幻灭低谷"——最初觉得无所不能,然后发现也就那样。
说实话,这个低谷来得不算晚。不过——不对,准确说来得可能太晚了,因为已经有太多人在盲目信任的阶段做出了错误决策。
但真正让我焦虑的不是信不信的问题,而是 60 万人。据 OpenAI 披露,每周有约 60 万条医疗查询来自所谓"医疗荒漠"地区——没有医院、没有医生、甚至没有药房的地方。对这些地区的居民来说, ChatGPT 可能是他们唯一能触达的"医疗资源"。
这不是选择题。这是没得选。
可没得选不代表安全。你饿极了吃路边摊,不等于路边摊卫生达标。
责任的三方混战
AI 误诊了,谁来赔?
这个问题目前在法律上基本是真空地带。
中国的框架是清楚的——《民法典》《医疗事故处理条例》说医疗机构和医务人员是责任主体, AI 是辅助工具。但"清楚"只停留在原则层面。
假设一个场景:患者做了 CT , AI 标注了可疑病灶,放射科医生因为每天要看几百张片子没仔细复核,漏诊了早期肺癌。患者起诉。
医生说: AI 标记的可疑太多了,我不可能每个都细看。医院说:系统是合规采购的,医生该负审核责任。 AI 供应商说:我们只是辅助工具,最终决策权在医生。
三方互踢皮球,患者躺在中间。这画面真够操蛋的。
——搁谁身上谁不窝火?
一位三甲医院影像科主任私下说了一段很诚实的话:"我们现在处于微妙的平衡。 AI 标注的都要复核,但工作量太大,很难做到 100%。出了事法律上我们是第一责任人,但技术上我们可能确实漏掉了 AI 发现的东西。"
美国的情况更混乱。截至 2026 年初,还没有任何一起以 AI 为中心的医疗事故诉讼做出最终判决。但 UnitedHealth 已经因为使用 AI 算法拒绝养老护理而被集体起诉了——指控说,算法直接导致了患者死亡。
Penn State 2026 年 3 月的研究给出了一个让医生脊背发凉的数据:模拟陪审团看到放射科医生忽略 AI 标记的异常时,接近 50% 更倾向于判定医生有过失。
你信 AI ,可能犯错。你不信 AI ,也可能犯错。而且后者在法庭上更危险。
不用 AI 反而不伦理?
2026 年 2 月, STAT 发了一篇文章,标题直接砸在桌面上:《有时候,不使用 AI 反而是不伦理的》。
论点不复杂:当 AI 在某个任务上已经被证明优于人类医生时,坚持不用 AI ,是不是在人为增加误诊率?
如果 AI 乳腺癌筛查的假阴性率比放射科医生低 9.4%,一个坚持纯肉眼读片的医生,每年会比用 AI 的医生多漏掉多少个早期癌症?
这个问题没有标准答案。但它把 AI 从"可选工具"推到了"标准配置"的位置。
国内也在加速。 2026 年,针对 AI 智能体诊疗责任的司法解释有望出台。国家卫健委已经提出 2030 年基层诊疗智能辅助全覆盖的目标。浙江作为国家 AI 医疗试点,计划今年就实现乡镇卫生院 AI 辅助诊断设备全覆盖。
据 CAICT 预测, 2026 年中国医疗 AI 市场规模突破 220 亿元,增速 20% 以上。 AI 辅助诊断在常见病多发病领域准确率已经干到了 95%——接近县级医院主治医生水平。
数据很漂亮。但 95% 意味着每 100 个病例还有 5 个会出错。如果你是那 5 个之一——或者你的家人是——95% 就是一个毫无意义的数字。
说难听点,没人愿意当分母。
你该怎么用 AI 看病
扯了这么多,落到实操层面——AI 问诊到底能不能用?
能用。但得分场景。
能用的:症状预判("该不该去医院""挂什么科"),检查结果解读(帮你看懂那些箭头),健康知识学习,就医前的准备工作。
绝对不能的:自行用药,替代诊断,急症等 AI 回复,慢性病长期管理。
一个简单粗暴的标准——
关乎"吃什么药""做不做手术""要不要住院"的,必须问医生。 AI 是你的健康顾问,不是你的主治医生。
说白了, AI 问诊就像战场上的侦察兵——呃,前面用过军事类比了,但确实贴切。它能告诉你前方有没有敌情,但决定打不打、怎么打的,还得是指挥官。
写在最后
49% 的人信任 AI 诊断——这个数字还会涨。
但"信任"和"盲从"之间隔着一条很宽的线。 AI 正在成为医疗体系不可逆的一部分,它填补了医疗荒漠,提升了筛查效率,甚至在某些任务上超越了人类。这些是真的。
它给出"去语境化"的建议,不知道你在吃什么药,不知道你的过敏史,不知道一个诊断对你和你的家庭意味着什么。这些也是真的。
人机协作才是终局。 AI 负责模式识别和数据整合,医生负责语境理解和综合判断。各打各的仗。
但如果你非要选一个把命交出去——交给人。哪怕他不如 AI 快,至少他知道自己不知道什么。
AI 不知道自己不知道。这才是最要命的。
参考资料: ASCO Post 2026.01 | STAT 2026.02/03 | Ohio State Wexner Medical Center 2026.04 | Google Health Nature 2020 | 红星新闻 2026.01 | 新浪财经 2026 | CAICT | 亿欧智库 | Penn State 2026.03 | Palm Beach Post 2026.03 | 经济参考报 2026.02 | OpenAI 2026.04