这一周,对我来说像是把“AI 医生”从 PPT 里拉出来,丢进现实世界里拷问了一遍。
上周的故事还停留在:我做出了 XunDoc 这款“家庭健康管家”App,让它可以帮家人管理健康数据、用药提醒、AI 问诊。本周,我把它带去了杭州,在一个健康年度大会上亮了相,收获了掌声,也收获了两句直击灵魂的拷问。然后,我带着这两句拷问回到“上海”,亲手训练了自己的第一个医疗大模型,把它丢上了 Hugging Face 和 GitHub。
这一周,我从“做一个 App”走到了“训练一个模型”。
1. 杭州之行:在第六届健康年度会议,看见 AI 医疗的现在与窘境
这次我去的是杭州的一个健康年度大会(第六届的那种老牌会议),主题都绕不开四个字:“AI + 医疗”。
1.1 我在现场看到的未来
坐在会场里,我看到了各种各样已经落地或正在落地的方案:
- AI 辅助诊断:帮医生读片、写报告,提升效率;
- 随访与慢病管理机器人:替医生去做高频却重复的随访工作;
- 医院运营与质控系统:用大模型帮医生写病历、帮管理者做质控;
- 健康管理平台:试图把穿戴设备、体检数据、居民健康档案都串起来。
这些东西让我第一次非常直观地意识到:
AI 在医疗里最大的价值,不只是“会回答问题”,而是“嵌入流程,改变分工”。
站在会场里,我突然意识到:XunDoc 的回答是要面临限制的。
2.会场的老师问我:为什么需要你的产品?为什么是你呢?
在会议的一个交流环节,我简单介绍了自己的项目:
一款面向家庭的健康管家 App,连接 AI 医生、健康数据记录和智能提醒。介绍完后,有前辈点头认可,但随即抛出了两句非常关键的问题:
“现在中国的电子病历、检查报告都电子化了,为什么还要你来做这个?”
这句话直接戳到了 XunDoc 的痛点。
如果只是“把数据电子化”,医院早就做完了;手机里一堆官方 App、微信小程序都能查报告。
我在台上当时给出的回答是:
- 医院的电子化,是以“机构”为中心的——数据分散在各个医院、各个系统里;
- 我想做的,是一个以“家庭”为中心”的健康中枢:把不同医院、不同渠道的数据,统一归拢到“家庭”这个角度;
- 对普通人来说,他不关心数据在哪个系统里,只关心:
“我爸今天该吃什么药?我妈的复查是不是快到了?我自己这两年血压趋势怎样?”
这句话,在会上没法展开太多,但在回程的路上,一直在我脑子里回响。
“现在大模型里,讲健康、讲医学的是最多的一批,为什么还要你做一个垂直模型?虽然现在很缺,但为什么是你?”
大模型平台上,确实已经有很多“健康问诊”、“医学顾问”类的能力了。那我为什么还要自己搞一个医疗垂直模型? 我当时的回答,更多是直觉:
- 通用大模型对医疗的理解,广但不够深,对本地指南、真实就诊流程、患者表达的理解都有缺口;
- 我想做的是一个长期陪伴家庭的健康助手,它需要在一个清晰边界内做到“稳定、可控、可信”,而不是“什么都能聊一点”;
上周在医院还是有些效果的,虽然App有些下载量 但是还是不够,我也知道了,我App出现了一些问题,这些问题将会在下周一被迭代掉,大家可以15号早上准时更新我的App。
以下是我的用户获取
- 回到上海:用千问训练我的第一个医疗大模型**
回到“上海”之后,我做的第一件事,就是开始亲手训练一个属于自己的医疗大模型。
3.1 选择千问,动手之前先补一遍课**
我选的是国内的千问(Qwen)模型作为基座。
打开官方文档、看各种微调教程时,刚开始真的是一头雾水:
LoRA、全参微调、学习率、batch size、warmup、max length……
每一个词我都“见过”,但组合在一起的时候,还是会懵。
于是我强迫自己做了两件事:
- 把几篇别人写的 Qwen 微调实战文章 全部跑一遍代码;
- 对照官方文档,把重要参数一个一个查清楚“这个超参到底控制了什么行为”;
这一遍“补课”,其实就是把我以前零散的概念,重新串起来。
3.2 真正的难点:不是“会不会训”,而是“会不会用数据”
开始准备训练数据的时候,我突然发现:
真正让我卡住的,并不是训练脚本,而是“数据从哪来、怎么用”。
我开始去找各种公开医学相关数据集,慢慢意识到:
- 很多数据其实都是对我们开放的;
- 但“可以下载 ≠ 能直接用在自己的任务上”:
- 有的风格太口语化,不适合严肃医疗场景;
- 有的问题太简单,没什么训练价值;
- 有的回答里还有明显错误或过时的信息。
当我真正把这些数据整理干净,再喂给模型时,我突然有种“终于在认真做一件事”的感觉。
3.3 本地小机器(M4Pro20核/48G内存/1T硬盘),跑完十万多条样本数据,用了三个多小时
我的电脑算已经是相当强悍的,不过依然算不上什么“训练利器”,只能算是能跑的不错的那种。
第一次正式跑训练的时候:
- 数据大概几十万条;
- 调好了超参,让它慢慢跑;
- 看着 loss 曲线一点点往下,我就那样盯着屏幕,时不时刷一眼日志。
大概三个小时左右,训练结束。
这三个小时里,我从一开始的“担心会不会中途炸掉”,到后面变成一种很奇妙的平静:
原来我不是不会训练大模型,我只是以前没有真正把手伸进去试一次。
训练完之后,我做了几件收尾动作:
- 又把模型上传到了 Hugging Face;
- 同时把训练脚本、配置和一点说明文档整理后丢上了 GitHub;
- 用自己设计的一些家庭健康场景 prompt 测了一轮,效果虽然还远远谈不上“临床可用”,但至少有一个明确的方向感。
这个模型已经在 Hugging Face "huggingface.co/pluto6272/Q… "和 GitHub " github.com/pluto627/do… "上了。
- 我未来该怎么说
回头再看会议上的那两次问题,我的答案也有了一点点进化。
“现在报告都电子化了,为什么还要你来做?” 我的理解变成了: * 不是“我能不能替代医院系统”, * 而是“我能不能在家庭视角下,把分散在各处的健康信息真正变成‘可用的决策支持’”。
- “大模型已经很多了,为什么还要你做垂直模型,为什么是你?”
现在的我,会多补一句:
- 因为我愿意为这个垂直领域, 付出数据清洗、场景打磨、责任边界设计的那一整套笨功夫 ;
- 而这套笨功夫,是通用大模型目前很难为每一个细分人群、每一个国家的真实环境逐一去做的。
- 小结:从会场听众,到模型训练者
接下来,我想做的事情大概有三件:
- 继续打磨数据和评测集,让模型在“家庭健康管理、用药与随访、报告解读”这几个场景上更稳;
- 严肃地思考安全与边界:模型该回答什么、不该回答什么,如何把“建议就医”写得不敷衍;
- 让更多人参与进来:无论是医生、患者,还是同样在折腾医疗 AI 的朋友,一起把这个模型变成一个真正有用的工具,而不是一个个人玩具。
Hugging Face 地址 huggingface.co/pluto6272/Q…
GitHub 地址 github.com/pluto627/do…
XunDoc 也已经在 App Store 上架,等着被更多真实的家庭“使用和质问”。