上周"同事.Skill"刷屏了。7万人注册,核心功能是把离职同事的工作数据喂给AI,蒸馏出一个数字分身继续干活。
技术圈的反应很有意思。有人觉得这是"AI工程化的终极形态",有人觉得这是"赛博奴隶"。我觉得这两种看法都不对。
作为一个在AI应用层摸爬滚打了两年的工程师,我想从技术选型的角度聊聊这件事。
先说结论
"蒸馏同事"这个方向,技术上是成立的,但商业价值被严重高估了。真正值钱的不是"蒸馏一个人",而是"蒸馏一个业务流程"。
我知道这个结论会得罪人。但我还是想说。
为什么"蒸馏同事"不值钱?
我从技术实现的角度拆一下"同事.Skill"的原理。
核心架构就是RAG(检索增强生成):把离职同事的聊天记录、文档、邮件做Embedding,存进向量数据库,用户提问时先检索相关片段,再喂给LLM生成回复。
大概长这样:
┌─────────────────────────────────────────────┐
│ "蒸馏同事"架构 │
│ │
│ 用户提问 │
│ │ │
│ ▼ │
│ Embedding模型 ──→ 向量数据库(Milvus/Chroma)│
│ │ │
│ 检索Top-K相关片段 │
│ │ │
│ ▼ │
│ LLM生成回复 │
│ (模仿说话风格) │
└─────────────────────────────────────────────┘
这个架构的问题在哪?
第一,RAG只能做模式匹配,做不了推理。
我实际搭过一个类似的系统(用的DeepSeek-V3 + Milvus + 阿里云百炼Embedding)。核心代码大概是这样:
from pymilvus import MilvusClient
from openai import OpenAI
client = OpenAI(api_key="your_key", base_url="https://api.deepseek.com/v1")
def query_colleague_ai(question: str, collection_name: str) -> str:
# 1. Embedding用户问题
emb = client.embeddings.create(
input=question, model="text-embedding-v3"
).data[0].embedding
# 2. 向量检索
milvus = MilvusClient("milvus_lite.db")
results = milvus.search(
collection_name=collection_name,
data=[emb],
limit=5,
output_fields=["content", "sender"]
)
# 3. 拼接上下文
context = "\n".join([r["entity"]["content"] for r in results[0]])
# 4. LLM生成(带风格模仿的Prompt)
resp = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": f"你是张三的AI分身。参考以下历史回复风格:\n{context}"},
{"role": "user", "content": question}
]
)
return resp.choices[0].message.content
代码不复杂,20行就能跑。但跑起来之后,测试了三个case:
- 常见咨询(客户问产品价格):AI能模仿原同事的回复风格,但给的价格区间是错的——因为训练数据里没有最新价格。
- 客户投诉(产品有bug):AI回复了三段"我们理解您的心情",没有任何实际方案。原同事的处理方式是先道歉→确认问题→给临时方案→约时间排查,AI只学到了"道歉"这一步。
- 跨部门协调:AI完全不知道该找谁,只会说"建议您联系技术部门"。
结论很明确:RAG能学到"这个人怎么说话",但学不到"这个人怎么思考"。
第二,数据时效性是个死穴。
离职同事的数据是静态的。但业务是动态的——产品价格变了、流程改了、新人来了、客户需求变了。除非持续更新数据,否则蒸馏出来的分身会越来越"过时"。
而持续更新数据这件事本身,就需要有人做。如果这个人存在,为什么不直接让他干活?
第三,边际成本没有想象中低。
表面上看,蒸馏一个同事的成本很低——数据已经有了,跑个RAG就行。但实际运营成本很高:
- 数据清洗:聊天记录里大量无效消息("收到""好的""👍"),需要人工筛选
- Prompt调优:风格模仿过头会变成机器人,模仿不够又不像本人
- 效果评估:怎么判断AI的回复质量?需要人工review
- 持续维护:数据更新、模型升级、异常处理
这些隐性成本加起来,可能比直接雇一个人还贵。
真正值钱的是什么?
如果"蒸馏同事"不值钱,那什么值钱?
我的判断是:AI工程化能力。
"同事.Skill"做的事情,本质上是从非结构化的工作数据中提炼出可执行的流程。这个能力本身——理解业务逻辑、拆解工作流程、用AI技术实现自动化——才是2026年市场上最稀缺的技能。
区别在于:不是蒸馏"一个人",而是蒸馏"一个业务场景"。
举个例子。我们团队最近做了一个项目:把客服团队的工单处理流程"蒸馏"成了AI Agent。不是模仿某个客服的说话风格,而是把整个工单处理的决策树——问题分类→优先级判断→标准方案匹配→升级路径——做成了自动化流程。
架构对比一下就很清楚了:
"蒸馏同事"(RAG) "蒸馏流程"(Agent)
┌──────────────┐ ┌──────────────────────────┐
│ 用户提问 │ │ 用户提问 │
│ │ │ │ │ │
│ ▼ │ │ ▼ │
│ Embedding │ │ 意图识别(LLM) │
│ │ │ │ │ │
│ ▼ │ │ ├→ 咨询类 → 知识库检索 │
│ 向量检索 │ │ ├→ 投诉类 → 方案匹配 │
│ │ │ │ ├→ 故障类 → 工单创建 │
│ ▼ │ │ └→ 其他 → 人工升级 │
│ LLM生成 │ │ │ │
│(模仿风格) │ │ ▼ │
└──────────────┘ │ 方案执行 + 人工审核 │
│ │ │
输出:像那个人的回复 │ ▼ │
问题:没有判断力 │ 自动回复 / 人工接管 │
└──────────────────────────┘
输出:正确的处理结果
优势:可量化、可迭代
核心区别:RAG是"检索+生成",Agent是"识别+决策+执行"。前者只能模仿,后者能真正干活。
Agent的核心代码骨架:
from openai import OpenAI
client = OpenAI(api_key="your_key", base_url="https://api.deepseek.com/v1")
# 工单处理的决策树(蒸馏出来的"流程")
INTENT_ROUTER = {
"consult": {"handler": "knowledge_search", "auto_reply": True},
"complaint": {"handler": "solution_match", "auto_reply": False, "need_review": True},
"bug_report": {"handler": "create_ticket", "auto_reply": False},
"unknown": {"handler": "escalate_to_human", "auto_reply": False},
}
def process_ticket(user_input: str) -> dict:
# 1. 意图识别
intent = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "判断用户意图,只返回:consult/complaint/bug_report/unknown"},
{"role": "user", "content": user_input}
]
).choices[0].message.content.strip()
route = INTENT_ROUTER.get(intent, INTENT_ROUTER["unknown"])
# 2. 执行对应handler
if route["handler"] == "knowledge_search":
# RAG检索知识库,生成回复
reply = rag_search(user_input)
elif route["handler"] == "solution_match":
# 匹配标准方案,生成草稿等人工审核
reply = match_solution(user_input)
route["draft"] = reply
elif route["handler"] == "create_ticket":
# 自动创建工单
ticket_id = create_jira_ticket(user_input)
reply = f"已为您创建工单 {ticket_id},技术团队将在2小时内响应"
else:
reply = "您的问题已转接人工客服,请稍等"
return {"intent": intent, "reply": reply, "need_review": route.get("need_review", False)}
这段代码和前面RAG那段对比看:RAG版本不管用户问什么,都是"检索→生成"。Agent版本先判断意图,再走不同的处理路径。这就是"模仿"和"自动化"的区别。
这个系统的效果比"蒸馏同事"好得多,因为它蒸馏的不是"人",而是"流程"。流程是稳定的、可量化的、可迭代的。人是多变的、难以量化的。
2026年最值钱的技术能力
从招聘市场可以验证这个趋势。字节在招AI Agent开发工程师,钉钉在招AI应用研发工程师,大疆在招要求"AI工程化应用"能力的全栈工程师。
这些岗位的核心要求不是"会训练模型",不是"会调API",而是:
理解业务→拆解流程→用AI实现。
具体来说,我认为2026年最值钱的三个技术方向:
RAG架构设计。 不是简单的"文档检索+LLM生成",而是要考虑数据质量、检索精度、上下文管理、幻觉控制等一系列问题。一个高质量的RAG系统,需要懂业务的人来设计,不是调个API就行的。
AI Agent开发。 把多个AI能力串起来,形成完整的工作流。比如客服Agent需要:意图识别→知识检索→方案生成→人工审核→自动回复。这个编排能力是核心壁垒。
云计算架构。 所有AI应用都要跑在云上。不管你是做RAG还是做Agent,都需要有人设计云架构、管理资源、优化成本。而且这个方向的门槛在降低——考个ACP认证,1-2个月就能系统入门。
脉脉春招数据,AI岗位量同比增长12倍,AI岗位平均月薪60738元。但真正能做"AI工程化"的人极度稀缺。为什么?因为这个能力需要横跨业务理解和技术实现,不是看几个月教程就能学会的。
一个争议点
我知道有人会反驳:"蒸馏同事"和"蒸馏流程"不矛盾啊,前者是后者的一个特例。
对,理论上是这样。但实际操作中,"蒸馏一个人"和"蒸馏一个流程"是完全不同的技术路径:
- 蒸馏一个人:依赖个人数据(聊天记录、文档),数据质量参差不齐,效果难以评估
- 蒸馏一个流程:依赖业务规则(决策树、SOP),数据结构化程度高,效果可量化
前者是"模仿",后者是"自动化"。模仿的价值有限,自动化的价值巨大。
我的建议
如果你是技术Leader,在考虑要不要用"同事.Skill"这类工具:别把精力花在"蒸馏个人"上,花在"蒸馏流程"上。把高频、标准化、可量化的业务流程做成AI Agent,ROI远高于模仿某个人的说话风格。
如果你是工程师,在想学什么方向:别跟风学"底层模型训练",95%的人用不上。学RAG架构、学Agent开发、学云计算架构。这些技能在接下来3-5年会是市场上最稀缺的。
如果你是学生,在选方向:选"AI应用工程",就业面更广,薪资也不低。底层模型训练是博士和顶级研究员的事,不是你我该操心的。
当然,以上只是我的个人判断。如果你正在做"蒸馏同事"相关的项目,而且效果很好,欢迎来打我的脸。
特别想问几个问题:
你们团队有没有在用类似的AI工具替代人工?效果怎么样? 你觉得"蒸馏个人"和"蒸馏流程",哪个方向更有商业价值? 如果你是技术Leader,你会怎么选型?
评论区聊聊。
云计算从业者,ACP持证。以上纯属个人观点,欢迎拍砖。不站队,只看ROI。