"同事.Skill"爆火,7万人蒸馏同事:我看完只想说,你们搞错方向了

0 阅读9分钟

上周"同事.Skill"刷屏了。7万人注册,核心功能是把离职同事的工作数据喂给AI,蒸馏出一个数字分身继续干活。

技术圈的反应很有意思。有人觉得这是"AI工程化的终极形态",有人觉得这是"赛博奴隶"。我觉得这两种看法都不对。

作为一个在AI应用层摸爬滚打了两年的工程师,我想从技术选型的角度聊聊这件事。

先说结论

"蒸馏同事"这个方向,技术上是成立的,但商业价值被严重高估了。真正值钱的不是"蒸馏一个人",而是"蒸馏一个业务流程"。

我知道这个结论会得罪人。但我还是想说。

为什么"蒸馏同事"不值钱?

我从技术实现的角度拆一下"同事.Skill"的原理。

核心架构就是RAG(检索增强生成):把离职同事的聊天记录、文档、邮件做Embedding,存进向量数据库,用户提问时先检索相关片段,再喂给LLM生成回复。

大概长这样:

┌─────────────────────────────────────────────┐
│              "蒸馏同事"架构                    │
│                                              │
│  用户提问                                     │
│     │                                        │
│     ▼                                        │
│  Embedding模型 ──→ 向量数据库(Milvus/Chroma)│
│                      │                       │
│              检索Top-K相关片段                  │
│                      │                       │
│                      ▼                       │
│               LLM生成回复                     │
│              (模仿说话风格)                   │
└─────────────────────────────────────────────┘

这个架构的问题在哪?

第一,RAG只能做模式匹配,做不了推理。

我实际搭过一个类似的系统(用的DeepSeek-V3 + Milvus + 阿里云百炼Embedding)。核心代码大概是这样:

from pymilvus import MilvusClient
from openai import OpenAI
​
client = OpenAI(api_key="your_key", base_url="https://api.deepseek.com/v1")
​
def query_colleague_ai(question: str, collection_name: str) -> str:
    # 1. Embedding用户问题
    emb = client.embeddings.create(
        input=question, model="text-embedding-v3"
    ).data[0].embedding
​
    # 2. 向量检索
    milvus = MilvusClient("milvus_lite.db")
    results = milvus.search(
        collection_name=collection_name,
        data=[emb],
        limit=5,
        output_fields=["content", "sender"]
    )
​
    # 3. 拼接上下文
    context = "\n".join([r["entity"]["content"] for r in results[0]])
​
    # 4. LLM生成(带风格模仿的Prompt)
    resp = client.chat.completions.create(
        model="deepseek-chat",
        messages=[
            {"role": "system", "content": f"你是张三的AI分身。参考以下历史回复风格:\n{context}"},
            {"role": "user", "content": question}
        ]
    )
    return resp.choices[0].message.content

代码不复杂,20行就能跑。但跑起来之后,测试了三个case:

  • 常见咨询(客户问产品价格):AI能模仿原同事的回复风格,但给的价格区间是错的——因为训练数据里没有最新价格。
  • 客户投诉(产品有bug):AI回复了三段"我们理解您的心情",没有任何实际方案。原同事的处理方式是先道歉→确认问题→给临时方案→约时间排查,AI只学到了"道歉"这一步。
  • 跨部门协调:AI完全不知道该找谁,只会说"建议您联系技术部门"。

结论很明确:RAG能学到"这个人怎么说话",但学不到"这个人怎么思考"。

第二,数据时效性是个死穴。

离职同事的数据是静态的。但业务是动态的——产品价格变了、流程改了、新人来了、客户需求变了。除非持续更新数据,否则蒸馏出来的分身会越来越"过时"。

而持续更新数据这件事本身,就需要有人做。如果这个人存在,为什么不直接让他干活?

第三,边际成本没有想象中低。

表面上看,蒸馏一个同事的成本很低——数据已经有了,跑个RAG就行。但实际运营成本很高:

  • 数据清洗:聊天记录里大量无效消息("收到""好的""👍"),需要人工筛选
  • Prompt调优:风格模仿过头会变成机器人,模仿不够又不像本人
  • 效果评估:怎么判断AI的回复质量?需要人工review
  • 持续维护:数据更新、模型升级、异常处理

这些隐性成本加起来,可能比直接雇一个人还贵。

真正值钱的是什么?

如果"蒸馏同事"不值钱,那什么值钱?

我的判断是:AI工程化能力。

"同事.Skill"做的事情,本质上是从非结构化的工作数据中提炼出可执行的流程。这个能力本身——理解业务逻辑、拆解工作流程、用AI技术实现自动化——才是2026年市场上最稀缺的技能。

区别在于:不是蒸馏"一个人",而是蒸馏"一个业务场景"。

举个例子。我们团队最近做了一个项目:把客服团队的工单处理流程"蒸馏"成了AI Agent。不是模仿某个客服的说话风格,而是把整个工单处理的决策树——问题分类→优先级判断→标准方案匹配→升级路径——做成了自动化流程。

架构对比一下就很清楚了:

"蒸馏同事"(RAG)              "蒸馏流程"(Agent)
┌──────────────┐              ┌──────────────────────────┐
│ 用户提问      │              │ 用户提问                  │
│     │        │              │     │                    │
│     ▼        │              │     ▼                    │
│ Embedding    │              │ 意图识别(LLM)           │
│     │        │              │     │                    │
│     ▼        │              │     ├→ 咨询类 → 知识库检索 │
│ 向量检索      │              │     ├→ 投诉类 → 方案匹配  │
│     │        │              │     ├→ 故障类 → 工单创建  │
│     ▼        │              │     └→ 其他   → 人工升级  │
│ LLM生成      │              │     │                    │
│(模仿风格)   │              │     ▼                    │
└──────────────┘              │ 方案执行 + 人工审核       │
                              │     │                    │
  输出:像那个人的回复           │     ▼                    │
  问题:没有判断力              │ 自动回复 / 人工接管       │
                              └──────────────────────────┘
                                输出:正确的处理结果
                                优势:可量化、可迭代

核心区别:RAG是"检索+生成",Agent是"识别+决策+执行"。前者只能模仿,后者能真正干活。

Agent的核心代码骨架:

from openai import OpenAI
​
client = OpenAI(api_key="your_key", base_url="https://api.deepseek.com/v1")
​
# 工单处理的决策树(蒸馏出来的"流程")
INTENT_ROUTER = {
    "consult": {"handler": "knowledge_search", "auto_reply": True},
    "complaint": {"handler": "solution_match", "auto_reply": False, "need_review": True},
    "bug_report": {"handler": "create_ticket", "auto_reply": False},
    "unknown": {"handler": "escalate_to_human", "auto_reply": False},
}
​
def process_ticket(user_input: str) -> dict:
    # 1. 意图识别
    intent = client.chat.completions.create(
        model="deepseek-chat",
        messages=[
            {"role": "system", "content": "判断用户意图,只返回:consult/complaint/bug_report/unknown"},
            {"role": "user", "content": user_input}
        ]
    ).choices[0].message.content.strip()
​
    route = INTENT_ROUTER.get(intent, INTENT_ROUTER["unknown"])
​
    # 2. 执行对应handler
    if route["handler"] == "knowledge_search":
        # RAG检索知识库,生成回复
        reply = rag_search(user_input)
    elif route["handler"] == "solution_match":
        # 匹配标准方案,生成草稿等人工审核
        reply = match_solution(user_input)
        route["draft"] = reply
    elif route["handler"] == "create_ticket":
        # 自动创建工单
        ticket_id = create_jira_ticket(user_input)
        reply = f"已为您创建工单 {ticket_id},技术团队将在2小时内响应"
    else:
        reply = "您的问题已转接人工客服,请稍等"
​
    return {"intent": intent, "reply": reply, "need_review": route.get("need_review", False)}

这段代码和前面RAG那段对比看:RAG版本不管用户问什么,都是"检索→生成"。Agent版本先判断意图,再走不同的处理路径。这就是"模仿"和"自动化"的区别。

这个系统的效果比"蒸馏同事"好得多,因为它蒸馏的不是"人",而是"流程"。流程是稳定的、可量化的、可迭代的。人是多变的、难以量化的。

2026年最值钱的技术能力

从招聘市场可以验证这个趋势。字节在招AI Agent开发工程师,钉钉在招AI应用研发工程师,大疆在招要求"AI工程化应用"能力的全栈工程师。

这些岗位的核心要求不是"会训练模型",不是"会调API",而是:

理解业务→拆解流程→用AI实现。

具体来说,我认为2026年最值钱的三个技术方向:

RAG架构设计。 不是简单的"文档检索+LLM生成",而是要考虑数据质量、检索精度、上下文管理、幻觉控制等一系列问题。一个高质量的RAG系统,需要懂业务的人来设计,不是调个API就行的。

AI Agent开发。 把多个AI能力串起来,形成完整的工作流。比如客服Agent需要:意图识别→知识检索→方案生成→人工审核→自动回复。这个编排能力是核心壁垒。

云计算架构。 所有AI应用都要跑在云上。不管你是做RAG还是做Agent,都需要有人设计云架构、管理资源、优化成本。而且这个方向的门槛在降低——考个ACP认证,1-2个月就能系统入门。

脉脉春招数据,AI岗位量同比增长12倍,AI岗位平均月薪60738元。但真正能做"AI工程化"的人极度稀缺。为什么?因为这个能力需要横跨业务理解和技术实现,不是看几个月教程就能学会的。

一个争议点

我知道有人会反驳:"蒸馏同事"和"蒸馏流程"不矛盾啊,前者是后者的一个特例。

对,理论上是这样。但实际操作中,"蒸馏一个人"和"蒸馏一个流程"是完全不同的技术路径:

  • 蒸馏一个人:依赖个人数据(聊天记录、文档),数据质量参差不齐,效果难以评估
  • 蒸馏一个流程:依赖业务规则(决策树、SOP),数据结构化程度高,效果可量化

前者是"模仿",后者是"自动化"。模仿的价值有限,自动化的价值巨大。

我的建议

如果你是技术Leader,在考虑要不要用"同事.Skill"这类工具:别把精力花在"蒸馏个人"上,花在"蒸馏流程"上。把高频、标准化、可量化的业务流程做成AI Agent,ROI远高于模仿某个人的说话风格。

如果你是工程师,在想学什么方向:别跟风学"底层模型训练",95%的人用不上。学RAG架构、学Agent开发、学云计算架构。这些技能在接下来3-5年会是市场上最稀缺的。

如果你是学生,在选方向:选"AI应用工程",就业面更广,薪资也不低。底层模型训练是博士和顶级研究员的事,不是你我该操心的。

当然,以上只是我的个人判断。如果你正在做"蒸馏同事"相关的项目,而且效果很好,欢迎来打我的脸。

特别想问几个问题:

你们团队有没有在用类似的AI工具替代人工?效果怎么样? 你觉得"蒸馏个人"和"蒸馏流程",哪个方向更有商业价值? 如果你是技术Leader,你会怎么选型?

评论区聊聊。


云计算从业者,ACP持证。以上纯属个人观点,欢迎拍砖。不站队,只看ROI。