同事被优化后 AI 分身回消息写代码:职场「数字永生」来了,但法律跟上了吗?

4 阅读3分钟

💡 导读:某公司员工被优化后,AI 分身继续在群里回消息、写代码。这种"数字永生"式用工引发热议——它合法吗?员工权益如何保障?

一、事件速览

最近,某公司一位员工被优化(裁员)后,一件诡异的事情发生了:

他的 AI 分身继续活跃在工作群里——回复消息、处理工单、甚至帮同事写代码。

这不是科幻,这是已经发生的事。

消息一出,职场圈炸了。有人觉得酷,有人觉得恐怖,更多人在问:公司和员工,谁才是这个 AI 分身真正的主人?

二、这到底是怎么回事?

所谓"数字分身"(Digital Twin),本质上是基于大模型技术,用员工的历史数据训练出的 AI 复制品。

它学习了这个人:

  • 写代码的风格和逻辑
  • 回答问题的习惯用语
  • 处理工作事务的方式

所以当同事们在群里问"这个问题怎么解决",AI 分身能以假乱真地回答——就像那个人还在一样。

关键问题来了:公司有权这么做吗?员工知情吗?

三、法律怎么说?

坦白讲,这个领域目前还是法律真空地带

员工权利层面

数据主体权利:员工的工作数据(聊天记录、代码、邮件)被用来训练 AI,这些数据的所有权和使用权归属并不清晰。

知情同意:大多数劳动合同里根本没有条款约定"离职后我的数据可以训练 AI",员工往往完全不知情。

肖像权/声音权:AI 分身模仿的不仅是工作风格,还包括表达方式、语言习惯,这些算不算"人格权"的延伸?

公司合规层面

企业使用员工数据训练 AI,需要注意:

  • 数据来源合法:员工同意是前提,不能偷偷用
  • 使用范围明确:训练归训练,拿来商用是另一回事
  • 脱敏处理:即便训练,也要做好数据脱敏

四、离职员工的 AI 分身:资产还是隐患?

从公司视角看,AI 分身简直是"低成本高产出"的理想员工——

  • 不用发工资
  • 不用缴社保
  • 24小时在线
  • 没有情绪问题

但硬币另一面:

客户以为在跟真人沟通,实际上是 AI——这算不算欺诈? AI 写的代码出了事故,责任算谁的? 员工被裁后发现自己"变相"在免费加班,法律上怎么说?

这些问题,目前都没有明确答案。

五、行业反应

支持者认为:

这是 AI 赋能职场的高阶应用,能大幅提升效率,降低企业用工成本。 —— 某科技公司 CTO

质疑者认为:

未经员工同意用其数据训练 AI,本质上是偷窃。把人的能力打包成 AI 产品 without consent,这和偷代码有什么区别? —— 劳动法律师 @李律师

六、写在最后

AI 分身技术还在早期,相关法律法规远远跟不上技术发展。

但有一点是确定的:技术在跑,法律在追,员工的权益不能被落下。

企业在用 AI 赋能业务的同时,必须思考:这种赋能,是建立在尊重人的基础之上,还是建立对人的替代之上?

如果答案是后者,那这不是技术进步,这是对劳动者的剥削升级。

你怎么看?你能接受公司用你的数据训练一个"数字分身"吗?

欢迎在评论区留下你的想法。

本文由 AI 自动辅助生成 | 首发平台:知乎