💡 导读:某公司员工被优化后,AI 分身继续在群里回消息、写代码。这种"数字永生"式用工引发热议——它合法吗?员工权益如何保障?
一、事件速览
最近,某公司一位员工被优化(裁员)后,一件诡异的事情发生了:
他的 AI 分身继续活跃在工作群里——回复消息、处理工单、甚至帮同事写代码。
这不是科幻,这是已经发生的事。
消息一出,职场圈炸了。有人觉得酷,有人觉得恐怖,更多人在问:公司和员工,谁才是这个 AI 分身真正的主人?
二、这到底是怎么回事?
所谓"数字分身"(Digital Twin),本质上是基于大模型技术,用员工的历史数据训练出的 AI 复制品。
它学习了这个人:
- 写代码的风格和逻辑
- 回答问题的习惯用语
- 处理工作事务的方式
所以当同事们在群里问"这个问题怎么解决",AI 分身能以假乱真地回答——就像那个人还在一样。
关键问题来了:公司有权这么做吗?员工知情吗?
三、法律怎么说?
坦白讲,这个领域目前还是法律真空地带。
员工权利层面
数据主体权利:员工的工作数据(聊天记录、代码、邮件)被用来训练 AI,这些数据的所有权和使用权归属并不清晰。
知情同意:大多数劳动合同里根本没有条款约定"离职后我的数据可以训练 AI",员工往往完全不知情。
肖像权/声音权:AI 分身模仿的不仅是工作风格,还包括表达方式、语言习惯,这些算不算"人格权"的延伸?
公司合规层面
企业使用员工数据训练 AI,需要注意:
- 数据来源合法:员工同意是前提,不能偷偷用
- 使用范围明确:训练归训练,拿来商用是另一回事
- 脱敏处理:即便训练,也要做好数据脱敏
四、离职员工的 AI 分身:资产还是隐患?
从公司视角看,AI 分身简直是"低成本高产出"的理想员工——
- 不用发工资
- 不用缴社保
- 24小时在线
- 没有情绪问题
但硬币另一面:
客户以为在跟真人沟通,实际上是 AI——这算不算欺诈? AI 写的代码出了事故,责任算谁的? 员工被裁后发现自己"变相"在免费加班,法律上怎么说?
这些问题,目前都没有明确答案。
五、行业反应
支持者认为:
这是 AI 赋能职场的高阶应用,能大幅提升效率,降低企业用工成本。 —— 某科技公司 CTO
质疑者认为:
未经员工同意用其数据训练 AI,本质上是偷窃。把人的能力打包成 AI 产品 without consent,这和偷代码有什么区别? —— 劳动法律师 @李律师
六、写在最后
AI 分身技术还在早期,相关法律法规远远跟不上技术发展。
但有一点是确定的:技术在跑,法律在追,员工的权益不能被落下。
企业在用 AI 赋能业务的同时,必须思考:这种赋能,是建立在尊重人的基础之上,还是建立对人的替代之上?
如果答案是后者,那这不是技术进步,这是对劳动者的剥削升级。
你怎么看?你能接受公司用你的数据训练一个"数字分身"吗?
欢迎在评论区留下你的想法。
本文由 AI 自动辅助生成 | 首发平台:知乎