如果离职员工被训练成AI数字人继续工作,该紧张吗?
2026-04-08 17:56
据媒体报道,该公司一位在职员工称,这是公司的一次大胆尝试,事件中的同事是真离职了,经过他同意,他本人也觉得挺好玩的。该同事离职前是人事专员,数字分身目前能做咨询、邀约、制作PPT和表格等简易工作,有点笨,只能应对一些简单指令。
虽然当事人不介意,但在网络上却炸锅了。“同事被炼化了”“我的全部努力变成了数字燃料”“往好了想,这也算数字永生呢”……紧张、无奈、苦笑,成了评论区的集体表情。那么,为什么出现一个离职员工的数字分身,会让网友如此紧张?
图片由AI生成
一
“数字员工”并不是突发奇想,而是一个正在逐步“成型”的技术。
据报道,如今AI界已经有了一个“同事.Skill”的项目,其功能为利用离职同事的工作数据,通过AI生成能够替代其工作的数字同事。一经发布就爆火,还有人搞出了“老板.Skill”“前任.Skill”等衍生产品。
要说这个技术多么高级,其实也谈不上。有专业人士拆解称,目前“数字员工”就是一个遵循智能体技能标准的提示词+爬虫工程项目,相当于给演员一个剧本,让他按剧本风格表演就行了。这个智能体不仅没有记忆,不记得昨天说了什么,也没办法蒸馏出“专业知识和判断逻辑”。
说白了,这和鹦鹉学舌没什么本质区别。至少就目前而言,这样的数字分身不能像一位真实员工一样“对齐颗粒度”“实现项目闭环”“打通底层逻辑”,更不能“背锅”。
那么,它为什么还是让职场人紧张?
这可能就是一种“恐怖谷”效应了:当AI足够接近“人”,却又在关键之处明显不是“人”时,人会本能地产生违和与不安。这种不适来自一种感知层面的错位——它在模仿人的表达、语气与行为逻辑,却缺乏真正的理解与经验支撑,于是呈现出一种既熟悉又陌生的状态。
虽说数字分身现在还没有那么聪明,但是所有人都知道,它和机器人不一样,它是离职同事留下的残影,是“形似而神离”的,既无法完全当作工具,也难以真正将其视为一个人。
正因此,人们感到了不安——并不是这个东西本身多么厉害,而是一种边界的松动:“人”和“非人”还能清晰界定么?
二
AI的狂飙带来了一种趋势:人类正在失去对自我的掌控,我们自以为的性格、思维逻辑、行事方式,所有这些“人性”,似乎都可以被数据化。
这并不是一种没来由的担心。国外最近就掀起了讨论——“监控资本主义”。说的是科技、信息和社交媒体领域的大公司系统性地剥夺个人数据,并将这些数据据为己有。这种数据收集规模庞大,为强大的算法和机器学习系统创造了条件,使其能够预测人们的行为。这种监控又极其不对等,一方能看到另一方, 而另一方却看不到对方。
职场人也难以独善其身:一个个普通人被数据化,进入了平台与组织的体系之中,所有的表达习惯、判断路径、沟通风格,被拆解为可以复用的模块。经验不再只是“经历”,而变成了可以被复制、被调用的“资产”。人仿佛被抽空为一组可以随时调用的数据集合,留下的是模型,消失的是主体。
在这个过程中,公司受益,还没离职的员工也能受益(获得前同事的虚拟陪伴),真正被“留存”的那个人(数据),却逐渐被排除在价值分配之外。
由此,人似乎变成了某种程度上的耗材。一旦数据提取完毕,也就毫无价值了。这一幕只要想象,就已经非常让人不安。
肯定很多人会想,能不能通过法律的方式,保护自己的权利?
已经有法律人士提出,这种数据蒸馏已经涉嫌违法。离职员工的聊天记录、工作邮件、个人工作习惯等,属于《个人信息保护法》界定的个人信息,其中涉及的私密沟通内容还可能构成敏感个人信息。未经员工同意收集、使用该类数据训练AI,直接侵犯其个人信息的收集、使用、加工权。
同时,依据《生成式人工智能服务管理暂行办法》规定,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。
但客观来看,这当中存在相当多的模糊地带。私人聊天、邮件邮箱或许可以被认定为隐私,那么群聊发言、撰写报告、会议讲话呢?这些和工作岗位相关、发布于公开场合的内容,是否可以要求公司不抓取?
平心而论,对于企业来说,有价值的恐怕不是什么“说话风格”,这更像是玩梗的行为艺术,也不会是老板们最在乎的;最容易被盯上的,是那些能够被沉淀为流程、判断与经验的部分。
但这些被沉淀下来的部分,都和职场高度相关,“所有权”恐怕很难界定。总不能说一个员工离职,然后把自己参与的所有讨论纪要都带走吧?别说AI会学习,哪怕离职前又何尝不会让员工好好“交接”一下?
三
当然,这不意味着职场人的“天塌了”。工作成果或许有公共性,但其间的个人信息依然是隐私。比如写的报告是公开的,那么在聊天记录里留下的“我在家旁边的咖啡店加班”“最近生病要晚点交”这些个人信息,是不是可以被明确为个人信息,拒绝公司滥用?
这可能是非常细节的问题,却恰恰决定了边界能否真正成立。也只有在这些看似不起眼的场景中,把“什么可以用、什么不能用”“什么是工作、什么是隐私”辨别清楚,个体才不至于在被数据化的过程中被整体打包、无差别地“蒸馏”。
让法律规定逐渐明晰,至少也是一种安慰:也许打工人很难避免被“榨干”价值,但至少能避免被“炼化”,留住人之为人的主体性。
仔细想想,对数字分身最恐惧的职业,其实还是传统的工作模型:内容机械、流程高度标准化、主要依托经验主义的工作。这种工作终究是最容易被拆解的,一旦“蒸馏”就一览无余,迅速可以替换。这个问题,或许不是数字分身才会带来威胁,只要随着技术进步,危险就会到来。
这次数字分身所引发的讨论,其实也是一次提醒:得尽快自我拯救。这甚至还能成为一个反向提醒:为什么我们不能先“炼化”自己呢?
这并不是说我们都要复刻自己,这太怪异。而是我们自己要掌握AI的能力,把那些可以被提炼的部分主动梳理出来、结构化出来,由自己来定义、由自己来使用:哪些经验是可复用的,哪些判断可以沉淀为方法,哪些流程可以交给工具完成。
一句话,把可复制的部分交给系统,把不可替代的部分留在自己身上。
这就像前不久兴起的“养虾热”,虽说因为安全问题而降温了,但引发的全民热潮其实是一种正向的态度——不再被动等待技术筛选,而是主动参与进去,理解它、使用它,尽快找到一个可以替代机械工作的工具。
这可能也是我们应对所有AI挑战的办法,尽快把自己从繁琐的流程性工作中解脱出来,然后找回自己的“人性”,找到自己人之为人的、不可预测的创造性,去抵御依据大数据的机械模仿。
必须要看到,职场已经在重塑了:AI不会取代你的工作,但“会用AI的人”会。重塑自己不是将自己变成数据,而是彻底变成无法被数据定义的人。