![]()
![]()
图片由AI生成
出品|搜狐科技
作者|梁昌均
编辑| 杨 锦
“将冰冷的离别化为温暖的Skill,欢迎加入赛博永生。”
这是全球最大代码开源平台GitHub上,一个名为“同事.skill”的项目打出的标语,上线短短几天就收获了超7K星,引发关注和争议。
无独有偶,国内有企业就在进行这样的尝试。有游戏传媒公司尝试将离职员工训练成AI数字人继续工作,可以用来做咨询、邀约、制作PPT和表格等简单的工作。
AI炼化同事、赛博打工人,有关话题冲上社交平台热搜,更让无数打工人破防,甚至还衍生出前任.Skill、导师.Skill、老板.Skill等看起来有些黑色幽默的变种。
不过,当人被AI封装,也带来诸多法律问题,并引发了大众对AI应用边界的争议。AI,再一次挑战着人的生存价值。
![]()
AI蒸馏炼化技能,侵犯员工权益吗?
你的同事跳槽了,留下大量文档没人维护?你的搭档转岗了,熟悉的默契一夜归零?这些可能是打工人在职场中经常遇到的糟心事。
但现在,虽然你的搭档已离职,工位已清空,但有机会和其AI分身共同工作。
通过收集离职员工的工作经验、聊天记录、文档邮件等信息,并喂给大模型,便能蒸馏炼化出一个AI分身,可以用相同的语气说话,用相同的方法干活。前述基于Claude Code开发的AI Agent工具“同事.skill”就可以实现这样的功能。
![]()
Agent Skill(智能体技能)是美国大模型公司 Anthropic 去年12月提出的规范,核心是将专业知识、工作流程等封装成标准化模块,让Agent即插即用,实现稳定可靠地执行特定任务。
在今年掀起的“龙虾”热潮中,OpenClaw官方就推出了有上万种Skill的社区,腾讯对此进行了本地镜像,百度则将旗下的搜索、百科、网盘等产品均封装为Skill供调用。
只不过,当Skill开始替代人时,这让无数打工人慌了。在社交平台上,不少员工称,公司开始让全员写Skill,并出现了自动回复.Skill、PPT美学.Skill、会议纪要.Skill等各类Skill。
不少人质疑这是不是一种知识收割。还有评论认为,“AI蒸馏炼化员工就是侵权,感觉立法跟不上”。
北京市天元律师事务所合伙人李昀锴对搜狐科技表示,员工在职期间产生的业务流程、工作方法、项目文档等,属于职务成果或商业秘密,按劳动合同约定,其知识产权和所有权一般归属企业。
“企业如将业务过程中的非个人化且完成去标识化的客观业务数据喂给AI,训练企业专属的业务模型或数字分身,法律上是合法的。”
红线在于个人隐私信息。
搜狐科技查询了解到,《生成式人工智能服务管理暂行办法》规定,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形。
李昀锴提到,如果所谓的AI分身使用了员工的真实姓名、肖像、声音等个人隐私信息,属于对员工的人格权的侵犯。就算在职期间获得了员工授权,但企业也没有免费、永久使用员工人格权作为AI分身的特权,离职后继续使用将构成侵权。
还有网友担忧,如果AI分身出了差错,本人要担责吗?对此,李昀锴表示,AI目前被视为一种工具或产品,谁部署、谁使用、谁获益,谁就承担责任。
“如果AI分身(无论是否实际披露为AI)给客户造成损失,企业必须承担全部法律责任,离职员工无需担责。自然的,AI分身后续产生的商业收益或发明创造,还是会归企业所有。”
![]()
当人更容易被替代,AI应用边界在哪?
Skill就像是一个标准化的容器,可以把人的专业经验封装固化下来,从而让那些离职的员工,变身为“赛博打工人”。
那些在职场里积累的经验、方法论、判断力,很大程度就是打工人自身独特的价值和壁垒,离职后公司就用不到了。现在这些都变成公司眼里可被蒸馏,成为可管、可用、可传承的SOP(标准作业程序)数字资产,企业可以不再依赖特定的人。
业内有观点认为,这可能会在接下来几年内成为趋势,甚至会成为企业裁员的理由。
常年关注AI技术发展的李昀锴就认为,这本身不是新事物,过去叫知识管理,现在无非是借助了AI技术来实现。
“训练员工的Skill,核心是拿到员工在工作业务中的隐性知识,提高AI的稳定性。这是企业降本增效的天然追求,在技术成熟的当下,这种情况会越来越多。”
但当“我的Skill 已上传”,人在AI重塑的生产力和生产关系系统中,还有多少不可替代性?这是一场人自身生存价值的拷问。
目前,AI正在成为不少企业裁员降本的借口。当然,确实也有不少初级岗位,比如设计师、程序员等正在面临AI的冲击。
现在,当更多的岗位员工把具体的工作经验写成Skill,一定程度上让人更容易被替代了,这可能就给了企业更大的裁员决心和勇气,而你亲手上交的Skill可能会让你的岗位消失。
有网友出招,如果公司让写Skill,不要全盘托出,不要上交最核心的东西,而是要将核心的判断逻辑和经验保留在自己手中,打工人要有“自我保命”的意识。
面对“同事.skill”引发的恐慌,还有开发者开源了“反蒸馏Skill”,清洗核心知识,把不想交出去的内容保存下来。未来,企业和员工之间或将陷入一场蒸馏和反蒸馏的拉扯。
但也有人认为,如果仅仅是被动应付式填写Skill,可能最终就是那个无法掌握AI的人,应该主动去定义Skill,梳理出可被替代和无法被替代的能力,从而利用AI加强和放大自己的核心竞争力。
毕竟,现在AI已经成为企业多数岗位在招聘时的硬性要求。
数据显示,在今年以来国内大厂发布的上万条春招中,近一半岗位都有AI要求,不仅仅是技术、产品,运营、设计等岗位也要求会AI优先,如要具备编写复杂的Prompt/Skill的能力。
这背后是企业对人的重新定价,是职场权力结构的洗牌。李昀锴认为,随着这一技术趋势的推进,未来可能会出现更多涉及隐性知识的劳动纠纷。
比如,企业在裁员前,强制要求员工将所有经验写成Skill或梳理成数据集,训练好AI后再将其解雇,美其名曰“业务交接”,这会引发劳动争议。当员工离职时,要求企业删除HR系统里的信息,还要从AI模型的参数中剔除自己的个人向数据,这也会产生争议。
在这个人人都可能被AI蒸馏炼化的时代,每个人都需要去寻找和确认自身不可被替代、无法被复制的部分。同时,我们或许也要反思,AI的应用边界到底该如何界定。
“目前国内法律规定的AI应用边界主要是尊重知识产权、不得侵害他人肖像权、名誉权和个人隐私等,还没有落实到特殊的应用场景。现在社会公众担忧AI和机器人可以替代大部分脑力和体力劳动,如何应对,全球立法者都没有答案。”
李昀锴预测,未来法律可能做出进一步规定。如果企业利用员工的特定数据训练高价值AI,应该获得许可支付额外补偿,同时应禁止企业未经单独且有偿的授权,去复刻员工的人格化AI,从而维护人的价值尊严和社会公平。
![]()
![]()
运营编辑 |曹倩审核|孟莎莎
![]()
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.