![]()
前一阵子,一位朋友发给我一个链接。那是某AI平台上的付费产品,号称可以模拟某位意外离世的知名教育博主的风格,回答高考志愿填报问题。模型调得不错,头像、语气、甚至那种略带戏谑的口头禅都还原得有模有样。
我尝试着玩了几分钟,然后关掉了页面。但有一种感觉没有随页面一起被关闭,那是一种隐隐的不安。
从2017年开始,我就在尝试把自己的思维方式、审美偏好、工作逻辑,一点一点编码进AI工作流里。朋友调侃说,你这不也是在做一个陈楸帆Skill吗。表面上看确实像,也许这就是我不安的由来,但后来我终于想清楚了,两件事之间有着根本性的区别。
主体的权力
我是工具的制造者和持续使用者。这个系统服从于我不断演化的判断。哪天它生成的东西偏离了我当下的审美,我随时可以改提示词、换模型、乃至推翻整个流程重来。主导权始终在我手里。
但如果是别人来做一个关于我的Skill,即使用意再好,那个数字化身的内容和边界就是由他人决定的。我没有参与制作过程,没有持续修正的权利,不知道它会在什么语境下被调用,更不知道有多少人会把它的输出当作我本人的立场。
这个主体性的位置差异,才是真正的分水岭。
有没有经过本人知情同意,当然是最起码的条件。2024年,加州签署了AB 2602法案,开始要求娱乐行业合同中明确涉及AI复制演员声音和肖像的条款。法律在努力追赶现实的狂飙突进。但法律能解决的主要是告知和授权的程序,更深的问题还在授权之后。
这个Skill是谁在主导制作?是当事人在把自己的知识主动延伸出去,还是他人在把一个人的话语提炼成可销售的商品?后者即使获得了合法授权,仍然需要追问:被封装的那个人,对这个Skill对外所代表的形象,是否拥有持续的纠错能力?
现实中,绝大多数授权协议在签字之后就进入了一种信息不对称的黑箱。产品迭代、用户反馈、市场定位的调整,全部发生在授权者的视野之外。签名不保证任何事情。
福柯四十年前就看得很清楚:知识的生产本身就是权力的行使。制作一个人的Skill意味着对这个人进行一次知识的蒸馏与再生产。哪些特征被保留,哪些被删除,什么被标注为核心,什么被当作噪声丢弃。这些选择看上去是技术性的,每一步却都是权力的施行。它在定义什么是这个人的本质。而这种定义,本来只应该属于那个人自己。
逝者的形状
对在世者和已故者,我们需要完全不同的讨论框架。
在世的人,无论那个Skill多么失真,至少他的后续言行本身就构成对封装形象的动态修正。他可以公开说那不是我,可以用新的作品推翻旧的标签,可以让所有人看到他的思考远比任何单一模型复杂。阿伦特有一个准确的词来描述人之为人的核心能力:诞生性(natality)。每个人随时可以发起一个全新的行动,让所有既有判断落空。
活着的人还有这种能力,但逝者彻底失去了更新自身副本的可能。
2020年,韩国MBC电视台做了一期节目,用VR技术让一位母亲与已故女儿的数字重建体相遇。那位母亲戴着头显,走进一片虚拟的草地,看到女儿的影像向她跑来。她伸出手去。手穿过了空气。她还是弯下身,做出了拥抱的姿势,对着那片空气说话、流泪。
画面播出后引发了激烈的争论:技术公司说这是疗愈,批评者说这是消费死者。无论立场如何,有一件事是确定的:那个女儿没有任何机会对这件事表达自己的看法。她被铸成了一个固定的模型。活着的人可以打碎模具,让世界重新认识自己。死者永远困在最后一次浇铸的形状里。
我并不反对制作已经逝世的大师,比如鲁迅、卢卡奇或博尔赫斯的研究辅助工具。学者和传记作者几百年来做的事情,本质上也是整理和传递一个人的思想。但学术工作有它内置的校准纠偏机制:引用有出处,历史性的判断可以被后来者推翻,诠释永远是开放的。一个声称能代替原人作答的Skill,如果缺少这种机制,它贬低的恰恰是原型的复杂性。
任何人的思想都无法被完整封装。这个判断不只是对当前技术局限的描述。它更接近一个哥德尔式的逻辑悖谬:一个足够丰富的系统,总包含无法在系统内部被穷尽的东西。人比他说过的所有话、写过的所有字、做过的所有事的总和更多。
越界的裂缝
当前技术层面,这些Skill是基于公开语料的风格拟态。它模拟的是某种输出模式:用词习惯、句式偏好、知识领域分布、论证风格。这些东西加在一起,并不等于那个人。这是毋庸置疑也是不言自明的事实。
但这个技术事实和产品的市场化呈现之间,存在一条刻意制造的认知裂缝。
产品卖的从来不是风格拟态工具本身。产品卖的是一种感觉:你正在与那个人本人交谈。界面设计、文案措辞、交互逻辑,一切都指向这种幻觉的制造。
这种责任不能完全推给用户的误读。MIT的谢里·特克尔研究了几十年人与数字实体的关系,结论始终一致:人类对具有回应性的数字对象会产生真实的情感依附,无论对方是否拥有真正的智能。一个在凌晨三点对着某位名师Skill倾诉职业困惑的年轻人,他的焦虑是真实的,他的信任是真实的。这种真实性不该被当作营销可以利用的心智漏洞。
从这里可以推出一个我认为至关重要的设计原则:任何Skill的呈现,必须清晰内置一个前提,即它只是某人知识的整理工具,而非这个人的替代者。这不只是加一句免责声明就能解决,而是从整个产品的设计哲学从根本上必须体现的态度。一旦Skill开始声称自己能代表一个人,它在伦理上就已经越界了。
谁被编码,谁在编码
还有一个被严重低估的不平等问题。
我有能力主动参与自身的编码,是因为我具备相应的技术认知和批判能力,有接触最新模型的渠道,有足够的文化资本让自己的声音不被随意挪用。这些条件在大多数人那里并不成立。
想一想:一个在短视频平台上小有名气的乡村教师,他的教学方法在当地很受欢迎。有人把他的公开课视频全部下载,喂给大模型,做了一个他的教学Skill,在另一个平台收费出售。他可能根本不知道这件事发生了。即使知道了,他有能力发起法律行动吗?有能力在技术上理解发生了什么吗?有能力在同一个传播量级上发出修正信息吗?
马克思分析商品拜物教时说过,社会关系被转化为物与物之间的关系。Skill化做的是更精致的版本:人与人之间的知识传递关系,被转化为用户与产品之间的消费关系。一个人一生积累的教学经验、表达方式、对学生的理解力,变成了另一家公司资产负债表上的无形资产。劳动者创造了全部价值,价值的实现和分配却完全在他的控制之外。
如果对知识编码是一种特权,那么未经同意的Skill化就会沿着权力分布的结构展开。越是没有自我表征能力的人,越容易成为他人编码的客体。降低AI的使用门槛并不能改变这个结构,正如互联网的普及并没有消除数字鸿沟的深层逻辑。这个问题要求有约束力的制度规范,而不仅仅是行业的自律宣言。
未完结的追问
写到这里,我必须提一个会令很多人不舒服的问题,也包括我自己。
我们每天使用的大语言模型,它是怎么训练出来的?数以亿计的文本,来自无数我不认识的人,他们中的绝大多数从未被告知自己的文字会被用于训练一个商业AI产品。我借助这个模型延伸自己的能力、更高效地创作、更快速地思考。我站在一个由他人被非自愿编码所搭建的平台上。
技术本身是中性的吗?这个老问题不值得重复,技术绝对不是在真空里运行。值得重复的是后半句:如何确保它能够成为普惠性的基础设施。
谁来制作,谁来获益,谁在缺席,这个Skill最终服务于谁。这四个问题决定了每一个具体的行为究竟站在技术伦理的哪一侧。
当一位学者为自己的学生制作一个组织自己多年研究成果的问答工具,清楚标注它只是索引而非替代,所有收益归学者本人,学生清楚知道这只是辅助。当一家公司在未经授权的情况下,用一位公众人物的公开发言训练了一个以他名义提供咨询的付费产品,利润全归公司,用户以为自己在与本人对话。
大多数现实案例落在两个极端之间。而这片灰色地带,正是制度设计应该介入的地方。
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.