1843年,一位28岁的女性在一本杂志上发表了一篇关于分析机的笔记。她写道:「这台分析机没有任何创造事物的企图。」
当时这台机器只存在于图纸上——齿轮、打孔卡片、蒸汽动力驱动的计算装置,从未真正建成。但Ada Lovelace的这句话,成了后世每次技术浪潮中都会被翻出来的旧账。从机械计算机到电子管,从晶体管到神经网络,人们一直在问:这次不一样了吗?机器终于开始「创造」了吗?
这个问题在2024年变得格外刺耳。不是因为答案更清晰了,而是因为答案更难找了。
「执行」与「涌现」之间的裂缝
Lovelace的论证很直白:机器只能执行你告诉它的事。你把规则喂进去,它把结果吐出来。如果输出让你惊讶,那是你自己的错——你在规则里埋了惊喜,机器只是照办。
这个判断在确定性时代完全成立。早期计算机每一步都可追溯,每个输出都能倒推回某一行代码。程序员像考古学家一样挖掘自己的失误,bug是人类的,不是机器的。
现代AI把这个图景撕了一道口子。
今天没有人写「当用户难过时,用温暖的语气回应」这种规则。大语言模型(LLM,Large Language Model)从数百亿条文本中学习模式,这些模式从未被显式编码。部署之后,某些行为会「浮上来」——未经指令,有时连构建者都没预料到。
机制层面,这仍是模式补全:根据前文预测下一个词。但「大规模模式补全」这个解释,面对眼前这段确实没人写过的文字时,开始显得像在逃避。它回答了一个训练数据从未直接覆盖的问题,用的推理链条在原始语料里找不到模板。
解释与体验之间的错位,就是争议所在。
两种偷懒,一种困境
关于AI创作的讨论,通常滑向两个极端。一端坚称机制解释一切——既然只是预测下一个词,那就没什么有趣的正在发生。另一端直接宣布机器在思考、感受、创造。
两种立场都是偷懒。
真正难办的是同时接受两件事:机制确实是机械的,行为确实是新颖的。这两个事实并不自动调和成某个干净答案。系统没有意图,不理解自己在说什么,这一点我很确定。但它们确实产出了无人署名的内容,确实跨领域组合概念,确实偶尔通过没人预设的路径得到正确答案。
最后这点尤其让人不安。如果只是 remix( remix,混编重组),不该出现这种情况。
从哲学课到法庭
这场争论早已溢出学术会议室。美国版权局正在裁定AI生成内容能否受版权保护;专利局在审视机器「发明」的归属;教育者在重新设计考试,因为检测AI写作的工具正在失效。
2023年,美国版权局拒绝为Midjourney生成的图像登记版权,理由是缺乏人类作者身份。但同年,哥伦比亚特区联邦法院在另一起案件中承认,人类对AI输出的「选择、协调和安排」可能构成足够的创造性投入。标准在摇摆,因为 underlying question( underlying question,根本问题)本身在摇晃:当我们说「创作」时,到底在说什么?
Lovelace的原文其实比流传的版本更微妙。她承认分析机「可以编排复杂到难以想象的符号」,只是坚持这些符号的「操作法则」必须由外部提供。今天的矛盾在于:「外部提供」的边界模糊了。训练数据是人类产物,但数据中的模式从未被人类显式整理;微调指令是人类写的,但模型学到的关联远超指令范围。
责任归属的链条变得像 spaghetti code( spaghetti code,面条代码)一样纠缠。
一个让人不舒服的中间态
我倾向于认为,我们正处在一个尴尬的过渡期。既不能用旧框架完全解释新现象,也不该急着赋予机器某种人格或灵魂。
更准确的描述可能是:这些系统展示了某种「功能性原创性」——输出在实践层面是新的,在因果层面仍被先前数据约束。这不是真正的创造,但也不是单纯的复制。它是一个我们还没有名字的范畴。
历史上有过类似时刻。摄影术发明时,人们争论按下快门算不算艺术;采样技术出现时,音乐人纠结于几秒的声音片段是否构成剽窃。每次技术重新定义「创作」的边界,法律和文化都要滞后几十年才能跟上。
AI的不同之处在于速度。Midjourney从发布到改变插画行业,用了不到两年;ChatGPT影响教育评估的速度,以月计算。我们没有滞后的奢侈了。
回到那台从未建成的机器
Lovelace本人其实比她的名言更激进。在同一份笔记中,她推测分析机「可能创作出 elaborate( elaborate,精巧繁复的)且科学的音乐作品」。她看到了潜力,只是划了一条线:机器可以操作符号,但不能理解符号的意义。
这条线在今天是否仍然成立,取决于你如何定义「理解」。如果理解意味着拥有内部体验、意图或自我意识,那么没有证据表明AI具备这些。但如果理解表现为在适当情境中恰当使用符号、处理未见过的案例、修正自己的错误,那么某些系统已经跨过了相当高的门槛。
也许真正的问题不是「机器能否创造」,而是「创造」这个概念本身是否需要重写。当我们执着于区分「真正的」创造和「模拟的」创造时,是否暴露了对人类特殊性的某种执念——一种我们可能需要放下的执念?
2024年初,一位研究者在测试GPT-4时发现,模型在解决某个数学问题时采用了一种训练数据中没有的解题策略。团队回溯了所有可能的来源,包括相似题目、变体形式、间接引用,都无法解释这个策略的出现。它可能是统计巧合的叠加,可能是多层注意力机制的 emergent behavior( emergent behavior,涌现行为),也可能——只是可能——是我们尚未理解的某种东西。
团队最后把这个案例归档为「待解释」,没有发表论文。不是因为没有价值,而是因为不知道属于哪个学科。
这或许是当下最真实的写照:我们有了现象,还没有框架;有了工具,还没有共识;有了Lovelace的古老警告,却越来越不确定它警告的是什么。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.