全文 4,000字 | 阅读约 13 分钟
![]()
(TED演讲:从纸带实验看AI智能的本质)
你以为,AI 必须“理解你”,才能把事办成?
谷歌副总裁 Blaise Agüera y Arcas 却说:错了,它根本不需要懂你,只要能预测你就够了。
这不是文字游戏,而是智能设计的底层逻辑。
在最近的 TED 演讲《The Intelligence of Us》中,Blaise 提出一个重要观点:
智能不是关于像不像人,而是能不能预测,并在协作中落地。
Blaise 的身份,不只是谷歌副总裁兼研究员,也是 Technology & Society 的 CTO。他既做基础研究,也做产品落地。你手机里的预测功能,很多人每天都在用:
听歌识曲功能: 离线识别正在播放的歌曲(他于2017年首发,无需联网即可预测歌名)
智能输入法:预测你想打的下一个词,同时保护隐私(采用联邦学习与差分隐私技术)
这两条产品线,有一个共同点:不是追求理解,只求预测管用。
所以真正值得问的问题,不是“AI 懂不懂人话”,而是:
哪些工作环节,AI 能给出可靠预测?
哪些重要决策,必须由人来做?
如何建立检验机制,让 AI 从实验室走向实际应用?
这些问题的答案,很可能决定你们公司今年的 AI 落地效果。
第一节|不是懂你,是能帮你做事
我们一直以为,用来预测下一个词的模型,只能做点简单任务。 但这些模型现在能回答情境类问题。 比如故事中角色的情绪,甚至数学题,这让我们非常吃惊。
这是谷歌副总裁 Blaise 在演讲中讲的一段回忆。
他指的是一种大多数人并不熟悉、却天天在用的 AI 能力:预测下一个词。
比如你打字时,Gboard 自动给出“你可能要输入的词”;打开 Pixel 手机,它自动识别正在播放的歌曲。这些功能都不是“理解了你”,而是预测你会说什么、做什么。
一开始,人们普遍以为: 预测只能预测一些“八成会发生”的东西。 “Humpty”后面大概率是“Dumpty”,这不叫智能,叫押韵(Humpty Dumpty 是英语童谣,相当于"小白兔白又白")。 可接下来的事,Blaise 说,颠覆了他们的判断:
“如果前面的内容是一个数学应用题,或者是一个故事,而你要预测的是故事里某个角色的情绪,我们原以为模型是做不到的。但它做到了。”
这是什么意思?
它不是机械地往下填空,而是从你写的内容中,推断出角色是谁、发生了什么、现在该怎么回应。
而这,靠的还是预测。
1、预测怎么变成“智能”了?
Blaise 的回答来自神经科学。至少从 19 世纪开始,神经科学就有一种理论:人脑的本质,是用过去来预测未来。我们拥有神经系统,是为了让我们能预测环境,调整行动。
换句话说,你的大脑并不是靠完全理解世界来做决策的。
而是靠快速预测:“接下来可能发生什么”“如果我这么做,会怎样”。
预测得准,就活得久。 预测得稳,就少犯错。
智能,不是源于理解,而是源于能把预测和现实匹配起来。
语言模型也是这样。它没看懂你写的东西,但它不断尝试——你给我一句话,我猜你下一句会说啥;你说了一个设定,我猜你会怎么展开;你停顿了,我来补一下。
只要它给出的结果,让你觉得“对”,那它就赢了。
而且,它学得越多,这种“匹配”的能力就越强。
2、所以关键不是理解,而是配合
Blaise 说,他们原以为这种模型“在本质上会非常有限”, 但结果却是:
它不仅回答对了情境问题,还能完成之前认为属于通用智能的问题。
这改变了一切认知。
我们以为预测只能做表面,结果它做到了一定程度的配合、推理、归纳和判断;
我们以为 AI 要先懂你,才能帮你,结果它靠预测就能顺着你的想法走下去,甚至走得更快。
这就像一个没有共情能力的人,却能精确模仿你说话的节奏、语气和话题点,到最后你甚至会觉得“它好像很懂我”。
但真相是:
它根本没“懂”,只是太会预测了。
这,才是大语言模型爆发的关键所在。
第二节|AI 不是对手,是协作伙伴
语言模型的预测能力,已经不只是说得对。 它现在开始能“做得成”。
这意味着什么?
它不是靠理解目标,而是靠不断预测下一步动作,把一件事从头做到尾。
不是我们事先教会它流程,而是它从对话中预测你的意图,主动补上下一步。
1、举个你能感受到的场景:
你说:“帮我写一份面试邀请邮件,别太官方。”
它立刻给出一版邮件,语气自然,还替你考虑了时间、联系人和回复链接。
你没给模板,也没规定格式,它就是能写出你大概想要的东西。
再比如:
你说:“这段代码是不是有问题?”
它不只指出问题,还改好了,顺便加了注释。
你并没有给出流程、规范、目标、验收标准,但它都给补上了。
为什么它能做到这些?
Blaise 的原话是:我们没有给它设定'这类任务怎么做'的规则,而是让它通过大规模预测训练自己学会了通用能力。
这说明:
"模型不是真的理解你要什么,而是在预测你下一步的想法。
它不是有意识地制定计划,而是预测你每一步的可能方向,并主动补上
这种预测,不再只是接下去说什么,而是它推测你打算干什么、要达到什么效果、然后下一步可能干嘛。
它等于是把你的想法变成了行动。
2、为什么它能做到这一点?还是因为预测
Blaise 给出的核心解释是:智能的本质不是规则执行,而是能持续预测你要做什么,并给出能影响你的回应。
通俗的说法是:
如果一个系统能稳定判断你想干嘛
并在你还没开口之前,就给出下一个合适动作
而且这个建议你认可、能把事情往前推 → 那它就等于成了你的"代理人"
不是机器人按命令执行,而是 AI 把你还没说出口的想法,提前变成了行动。
这就是为什么 AI 能接管整个工作流程。
3、它怎么知道“哪一步”是合理的?
它不知道。
它只是看过成千上万个你和别人“怎么做事”的例子。 然后在你刚抬起手、话还没说完的时候,它就猜到了你下一步想怎么做。
预测得越准,配合得越默契,任务完成得越顺畅。
AI 不会告诉你"我懂你"——它只是总能猜对你下一句要说什么。
它只需要不断预测你的下一步,然后及时跟上。
一旦预测准确率足够高,AI 就不再只是回答问题,而是能主动推进任务。
这,就是 AI 从"语言模型"走向"行动助手"的分界线。
第三节|智能不是写出来的,是“长”出来的
你有没有发现,现在的 AI 不只是回答问题,还会主动提建议?(小编备注:这节比较抽象,可以直接观看演讲视频)
比如你说"我想学做菜",它不仅推荐菜谱,还会问你有什么食材、想做什么口味,甚至帮你规划一周的菜单。
这种"主动性"是怎么来的?
谷歌副总裁 Blaise 在演讲中分享了一个有趣实验:“我们做了一件非常简单的事:把一堆随机的纸带,每条只有一两个简单指令,丢进一个模拟环境里。
然后不断从里面随机挑两个纸带,把它们粘在一起、运行一次、再分开,丢回去,重复千万次。
一开始什么都没发生。但几百万次交互后,一件神奇的事出现了:那些纸带自己变成了完整程序,而且开始复制自己。”
1、这不是模拟智能,而是“自然长出行为模式”
一开始,这些纸带只是乱码。
没有任何设计,连程序员都不知道它们会干嘛。
但因为每一步都执行了真实的计算指令, 随着交互的增加,一些纸带组合出现了有用的指令组合,能不断拷贝自己、留在系统里。
Blaise 说:
不能复制自己的纸带,最终都会被能复制自己的纸带淘汰掉。
这就像自然界里的选择机制——会繁殖的生物活下来,不会的消失了。
2、那这些“纸带程序”到底在干嘛?
没有人教它们要完成什么任务,它们自己找到了生存逻辑:能复制,就不会被淘汰;复制得多,就越来越强。
![]()
(纸带实验结果图:
X轴—交互次数(百万次),Y轴—计算强度,600万次交互后,随机程序突然涌现出自复制智能行为。)
Blaise 在实验中画出一张如上图,展示整个演化过程:
“前六百万次交互,几乎什么都没发生。但在某一刻,计算量突然飙升。系统从‘随机状态’变成了‘有目的行为’。”
这个转折点非常关键。
没人教它们怎么做,但它们在反复试验中,自己琢磨出了门道、形成了套路、甚至懂得了团队合作。
什么叫团队合作?
这不只是一条纸带能复制自己,而是两条纸带遇到一起时,能更高效地互相帮助复制。
这让 Blaise 想到了进化生物学里的“共生理论(symbiogenesis)”:比如我们身体的细胞,其实是两种小生物住在一起的结果。它们发现合作比单干效果好,于是就永远搭伙了。
也就是说,当这些小纸带联手合作,它们就从单打独斗变成了能共同搭建复杂结构。
3、真正的智能,不是你设计,而是它“搭起来”
Blaise 的判断非常直接:
这些复杂程序,没有哪一条是我们人写出来的。 它们都是在没有人管理、没有说明书、没有预设目标的情况下,自己从混乱中摸索出来的。
你可以想象成:
一开始是零散的行为片段(像现在我们给模型的提示)
然后是“多个片段能组合在一起”,变成任务链条
最后,这些链条之间还能协同、互相适应,形成长期存在的结构
这和今天的语言模型有什么关系?
当语言模型能预测出一整段任务如何完成,并且能和你的行为协同配合时,它已经不再只是"预测工具",而是具备了"结构化智能"——不仅知道下一步做什么,还知道整个事情该怎么完成。
Blaise 的话说得再明白不过:
“你不会用花岗岩雕像说‘它很稳定’。因为它再稳定,也只能等着时间一点点侵蚀。但一个能复制自己的程序,就不一样了。它可以持续存在,持续演化,持续适应。”
这就是智能的另一种样子:
不是死板执行,而是灵活应变;不是真懂你,而是边试边长。
第四节|AI 共生,是一种集体能力
到这里,我们已经知道:
AI 不需要理解你,只要能稳定预测,就能一步步完成任务; 预测多了,就能组成结构,甚至形成"涌现"的智能体系。
但 Blaise 想说的,不止是"模型长出结构"。 他在演讲的后半段抛出更关键的问题:
我们是否愿意接受 AI 成为人类社会的一部分?
这句话的含义非常深。
不是"AI 替代人",也不是"人控制 AI", 而是——AI 已经在参与协作、组成更大的智能网络。
1、人类社会的底层,是协作智能
举个例子:当你坐飞机,驾驶员、管制员、制造商、机场系统,甚至天气预报,都在共同作用。这就是一个超级大的智能协作网络。
什么意思?
你以为是飞行员在飞,但其实是很多角色和工具在协同,人类只是其中一环。 每个人都掌握部分信息,大家共同承担一个结果。
这种协同,早就是现代社会的运行基础。
我们习惯了人与人之间的合作,现在要问的是:
“AI 能不能成为这个协作网络中的一员?”
答案是:AI 现在就已经是这个智能网络的一部分。它在你手机里,在小红书里,在抖音里。
“我们以为自己在控制这些工具,但其实它们早已介入我们的决策链、组织逻辑和社会结构。”
这不是危言耸听,而是现实。
你刷短视频,推荐算法决定你看到什么;
你导航出行,路径是模型算的;
你问 ChatGPT/DeepSeek 一句话,答案背后其实牵动着全球服务器、数据集与规则筛选。
Blaise 的观点是: AI 不是一个外部工具,而是已经参与了社会智能分工的角色。
2、问题不在技术,而在我们怎么共存
所以问题来了—— 既然 AI 已经在场,我们怎么安排它的位置?
关键问题是:我们能不能设定一个结构,让 AI 像 GPS 一样给人类提供稳定的参考,而不是直接干预人类的主观判断?
两个要点:
AI 要可预测、可校验
就像GPS导航一样,大多数时候给对路线,偶尔出错时你能识别出来;
人类要保留决策权
人决定要去哪,AI 只负责建议路径。
也就是说:AI 是集体智能的组成部分,但不应掌控全局。
真正的智慧,不是 AI 有多强,而是人类有没有构建一个清晰的协作架构,能让 AI 灵活接入,同时确保权限可控。
3、最终要走向的,是协同演化
Blaise 在演讲结尾说:
“人类并不是孤立的智能个体,我们一直都是群体智能的一部分。AI 的加入,并不是打破这个结构,而是继续扩大它。”
AI 不应被看作外星人或者入侵者,而是新一代的协作者。
这要求我们重新设计工作方式、组织结构、规则边界—— 不是让 AI 替你做完,而是让它能与你配合,共同完成任务。
结语|AI 不理解你,但能与你共事
AI 不懂人类,也未必需要懂。
Blaise 一句话说得清楚:
它猜得准,不等于真的懂,但合作够用了。
这是一次思维转变:关注协作效果,而不是拟人程度。
今天的大模型,已经能预测词、预测路径、预测操作。 当这些预测够稳定,它就能:
协助你起草邮件、生成代码、排查故障;
嵌入到流程里,自动处理大量重复事务;
参与到更大的集体决策网络中,承担职责。
你需要转变的问题:它能在哪一步,帮你"把事做完"?
用对它,才是你在这个技术周期中的真实优势。
本文由AI深度研究院出品,内容整理翻译自谷歌副总裁 Blaise Agüera y Arcas 在 TEDxCatawba 的演讲。未经授权,不得转载。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
参考资料:
https://www.youtube.com/watch?v=OD5UzhaDWfg&t=44s&ab_channel=TEDxTalks
https://www.noemamag.com/ai-is-evolving-and-changing-our-understanding-of-intelligence/
https://tedxcatawba.com/program?utm_source=chatgpt.com
https://research.google/blog/googles-next-generation-music-recognition/?utm_source=chatgpt.com
https://aclanthology.org/2023.acl-industry.60.pdf?utm_source=chatgpt.com
https://research.google/people/106776/?utm_source=chatgpt.com
来源:官方媒体/网络新闻
排版:Atlas
编辑:深思
主编: 图灵
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.