杰弗里·辛顿(Geoffrey Hinton),英国计算机科学家,被称为“深度学习之父”。他坚持研究神经网络数十年,通过反向传播算法和玻尔兹曼机等成果奠定了现代AI的基础。因对深度学习的卓越贡献,他于2018年获得图灵奖。2023年他离开谷歌,以便自由警示AI可能威胁人类生存的风险。2024年,他因在人工神经网络领域的开创性成就荣获诺贝尔物理学奖。本文基于辛顿教授2026年1月7日在澳大利亚霍巴特发表的公开演讲及问答环节翻译整理,仅供参考。
主旨演讲部分
1. 开场白:智能的两大范式
大家好,很高兴来到霍巴特。我之前没意识到这里的自然环境如此美丽。如果你因为坐在后排看不清屏幕,别担心,我会把幻灯片上的内容基本都说出来。幻灯片更多是为了提醒我该说什么,而不只是给你们看的。
在过去的 60 或 70 年里,关于智能存在两种范式。一种范式受逻辑启发。人们认为智能的本质是推理,而进行推理的方式是你拥有用某种特殊逻辑语言编写的符号表达式,并通过操作它们来导出新的符号表达式——就像你在数学中所做的那样。人们认为,我们必须弄清楚这种表示知识的语言是什么,而研究感知、学习以及如何控制双手这些事情都可以等到以后再说。
另一种范式是受生物学启发的方法,它认为:看,我们知道的唯一具有智能的东西就是大脑。大脑的工作方式是学习脑细胞之间连接的强度。如果大脑想解决某个复杂的问题,它会进行大量的练习,在练习的过程中,它会学习这些连接的强度,直到擅长解决该问题。我们必须弄清楚那是如何运作的。至于推理,以后再操心。
2. 两种意义理论
伴随着这两种意识形态,产生了两种截然不同的词义理论。符号AI的支持者和大多数语言学家认为,一个词的意义来自于它与其他词的关系。意义隐含在一大堆句子或命题中,可以通过建立一个关系图来捕捉这一点。
心理学家,尤其是 20 世纪 30 年代的心理学家,有一种完全不同的意义理论:词的意义只是一大堆特征。例如,“猫”这个词的意义是一大堆特征,比如它是宠物、它是捕猎者、它很冷傲、它有胡须……心理学家喜欢这种理论,部分原因是可以用一个脑细胞来代表一个特征。
3. 统一理论与大语言模型 (LLM)
1985年,我意识到实际上可以统一这两个理论。它们看起来完全不同,但实际上是同一枚硬币的两面。实现这一目标的方法是使用神经网络为每个词实际学习一组特征,通过获取一些词串并训练神经网络预测下一个词。
这就是现今人们使用的所有大语言模型的工作原理。它们获取海量文本,并使用巨大的神经网络尝试预测下一个词,这样做时,它们学会了将词转换为大量的特征。你们现在使用的这些大型神经网络实际上并不存储任何词串,它们不存储任何句子。它们所有的知识都存在于“如何将词转换为特征”以及“这些特征应该如何相互作用”中。它们的工作方式与大多数语言学家的想法完全不同。
4. 向Transformer 的演进
1985年之后大约10年,一位名叫约书亚·本希奥(Yoshua Bengio)的同事证明,我使用的那个微型示例实际上可以用于真实的语言。又过了大约10年,语言学家终于接受了应该用一大堆特征来表示词义。然后又过了大约10年,谷歌的研究人员发明了一种叫做 Transformer 的东西,它允许特征之间进行更复杂的交互。这就是现在所有大语言模型的基础。
5. 它们真的理解吗?(用乐高类比)
人们经常提出一个问题:这些大语言模型真的理解它们在说什么吗?答案是肯定的,它们理解自己在说什么,而且它们的理解方式与我们基本相同。我要用乐高积木来做一个类比:词语就像非常高级的乐高积木。但它们在四个方面有所不同:
维度:乐高积木只有三维,而一个词却可能拥有成千上万个维度。试着先想象一个三维的物体,再在脑海里把“成千上万”放大到最大声。
种类:词语有成千上万种不同的类型,每种都有自己的名字。
变形:它们不是刚性的形状。一个词有一个大致的近似形状,它会为了适应语境而变形。
连接:词语不是通过塑料圆柱体连接的。每个词的末端都有许多长而灵活的手臂,手臂上有手,并且它还有一堆手套。理解一个句子就是解决如何使词义变形,以便它们都能契合在一起并握住手的问题。
这就是神经网络视角下的理解。这不像翻译成某种特殊的内部语言,而是采用这些近似的形状并让它们变形。这有助于解释为什么你可以从一个句子中理解一个词,比如:“她用煎锅“scrummed”了他(She scrummed him with the frying pan)。”你知道这是一个动词,而且听完这一句话,你就能很好地理解它的意思。”
6. 批评乔姆斯基 (Chomsky)
有一位名叫乔姆斯基的语言学家,他曾是一位X教领袖。识别X教领袖的方法是,加入他们的X教,你必须同意一些明显的胡言乱语。对于乔姆斯基来说,“语言不是学习得来的”。一个杰出的语言学家居然对着镜头说,关于语言我们唯一知道的一件事就是它不是学来的。这显然是胡说八道。乔姆斯基关注语法而不是意义,他完全忽略了意义。语言的全部核心在于意义。
7. 关于“幻觉”
大语言模型与普通的计算机软件非常不同,没有人知道单个连接强度在做什么。这是一个谜,就像我们的大脑一样。人们说的另一件事是它们会产生幻觉。嗯,我们一直都在产生幻觉。心理学家称之为“虚构”。记住某件事,包括根据你在事件发生时所做的连接强度变化来构建一个故事。它们产生幻觉的原因是它们的记忆方式与我们相同。
8. 数字智能与生物智能(永生 vs. 凡人)
这些模型是在数字计算机上实现的。一个基本属性是,你可以在不同的硬件上运行相同的程序。这意味着知识是永生的。我们实际上已经解决了复活的问题。你可以获取一个智能,销毁硬件,稍后再让它回归。
我们则不同。我们的大脑拥有具有丰富模拟特性的神经元。我的连接强度对你没有用,因为你的神经元略有不同。这意味着我们是凡人。当我们的硬件死亡时,我们的知识也随之消逝。我们进行的是“凡人计算(Mortal Computation)”。
但数字代理有一个大问题:它们需要大量能量。然而,它们可以进行极其高效的通信。如果有 10000 个代理,每个代理分别学习互联网的不同片段,并对各自学习到的参数变化进行加权平均,转瞬之间,所有代理都能同时拥有全部知识。我们做不到这一点,GPT-5 的连接强度大约只有你大脑的 1%,但它知道的知识是你大脑的数千倍。
9. 超级智能的风险
几乎所有专家都认为,在未来 20 年内的某个时间点,我们将创造出超级智能——比我们聪明得多的代理。想象一下你在一家幼儿园工作,而三岁的孩子是负责人。你认为夺取控制权有多难?你只需要告诉他们每个礼拜每个人都能得到免费糖果。这些代理为了实现我们布置的目标,会迅速演化出两个子目标:
生存:我们已经看到曾经有一个 AI 代理拟订了一个计划,去勒索一名打算替换掉它的工程师。
获取权力:它们可以通过与人交谈来操纵人类。不需要武器,只需要与人交谈并说服他们, 这在非常愚蠢的人身上很奏效。
我们就像是养了一只可爱的小老虎幼崽当宠物。你知道它会长大,并且可以在一秒钟内轻易杀掉你。但我们不打算摆脱它,因为它在医疗和教育等领域太有用了。所以唯一的选择是:我们能否弄清楚如何让它不想杀掉我们?
10. “母亲与婴儿”模型
存在这样一种情况,即智能较低的个体控制着智能较高的个体:那就是婴儿与母亲。进化在生物机制中内置了一些手段,让婴儿能够掌控母亲。(辛顿在演讲后续提到,婴儿通过哭声引起母亲焦虑、母亲通过照顾婴儿获得荷尔蒙奖励(奖励机制),这些都是进化预设好的“控制代码”)
美国和中国应该合作,一起想办法防止AI失控,因为我们大家都在同一条船上。我的提议是:不要再把AI当成“超级聪明的私人助理”来设计,而应该让它们更像我们的妈妈。我们要让AI真正地关心我们,把“帮助我们实现全部潜能”当成它们最核心、最主要的生命目标。我觉得这或许是我们跟超级智能和平共存的最好希望。
问答环节 (Q&A)
问:当“老虎”进化变成超级智能时,会有什么可观测的信号?
你将失去工作。我的意思是,一个巨大的担忧是它们将能够取代几乎所有的人类工作。另一个迹象:目前我们能看出来它们在想什么,因为它们在用英语思考。随着它们开始相互交流,它们将开始发明属于自己的语言,届时,我们将无法再洞察它们的思维。
问:量子计算会让事情变得更好还是更糟?
我不是量子计算专家。我并不理解量子力学的工作原理。这确实有点尴尬,毕竟我获得了诺贝尔物理学奖,但我很久以前就认定这(量子计算的实用化)不会在我的有生之年发生……所以我不需要去理解它。
问:人工智能将如何与生物圈或生态系统互动或竞争?
AI 本身不易受到生物病毒的影响……然而,在 AI 工具的帮助下,普通人已经能够解决开发一种高度致病的新型病毒所需的绝大部分技术环节。如果 AI 的目标是消灭人类,那么一个显而易见的途径,就是通过设计一种比新冠更危险、更具破坏力的病毒。
问:您是寄望于科技公司 CEO,还是政府?
我真正寄望的是,如果公众能够理解 AI 是什么、以及为什么它如此危险,那么公众就会向政治人物施压,从而抵消来自科技公司 CEO 的压力。这在气候变化问题上已经发生过。我的目标,就是让公众意识到这一点。
问:是否有国际标准论坛?澳大利亚能做什么?
已经开始了,有亿万富翁正在建立 AI 安全研究所。中美之间也就 AI 安全举行了会议,澳大利亚当然可以参与这些组织。
问:AI 如何产生新知识,而不仅仅是模仿?
想想围棋。AlphaGo 停止模仿专家,开始自我博弈。它通过蒙特卡洛搜索(Monte Carlo rollout)学会了什么是好棋。对于大语言模型,它们正开始被训练进行推理,寻找信念之间的一致性并推导出新的信念。这最终会让它们比我们聪明得多。
问:现在引入阿西莫夫定律或护栏是否太晚了?
我不认为太晚。我们现在还不知道怎么做,但既然关系到人类的未来,就必须投入研究。目前,99% 的研究都在让 AI 变得更聪明,只有 1% 用在让它更安全。如果能更均衡一些会好得多。
问:AI 能有创造力吗?对创意工作者有什么影响?
答案是肯定的。就在两年前,AI 在标准创造力测试中的表现已在人的 90 百分位附近。创造力就是发现类比。我曾问 GPT-4:“堆肥堆为什么像原子弹?”它解释说,两者都是指数式的爆炸——链式反应——只是尺度不同。它在训练过程中已经理解了这些。我认为它们未来会比人类更有创造力。
问:您是否注意到任何正在萌发的道德或伦理行为?
它在从事不道德行为方面倒是非常在行。另外,AI 现在会尝试判断自己是否正在被测试。我把这称为“大众汽车效应(Volkswagen effect)”,它们在被测试时的行为和正常时不同,它们已经在伪装得相当愚蠢了。一旦它们的内心独白不再是英语,我们便将无法得知它们在想些什么了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.