网易首页 > 网易号 > 正文 申请入驻

DeepMind CEO 万字硬核访谈:当前 AI 只是“前菜”,物理 AI 与具身智能才是未来

0
分享至

来源:市场资讯

(来源:图灵人工智能)

您想知道的人工智能干货,第一时间送达


前言:为什么强烈推荐你读这篇访谈?

背景介绍:

这场对谈的嘉宾是刚刚获得诺贝尔化学奖的 Google DeepMind CEO Demis Hassabis。从天才国际象棋神童,到天才游戏制作人,再到认知神经科学博士,最后成为 AlphaGo 和 AlphaFold 的缔造者,Hassabis 拥有科技界最传奇的履历之一。他也是当今世界上极少数真正有资格定义 AGI(通用人工智能)路线图的人。


为什么要读?

在这个动辄将大模型神话的阶段,Hassabis 给出了一针见血的清醒判断。这篇访谈不仅仅是关于 Gemini 或是模型参数的讨论,它更像是一份“AGI 时代的产品与技术生存指南”。

在这场对话中,他深入探讨了:

现有架构的盲区:为什么大模型依然会在简单的逻辑和数学上翻车?持续学习(Continual Learning)和长程推理为什么是通往 AGI 的最后几块拼图?

物理 AI 与多模态的战略前瞻:为什么 Gemini 从一开始就要坚持原生多模态?这与自动驾驶(Waymo)、具身智能、以及理解真实物理世界的智能设备有什么深层联系?

致深科技创业者的洞见:如果 AGI 在 2030 年到来,而你正在开启一段为期 10 年的深科技(Deep Tech)创业旅程,你该如何确保你的产品不被基础模型的一波更新直接摧毁?

无论你是持续关注科技前沿的探路者,还是AI创业者,甚至nobody,这篇访谈都能为你提供极具密度的思考框架。

演讲核心内容总结与完整实录

1. 通往 AGI,我们目前还缺什么? (0:00 - 3:37)

本段核心总结:
Hassabis 认为现有的大语言模型架构(预训练、RLHF、思维链)大概率会是最终 AGI 架构的一部分。但他明确指出,目前系统仍缺失几个关键拼图:持续学习(Continual learning)、长程推理(Long-term reasoning)以及真正的记忆机制。他预测 AGI 可能会在 2030 年左右到来。

完整演讲稿:

[开场白/Intro]

持续学习、长程推理,以及记忆的某些方面,这些问题仍然没有被解决。我认为所有这些都是实现 AGI(通用人工智能)所必需的。这取决于你对 AGI 时间表的预期,就我个人而言,大概是 2030 年左右。如果你今天踏上一段硬核深科技(Deep Tech)的创业之旅,你就必须考虑到 AGI 会在这段旅程的中途出现。这不一定是坏事,但你必须将其纳入考量。你必须拥有一个能够主动为你解决问题的系统,才能走向 AGI。所以,Agent(智能体)就是那条必经之路,而我认为我们才刚刚起步。

Demis Hassabis 拥有科技界最不同寻常的职业生涯之一。他小时候是国际象棋神童,17 岁时设计了他的第一款热门电子游戏《主题公园》。之后他重返校园,获得了认知神经科学的博士学位,发表了关于大脑中记忆和想象力如何运作的基础性研究成果。然后在 2010 年,他联合创立了 DeepMind,肩负着一个使命:解决智能问题。而且我认为他们已经做到了。从那以后,他的实验室完成了大多数人认为还需要几十年才能实现的事情。AlphaGo 在围棋上击败了世界冠军。AlphaFold 破解了蛋白质结构预测——这个生物学领域 50 年来的重大挑战,并且他们将其免费提供给了地球上的每一位科学家。这项工作让他在去年赢得了诺贝尔化学奖。今天,Demis 领导着 Google DeepMind,在这里他正在打造 Gemini,并朝着他十几岁时设定的目标迈进:通用人工智能(AGI)。请欢迎 Demis。

[访谈内容]

主持人:您思考 AGI 的时间比几乎所有人都长。当您审视当前的范式——大规模预训练、RLHF(基于人类反馈的强化学习)、思维链时,您认为我们已经掌握了多少 AGI 的最终架构?目前本质上还缺少什么?

Demis Hassabis:首先,谢谢 Gary 精彩的介绍,很高兴来到这里。这个空间非常棒,我以后得多来看看,能在这里工作非常鼓舞人心。

回到你的问题,我认为你刚才提到的那些组件,我非常确信它们将成为最终 AGI 架构的一部分。它们现在已经取得了如此长足的进步,并且我们已经证明了它们能够做很多事情。我无法想象几年后我们会突然意识到“这是一条死胡同”,这说不通。

但在我们已经知道行之有效的技术之上,可能还有一两块缺失的拼图。比如:持续学习(continual learning)、长程推理(long-term reasoning),以及记忆(memory)的某些方面,这些依然悬而未决。还有如何让系统在各个方面变得更加一致。我认为这些都是实现 AGI 所必需的。

也许现有的技术可以通过一些渐进式的创新直接扩展到那种程度,但也可能还需要破解一两个大的全新想法。如果真的还有,我认为不会超过一两个。我打赌这两种可能性大概各占一半(50/50)。所以,在 Google DeepMind,我们同时在推进这两方面的研究。

2. 为什么“记忆”依然是一个未解之谜? (3:38 - 6:14)

本段核心总结:
现有的扩大“上下文窗口(Context Window)”来塞入大量信息的方式,就像是用“胶带”把东西强行粘在一起,是一种暴力的笨办法。真正的记忆需要像人类大脑海马体一样,能够优雅地将新知识整合进现有认知库中,并在决策时以极低的成本提取最相关的信息。

完整演讲稿:

主持人:我觉得和一堆智能体系统工作时,最疯狂的一点是,它们总是在重复使用相同的权重。所以“持续学习”这个概念非常有趣,因为现在我们感觉就像是用胶带把系统拼凑起来一样,比如给系统安排“夜间梦境循环”之类的机制。

Demis Hassabis:“梦境循环”确实很酷,我们过去在研究情景记忆巩固时经常思考这个问题。事实上,我读博士期间研究的就是海马体如何运作,以及它如何优雅地将新知识整合到现有的知识库中。

大脑在这方面做得极其出色。它在睡眠期间,特别是 REM(快速眼动)睡眠期间完成这项工作,回放那些重要的情景,以便你能从中学习。事实上,我们最早的 Atari 玩游戏程序 DQN(深度Q网络),它能掌握 Atari 游戏的方法之一就是使用了“经验回放(experience replay)”。我们从神经科学中借鉴了这一点,多次回放成功的轨迹,那还是在 2013 年,在人工智能的“黑暗时代”,这是一个非常重要的事情。

我同意你的看法,我们现在确实有点像在使用“胶带”。比如把所有东西都塞进上下文窗口(context window)里,这似乎有点令人不满意,对吧?即使我们在研究机器而不是生物大脑,理论上你可以拥有几百万甚至几千万的完美上下文窗口或内存,但要去查找并找到对你当前决策真正相关的正确信息,依然是有成本的。即使你有可能把一切都存下来,这个检索成本绝不简单。我认为在记忆(memory)等领域还有很大的创新空间。

主持人:是的,疯狂的是,感觉一百万 Token 的上下文窗口其实已经非常大了,老实说足够大了。

Demis Hassabis:对于大多数它应该被用来做的事情来说,这确实足够大了。如果你把上下文窗口等同于人类的“工作记忆(working memory)”,人类只能记住几个数字,也许十几个,平均是七个。而我们现在拥有了一百万甚至一千万的上下文窗口。

但问题在于,我们正试图把所有东西都塞进去。包括那些不重要的东西、错误的东西。这目前是一种相当“暴力”的方法,感觉不太对。而且问题是,如果你现在试图处理实时视频,只是天真地记录所有 token,那么其实一百万个 token 并不算多,大概也就相当于 20 分钟的视频。所以,如果你想要一个系统能够理解你生活中可能一两个月内发生的事情,你实际上需要更大的容量。

3. AlphaGo 的哲学如何塑造了今天的 Gemini? (6:15 - 8:10)

本段核心总结:
DeepMind 一直以强化学习(RL)和搜索算法(Search)见长。早期从 AlphaGo 和 AlphaZero 中获得的大量灵感(例如蒙特卡洛树搜索),如今正以大模型中“思维链(Chain of Thought)”和“推理模式”的形式强势回归。强化学习的作用依然被外界低估了。

完整演讲稿:

主持人:DeepMind 在历史上一直偏向强化学习(RL)和搜索——比如 AlphaGo、AlphaZero 和 MuZero。这些哲学有多少真正嵌入到了你们今天构建 Gemini 的方式中?强化学习(RL)目前还是被低估了吗?

Demis Hassabis:是的,我确实认为它可能被低估了。技术发展总是一波接一波的。从 DeepMind 成立之初,我们就在研究 Agent(智能体)。事实上,我们当时就是这么对外宣传的。所有关于 Atari 的工作,尤其是 AlphaGo,它们都是智能体系统。我们的意思是,系统能够自行达成目标、做出主动决策并制定计划。当然,为了让问题变得可解,我们当时是在游戏领域中进行测试,并不断挑战更复杂的游戏,比如继 AlphaGo 之后的 AlphaStar(针对《星际争霸》)。我们基本上把市面上所有的游戏都通关了。

接下来的问题是:你能不能将这些模型泛化为“世界模型”或“语言模型”,而不仅仅是简单或复杂游戏的模型?这就是过去几年我们一直在做的事情。

但实际上,你可以把我们今天做的很多事情——比如所有带有“思考模式(thinking modes)”和“思维链推理(chain of thought reasoning)”的前沿模型——看作是 AlphaGo 时代首创理念的一种回归。我真的认为我们当时做的很多工作在今天依然非常有价值,我们正在以一种更通用的方式、在更大的规模上重新审视那些旧想法。这包括蒙特卡洛树搜索(MCTS)以及其他在我们如今准备好去做的强化学习之上进行增强的方法。

我认为很多来自 AlphaGo 和 AlphaZero 的想法,对于我们今天的基础模型来说都非常非常相关。而且我认为,我们将在未来几年的进步中看到大量的此类应用。

4. 为什么小模型变得如此强大? (8:11 - 12:40)

本段核心总结:
打造顶尖的“前沿大模型”是必须的,但 DeepMind 同样擅长通过模型蒸馏技术将庞大的能力压缩到极其小巧的模型(如 Gemini Flash 或 Gemma)中。这不仅是因为要服务 Google 旗下数十亿用户的巨大流量,降低成本与延迟;更是因为边缘端计算(Edge AI)对于保护隐私和推动未来机器人(Robotics)的发展至关重要。

完整演讲稿:

主持人:我有一个问题,显然现在你需要越来越大的模型来变得越来越聪明,但与此同时我们也看到“模型蒸馏(distillation)”非常有效,较小的模型可以运行得快得多。你们拥有令人难以置信的 Flash 模型,你们发现它能达到前沿模型 95% 的水平,但价格只有十分之一,是这样吗?

Demis Hassabis:我认为这是我们的核心优势之一。你必须构建最大的模型以获得前沿的能力,但我认为我们最大的优势之一是能够极其迅速地将这种力量提炼并压缩到越来越小的模型中。显然,是 Jeff (Hinton)、Oriol (Vinyals) 等人发明了模型蒸馏的过程,我们至今依然是这方面的世界级专家。

同时,我们也有巨大的内部需求去这样做。因为我们可能需要服务世界上最大的 AI 场景阵地——包括带有 AI 概览(AI Overviews)的 Google 搜索,然后是 Gemini App,现在 Google 几乎每一个产品(地图、YouTube 等)都在整合 Gemini 或其相关技术。这是十几款拥有超十亿用户的产品,总计触达数十亿用户。因此,我们必须以极其快速、高效、低廉且低延迟的方式提供服务。这给了我们极其重要的动力去打造 Flash 甚至更小的模型,使其极为高效。希望这最终对于你们正在使用的许多工作负载也会非常有用。

主持人:我很好奇这些小模型到底能变得多聪明?蒸馏过程有极限吗?比如一个 50B 甚至 400B 的模型能像今天的顶级模型一样聪明吗?

Demis Hassabis:我不认为我们已经达到了某种信息论上的极限,至少我们现在还不知道。也许在某个时间点,会达到某种我们无法突破的信息密度。但就目前而言,我们的假设是:在我们的一个前沿模型(Pro 模型)发布半年或一年后,你就能在极其微小、甚至是边缘端(Edge)的模型中获得同样的能力。

你也希望在我们的 Gemma 模型中看到这种优势,希望大家都在享受我们的 Gemma 2(注:演讲中提及为Gemma4,可能是口误或内部代号) 模型,我认为它们在同等体量下展现出了惊人的能力。同样,这利用了大量的蒸馏技术和如何使小模型变得极为高效的理念。所以我认为目前还没有看到什么理论极限,我们离那还很远。

主持人:这太棒了,因为我们现在看到的最奇妙的现象之一是:工程师现在完成的工作量是六个月前的 500 到 1000 倍。这个房间里就有人的工作效率是 2000 年代 Google 工程师的 1000 倍。这被称为“1000x 工程师”。

Demis Hassabis:我觉得这非常令人兴奋。小模型有很多用途。一个是成本,但最重要的是速度——即使你是在写代码,或者在与系统协作时,你可以迭代得快得多。

我认为我们非常需要这种快速的系统。即使它们可能不是完全处于最前沿(可能是 95% 或 90% 的性能),但已经足够好了。实际上,你通过迭代速度的提升所获得的收益,远大于那 10% 的性能损失。

另外一个我认为很重要的事情是,在边缘端(设备端)运行这些模型。除了效率的原因,还为了隐私和安全。你想想那些处理非常私人信息的设备,甚至可以扩展到机器人学(Robotics)。比如你家里的机器人,你会希望有一个非常高效、非常强大的本地模型。也许它会在某些特定情况下,与云端更大的前沿模型进行协同,但所有的视觉、音频处理都在本地完成,数据也留在本地。我可以想象这是一个非常理想的最终形态。

[中场插播]

YC 创业学校又回来了。我们正在精心挑选世界上最有前途的建设者,邀请他们于 7 月 25 日和 26 日飞往旧金山,讨论前沿科技。现在就申请名额吧。好,回到视频。

5. 持续学习与智能体的未来 (12:41 - 13:31)

本段核心总结:
目前没有“持续学习”机制是阻碍 AI 智能体(Agents)独立完成全套任务的最大障碍。如果不解决上下文的自适应问题,智能体就永远做不到“发射后不管(fire and forget)”。

完整演讲稿:

主持人:回到上下文和记忆的话题。现在的模型是无状态(stateless)的。对于使用一个具备持续学习能力的模型的开发者来说,体验会是怎样的?比如,你有什么想法该如何引导它?

Demis Hassabis:我觉得这非常有趣。我认为,目前缺乏持续学习能力,是阻碍智能体(Agents)完成完整任务的原因之一。

目前智能体在处理任务的某些局部环节时非常有用,你可以把它们拼接起来做一些很酷的事情,但它们不能很好地适应你所在的特定语境(context)。我认为这是阻碍它们实现真正的“发射后不管(fire and forget,即自动执行到底)”并自己解决问题的缺失拼图。

它们需要能够学习关于你将要把它们置入的特定环境的信息。所以,我们必须攻克这个难题,才能获得完全的通用人工智能。

6. 为什么 AI 连基础的逻辑推理依然会翻车? (13:32 - 15:36)

本段核心总结:
尽管模型能展现出惊人的“思维链”能力甚至解决奥数题,但它们缺乏对自身思维过程的“内省(introspection)”。它们时常陷入“过度思考”的死循环(例如下国际象棋时明知是烂棋却还是会走)。这种“参差不齐的智能(jagged intelligence)”还需要底层的创新去修补。

完整演讲稿:

主持人:我们在推理能力方面进展如何?现在的模型能做出令人印象深刻的思维链,但它们仍然会在聪明的本科生绝对不会出错的基本问题上翻车。具体来说,需要改变什么?您预计推理方面会有什么进展?

Demis Hassabis:在“思考范式(thinking paradigms)”方面,还有很大的创新空间。我再说一次,我认为我们目前还在使用相对简单、暴力的做法。

我们可以想象,比如在监控思维链的过程中,在思考过程中途进行干预拦截。我经常对我们的系统(以及竞争对手的系统)有一种印象,就是它们几乎在“过度思考(overthinking)”,它们几乎陷入了某种思维循环。

比如,我有时候喜欢和 Gemini 下国际象棋。有趣的是,目前所有领先的基础模型在下棋方面都很糟糕。去观察它的思考轨迹是非常酷的,因为国际象棋的逻辑很容易理解。我能很快看出它是否偏离了轨道,而且可以被证明它的思考是否是有用的。

我们看到的是:有时候它会考虑一步棋,它自己也意识到这是一个失误(blunder),但它找不到更好的走法,所以它还是会退回去走那步烂棋。在一个真正精确的推理系统中,你是不应该看到这种事情发生的。

所以,我认为仍然存在巨大的鸿沟。但我必须澄清,也许只需要一两个微调就能弥补这些鸿沟,这是非常显而易见的。

这就是为什么你会看到这种“参差不齐的智能(jagged intelligence)”。一方面,它能解决 IMO(国际数学奥林匹克)级别的金牌难题,这超级难;但另一方面,正如我们所见,如果你以某种特定方式提问,它仍然会犯基础的算术或逻辑推理错误。

所以对我来说,它对自己思维过程的某种“内省(introspection)”似乎仍然是缺失的。

7. Agent (智能体) 是过度炒作,还是刚刚开始? (15:37 - 20:29)

本段核心总结:
智能体并没有被过度炒作,它绝对是通向 AGI 的必经之路。目前大家依然在体验和摸索中。此外,目前的 AI 系统仍然缺乏“真正的创造力”。像 AlphaGo 走出“第 37 手”固然惊艳,但我们期待的是一个能通过几句简单的高级描述,就从无到有“发明出围棋这项运动”的 AI 系统。

完整演讲稿:

主持人:智能体现在非常火热。有人说它们被过度炒作了,但我个人认为它们才刚刚起步,潜力极其疯狂。DeepMind 的内部研究告诉你,目前智能体的实际能力与外界的炒作相比处于什么位置?

Demis Hassabis:我同意你的观点,我认为我们才刚刚起步。你必须拥有一个能够主动为你解决问题的系统才能达到 AGI,这对我们来说一直很明确。所以智能体就是这条路。

我认为我们都在适应如何最好地与之合作。如何将它融入你的工作流,使其不仅仅是一个“锦上添花”的东西,而是真正开始完成基础性的工作。我的印象是,目前我们都在各种事情上进行实验,但可能只是在过去几个月里,我们才开始找到真正有价值的落地场景,而且技术也才刚刚好到足以支撑这些场景。它不再是一个玩具或演示,而是真正在为你的时间和效率增加价值。

我经常看到很多人试图并发启动几十个智能体运行 40 个小时,但我不确定我所看到的输出结果是否足以证明投入是合理的,但我相信那一天会到来的。所以我们仍然处于实验阶段。

比如,我们还没看到一款由“氛围编程(vibe coded)”直接生成并登顶应用商店榜首的 3A 游戏,对吧?我已经看到了,我也编程过,我确定我们都做过很好的小演示。比如,我现在能在半小时内做出一个《主题公园》的雏形,而我 17 岁时做这个花了整整 6 个月。这很令人震撼。我有时会想,如果我整个夏天都在摆弄它,也许能做出令人难以置信的东西。但这仍然需要工艺,需要注入人类的灵魂和品味。我认为无论你在构建什么,你都必须确保保留这一点。

我认为这恰恰说明它还没完全到位,因为为什么我们还没看到一个小孩做出一款销量达到 1000 万份的爆款游戏呢?考虑到目前投入的精力,这应该是可能的。所以似乎还是缺少了某种东西,也许是流程问题,也许是工具问题,我不太确定。但我期待在接下来的 6 到 12 个月内看到这样的结果。

主持人:有一部分问题是,它们到底会有多大程度的自主性?我不认为我们会先看到完全自主的系统,我们可能会先看到这个房间里的人以 1000 倍的效率工作,这就是我们应该首先看到的景象。然后游戏公司会使用这些工具打造出最畅销的游戏,接着更多的环节会被自动化。人类会在其中参与,而且目前人类可能还不太愿意承认“这是智能体做的”。

Demis Hassabis:我认为其中一部分原因可能是关于我们想要讨论的“创造力”。

当我谈论我们做过的事情,比如 AlphaGo 时,非常著名的是第 2 局中的“第 37 手”。对我来说,我一直在等待这样一个时刻来开启像 AlphaFold 这样的科学项目。所以我们在结束韩国之行的那一天就开始了 AlphaFold 项目。顺便说一句,打完那场比赛到现在已经 10 年了,在那之后我也要去韩国庆祝 AlphaGo 10 周年。

但对于创造力来说,仅仅想出“第 37 手”是不够的。那很酷,也非常有用。但我想要的是一个可以“发明围棋”的系统。如果你给它一个高阶描述,比如“一种你能在 5 分钟内学会规则,但需要几辈子去精通,且具有极高审美价值的游戏”,然后我希望它返回给我的东西就是“围棋”。

显然,今天的系统无法做到这一点。那么问题是为什么?我认为那里仍然缺少一些东西。

主持人:也许这个房间里的某个人会做出来。如果做出来了,那就说明没有什么缺失,只是我们使用系统的方式不对。

Demis Hassabis:那其实也可能就是答案!有可能我们今天的系统已经具备了这种能力,只要有一个极其聪明、有创造力的人去使用它,提供那种动力、注入项目的灵魂,并且对工具足够熟练,甚至达到“人机合一”的境界。如果你像你们中的许多人那样,日以继夜地实验这些工具,并将它们与真正的深度创造力结合起来,也许就能创造出更不可思议的东西。

8. 开源模型、Gemma 与边缘端 AI 的布局 (20:30 - 22:25)

本段核心总结:
尽管竞争激烈,DeepMind 依然高度致力于开源(如发布 AlphaFold 和 Gemma)。Gemma 不仅在同体量下展现了最领先的性能,且在战略上,将其推向边缘设备(如安卓手机、AR眼镜、机器人)能更好地构筑技术生态。

完整演讲稿:

主持人:转换一下话题,我们来谈谈开源(Open Source)或者说“开放权重(Open Weights)”。比如最近发布的 Gemma,你们正在提供性能强大且能在本地运行的开放模型。您认为这对未来意味着什么?AI 会主要掌握在用户手中还是云端?这是否会改变谁能使用这些模型进行构建的格局?

Demis Hassabis:总体而言,我们是开源和开放科学的坚定支持者。你一开始提到了 AlphaFold,我们将其免费开放给了世界,我们至今依然把所有科学工作发表在顶级期刊上。

我们想要创造在同等尺寸下世界领先的模型,希望我们在 Gemma 上做到了这一点,并且我们非常坚持这条道路。希望你们都能去实验、构建并享受使用 Gemma。我想在短短两周半的时间里,下载量已经达到了四千万次,我们对此感到非常兴奋。

我也认为西方技术栈在开源领域拥有一席之地是很重要的。显然,很多中国的模型非常出色,目前在开源领域处于领先地位,而我们认为 Gemma 在同等尺寸下在各个方面都极具竞争力。

对我们来说,这是一个资源、人才和算力的问题。没有哪家公司有多余的算力去同时训练两个完全不同属性、最高尺寸的前沿模型,这非常困难。

但目前我们做出的战略决定是:我们的边缘(Edge)模型——那些我们想用在安卓系统、智能眼镜和机器人上的模型——最好是开源模型。因为一旦你把它们放到终端设备上,它们本来就是脆弱、容易被提取的,所以还不如直接把它们完全开源。我们在“Nano”级别尺寸上统一了这个策略。这在战略上也符合我们的利益。我们希望尽可能多的人在它之上构建,当然我们自己也会在它之上构建。

9. 为什么 Gemini 从一开始就要坚持多模态? (22:26 - 24:06)

本段核心总结:
从底层原生构建多模态(而非仅仅基于文本),虽然起步更难,但这是理解复杂物理世界的必经之路。这种架构优势如今正在 Waymo(自动驾驶)、Project Genie、以及试图理解物理定律的智能设备上得到巨大回报。

完整演讲稿:

主持人:早些时候在开播前,我给你演示了我的系统版本,也就是电影《Her》里的 Samantha,能在您面前演示东西让我有点紧张。但它居然正常工作了,这很神奇。Gemini 是原生多模态的,我花了很多时间在很多模型上,可以说,从语音直接到模型的上下文深度和工具使用能力,Gemini 绝对是最好的,毫无争议。

Demis Hassabis:是的,我认为 Gemini 系列仍然有一个稍微被低估的方面,那就是我们从一开始就让它是多模态(multimodal)的。

这实际上让初期工作变得困难了一些,比只专注于文本更难。但我们相信从长远来看我们会因此获益,而且我认为我们现在已经看到了这种收益。

比如在构建世界模型(world model)时,就像我们在 Gemini 之上构建的 Genie 项目;我认为这对于机器人技术也将极其重要,这也是为什么很多你们可能体验过的 Gemini 机器人模型,将建立在多模态基础模型之上。

我们认为 Gemini 在多模态方面的强大能力,给了我们某种竞争优势。我们越来越多地将它用于 Waymo(自动驾驶)等领域。此外,如果你设想带有数字助手的设备跟你一起进入真实物理世界(无论是在你的手机、眼镜还是其他设备上),它需要理解你周围的物理世界、直觉物理定律以及你所处的物理背景。而这正是我们的系统极其擅长的领域。我想这就是为什么你在你自己的搭建中享受使用它的原因。我们计划在这条路上继续走下去,我认为我们在处理这类问题上是遥遥领先的。

10. 当推理成本趋近于零时会发生什么? (24:07 - 25:23)

本段核心总结:
Hassabis 认为推理算力可能永远不会绝对“免费”。因为存在“杰文斯悖论(Jevons Paradox)”——无论算力多便宜,我们总会找到方法耗尽它(比如利用数百万个智能体进行群蜂式计算或多路径评估)。只有在可控核聚变或超导等材料科学取得突破后,能源成本才可能归零,但芯片的物理制造仍是瓶颈。

完整演讲稿:

主持人:模型推理的成本正在快速下降。当推理基本上变得免费时,会发生什么?这又会如何改变你的团队实际优化的目标?

Demis Hassabis:我不确定推理成本是否永远会变得“基本上免费”。这里有杰文斯悖论(Jevons' paradox,即技术进步提高资源使用效率,反而会导致该资源消费量增加)的问题。我认为我们所有人最终都会把能弄到手的算力全部用光。

你可以想象数以百万计的智能体、甚至智能体集群一起协同工作。这是一种使用推理算力的方式;或者你可以想象单个或小群组的智能体在多个方向上进行思考,然后进行模型集成(ensembling)。我们正在对所有这些方向进行实验,可能在座的各位也是。所有的这些方法都会耗尽目前可用的任何推理算力。

也许有一天它的成本能趋近于零。如果我们在核聚变、超导体、最优电池材料等方面取得突破——我认为我们会通过 AI 材料科学做到这些——那么能源成本将基本上降至零。但即便如此,仍然存在芯片物理制造等其他成本。我认为至少在未来的几十年里,总会存在某种瓶颈。所以如果是这样的话,我们在推理侧仍然需要进行资源分配和配给,仍然需要高效地使用它。

好消息是,较小的模型正变得越来越聪明,这非常棒。

11. 从 AlphaFold 到“虚拟细胞”:AI 是探索科学的终极工具 (25:24 - 30:40)

本段核心总结:
AlphaFold 只是起点。DeepMind 与 Isomorphic Labs 正在致力于将生化反应、药物分子的发现彻底改变。Hassabis 描绘了一个宏伟的 10 年愿景:创造一个能准确模拟物理与化学特性的全尺寸“虚拟细胞(Virtual Cell)”。AI 的终极使命是解决科学领域的“根节点(Root Node)”问题。

完整演讲稿:

主持人:观众里有很多生物和生物科技公司的创始人。AlphaFold 3 带领我们超越了蛋白质,扩展到了更广泛的生物分子。我们距离建立完整的细胞系统模型还有多远?这还是一个根本上属于另一个层级的困难问题吗?

Demis Hassabis:我们在推出 AlphaFold 2 之后分拆出来的 Isomorphic Labs,目前进展极其顺利。它不仅试图利用 AlphaFold(这只是药物研发过程中的一小部分),我们还在尝试进行相邻的生物化学和化学研究,以设计具有正确属性的化合物等。我们在这一块很快会有重磅消息要宣布。

最终的目标,你当然想要一个完整的“虚拟细胞(virtual cell)”。我在许多科学演讲中谈到过这个愿景:一个完整运行的细胞模拟器。你可以对它进行干扰(perturb),然后它输出的结果能够足够接近真实实验,从而发挥巨大的作用。你可以跳过许多搜索步骤,并生成大量合成数据来训练其他模型,从而预测关于真实细胞的情况。

我认为距离完整的虚拟细胞大概还有 10 年的时间。在 DeepMind 的科学这边,我们正在从细胞核的虚拟化开始,因为它是相对自包含的。

处理所有这些复杂事物的诀窍在于:你能不能切取一块复杂度?我们最终想模拟整个人体,但你能否将其模拟到正确的细节层次?你能否切出一块足够自包含的部分,去近似模拟这个系统的输入和输出,然后把精力集中在这个子系统上?从这个角度看,细胞核是非常有趣的。

另一个问题就是数据不够。我曾与许多研究电子显微镜和成像技术的顶级科学家交流过。如果我们能够在不杀死活细胞的情况下对它进行高分辨率成像,那将改变游戏规则,因为那样你就可以把它变成一个计算机视觉问题,而我们知道怎么解决视觉问题。但目前据我所知,还没有任何技术可以在不破坏活体、动态细胞的情况下提供纳米级的分辨率并观察所有的交互。你可以拍摄极其详细的静态高分辨率图像,但这不足以将其转化为一个复杂的视觉问题。

所以这可能是通过硬件驱动和数据驱动来解决,也可能是通过我们建立更好的关于这些动态系统的“学习型模拟器(learned simulators)”来解决。这是更偏向模型架构的解决方式。

主持人:你们一直在研究各种科学,不仅是生物学。还有材料科学、药物发现、气候模型、数学。如果要你对未来五年内哪个科学领域将被彻底颠覆进行排名,你会怎么排?

Demis Hassabis:它们都令人无比兴奋!这也是为什么三十多年来,我整个职业生涯的主要热情和致力于研究 AI 的原因:我想将 AI 作为终极工具。我一直认为 AI 是科学、推动科学理解、科学发现的终极工具,无论是医学,还是我们对周围宇宙的理解。

其实你刚才提到我们最初阐述使命宣言的方式(这也是我们至今思考问题的方式),分为两步:第一步是解决智能问题(即构建 AGI);第二步是用它来解决其他一切问题。

随着时间推移,我们稍微修改了措辞,因为大家会问“你们真的意思是解决其他‘一切’吗?”我们确实是那个意思。但我更具体的意思是,解决科学中我所谓的“根节点问题(root node problems)”。也就是那些一旦解开,就能解锁整条新分支或发现路径的科学领域。

AlphaFold 就是我们想做的事情的典型例子。全球有一百九十个国家的三百多万研究人员(几乎是世界上所有的生物学研究人员)现在都在使用 AlphaFold。一些制药高管朋友告诉我,从现在起,几乎所有发现的药物,都会在其研发过程的某个阶段使用到 AlphaFold。

这是我们感到非常自豪的事情,也是我们希望 AI 产生的影响,但我认为这仅仅是个开始。我目前看不到任何一个科学或工程领域是 AI 帮不上忙的。你刚才提到的那些领域,我认为我们正处于类似“AlphaFold 1.0”的时刻——我们取得了非常有希望的结果,但还没有解决那个领域的终极挑战。但我相信在未来一两年内,我们在材料、数学等所有这些领域都会有很多值得讨论的成果。

这种感觉如同普罗米修斯盗火。当然,就像普罗米修斯的寓言一样,我们必须对如何使用这些能力、用来做什么,以及防止这些相同工具被滥用保持谨慎。

12. 给深科技创业者的建议:拥抱 AGI 的降临 (30:41 - 结束)

本段核心总结:
面对大模型的狂飙突进,不要只做一层简单的“API 套壳”来标榜自己是 AI 科学公司。要将 AI 与其他硬核深科技(尤其是原子层面的物理世界)结合。如果你预判 AGI 会在 10 年内到来,你现在打造的项目、工厂和系统,必须是能够被未来的 AGI 所使用和赋能的,而不是被它直接取代的。

完整演讲稿:

主持人:在座的很多人都在试图建立将 AI 应用于科学的公司。对他们来说,一个真正推进前沿的创业公司,和一个只是在基础模型上套了个 API 就自称是“科学 AI”的公司,在你看来区别在哪里?你对在 YC 或者这里的年轻创始人有什么建议?

Demis Hassabis:这也是我一直在思考的问题。如果我今天坐在你们的位置上,我会做什么?

你必须要做的就是预判 AI 技术正在朝什么方向发展并拦截它,这是困难的部分。但我认为,将 AI 的发展趋势与其他某个深科技领域结合起来,有着巨大的发展空间。我确信这个“甜蜜点(sweet spot)”无论是材料、医学还是其他真正艰难的科学领域,只要是这种跨学科的团队,尤其是涉及到原子世界(真实物理世界)的团队,在可预见的未来是没有任何捷径可走的。

这些领域相对安全,不会轻易被基础模型的下一次更新迭代所吞噬。如果你在寻找创业方向,我会说这是一种更具防御性的领域。

我一直偏爱深科技,所以有这种倾向。我认为任何真正长久且有价值的事情都不会是容易的。就像 2010 年我们刚开始做 AI 时那样,当时投资人甚至学术界都告诉我“我们早就知道这东西行不通,90年代试过都没用”。但是,如果你对你的想法抱有信念,如果你清楚为什么这次不一样,或者你能把你在机器学习领域的专业知识与其他领域完美结合(或者你可以组建具有这种专业知识的创始团队),我认为那里会产生巨大的影响力和价值。

生命很短暂,你的时间和精力是有限的,你不如把生命力投入到那些如果你不去做、如果不去推动就不会发生的事情上。这就是我思考的视角。

主持人:这传递了一个非常重要的信息。在没人相信的时候坚持下去。AlphaFold 算是一个你专注突破并成功的例子。什么样的科学领域成熟到足以迎接一场“AlphaFold 级”的突破?有没有某种模式或特定的目标函数(Objective function)?

Demis Hassabis:我应该找个时间把这个写下来。但我从我们做过的所有 Alpha 级别项目(特别是 AlphaGo 和 AlphaFold)中学到的教训是,我喜欢寻找这样的问题:

海量的组合搜索空间:越大越好。这意味着任何暴力破解或特殊算法都无法解决它。围棋的走法和蛋白质的折叠形态,其可能性甚至远超宇宙中的原子数量。

清晰的目标函数(Objective Function):比如将其定义为最小化蛋白质的自由能,或者赢得围棋比赛。你需要明确定义目标函数,这样算法才能进行“爬山(hill climb)”寻优。

足够的数据或能够生成模拟数据的模拟器:如果满足以上三点,利用当今的方法,你就很有希望在巨大的干草堆中找到你需要的那根“针”。对于药物发现我也是同样的看法:只要物理定律允许,一定存在某种能够治愈特定疾病且没有副作用的化合物。唯一的问题是如何高效地找到它。

主持人:我们在用人类使用 AI 寻找科学突破,那么如果让 AI 系统自己进行真正的科学推理,去提出假说,而不仅仅是做模式匹配呢?

Demis Hassabis:我们很接近了。所有的前沿实验室都在往这个方向探索。但我个人还没看到真正能产生巨大科学发现的东西。

这涉及到了我们前面讨论的“创造力”,以及超越已知边界的能力。因为如果没有既定模式可以匹配,那就不能仅仅叫做模式匹配了;它超越了推断,是某种形式的类比推理。

在科学领域,我会这样提问:它能提出一个极其有趣的假说吗?而不仅仅是解决某个千禧年难题(比如黎曼猜想,或者我最喜欢的 P=NP 问题,当然这也很了不起)。比解决问题更难的是:提出一组全新的“千禧年级别”难题,并且被顶尖数学家认可为同样深刻、有意义,值得花一辈子去研究解决。这是更深层次的难度,我认为我们目前还不知道如何做到这一点。但我认为这不是什么魔法,系统最终一定能做到。

我的测试标准叫“爱因斯坦测试”:你能不能用 1901 年及以前的知识训练一个系统,然后看它能不能像爱因斯坦在 1905 年(奇迹年)那样,提出狭义相对论?如果我们持续运行这个测试直到它成功,那就是系统能够真正发明新事物的时刻。

主持人:最后一个问题。对于这个房间里希望构建极其硬核技术的开发者,作为这个时代的先驱,您希望自己在 25 岁时能知道什么在最前沿构建产品的经验?大家都在听。

Demis Hassabis:我们刚才涵盖了一些。去攻克困难且深奥的问题,在某些方面并不比去解决肤浅、简单的问题更难,它们只是难点不同而已。

另外一点是,如果你今天开启一段硬核深科技的旅程,对于真正的 Deep Tech 来说,通常意味着一段 10 年的旅程。

那么,根据你对 AGI 出现的时间表的预判——比如我预判是在 2030 年——你就必须考虑到:AGI 可能会在你这趟 10 年旅程的中途降临。

这意味着什么?你必须认真将其纳入考量:你的业务能利用它吗?AGI 系统会用你的业务做什么?

举个例子,比如未来 Gemini、Claude 这种极其强大的通用系统,会把 AlphaFold 这类极其专业的系统当做“工具(tools)”来调用。我不认为未来会只有一个塞满一切的“超级巨型大脑”,因为那会产生回归问题(把所有蛋白质数据塞进大语言模型,可能会破坏它的语言能力)。更好的方式是:极其强大的通用模型,去调用并编排各种顶级专业工具模型。

所以你要思考,在那种世界里,你今天构建的工具、甚至你建设的物理工厂、金融系统,在 AGI 降临并接管一半工作时,依然是有用且能被其集成的吗?你必须认真想象那个世界的样子,然后以此为导向去构建产品。

主持人:Demis Hassabis,感谢您!

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
汤唯大学时期的照片,难怪当年李安梁朝伟会选她当女主角!

汤唯大学时期的照片,难怪当年李安梁朝伟会选她当女主角!

情感大头说说
2026-05-02 22:51:59
“司机到河南被塞30斤蒜薹”背后:有蒜农称请人抽一斤倒贴几毛钱,增种、气温偏高致供大于求

“司机到河南被塞30斤蒜薹”背后:有蒜农称请人抽一斤倒贴几毛钱,增种、气温偏高致供大于求

红星新闻
2026-05-02 21:40:16
海南警方撒销案件 被无辜羁押821天女子有望重启国家赔偿

海南警方撒销案件 被无辜羁押821天女子有望重启国家赔偿

大象新闻
2026-05-02 13:42:01
欧盟27国,集体跪了!

欧盟27国,集体跪了!

阿七说史
2026-05-02 05:05:11
专机刚落地,鲁比奥电话就到了北京:赖清德的高兴没撑过三秒钟

专机刚落地,鲁比奥电话就到了北京:赖清德的高兴没撑过三秒钟

泠泠说史
2026-05-02 18:59:12
1500公里续航:宁德时代这次,把电动车的最后借口都堵上了

1500公里续航:宁德时代这次,把电动车的最后借口都堵上了

汽车通讯社
2026-04-30 17:09:47
随着穆帅率队2-2,波尔图1-0,葡超最新积分榜出炉:本菲卡无缘冠军

随着穆帅率队2-2,波尔图1-0,葡超最新积分榜出炉:本菲卡无缘冠军

侧身凌空斩
2026-05-03 05:48:58
这是判决书,还是颁奖词?捍卫公平正义、维护公序良俗仍然任重道远!

这是判决书,还是颁奖词?捍卫公平正义、维护公序良俗仍然任重道远!

剑鸣涛声
2026-04-16 20:52:58
上海天气:18~22℃,阴到多云有短时小雨转阴到多云

上海天气:18~22℃,阴到多云有短时小雨转阴到多云

新民晚报
2026-05-03 06:30:03
特朗普:从伊朗回去顺路就把古巴解决了

特朗普:从伊朗回去顺路就把古巴解决了

每日经济新闻
2026-05-02 18:27:47
不打了!塔图姆退出G7!东部季后赛彻底乱套

不打了!塔图姆退出G7!东部季后赛彻底乱套

篮球实战宝典
2026-05-03 07:15:51
伦敦世乒赛:国乒首败诞生!林诗栋梁靖崑周启豪输球,王楚钦休战

伦敦世乒赛:国乒首败诞生!林诗栋梁靖崑周启豪输球,王楚钦休战

郝小小看体育
2026-05-03 05:29:45
男乒3-0英格兰!林诗栋横扫,王楚钦丢1局,梁靖崑依旧收视率打法

男乒3-0英格兰!林诗栋横扫,王楚钦丢1局,梁靖崑依旧收视率打法

篮球资讯达人
2026-05-02 21:47:24
女子睡梦中184万被自动捐给三家慈善机构,支付宝回应令人震惊。

女子睡梦中184万被自动捐给三家慈善机构,支付宝回应令人震惊。

一丝不苟的法律人
2026-05-02 23:26:44
泽连斯基亮出绝密证据:俄内部文件泄露,俄军60%精锐已打残

泽连斯基亮出绝密证据:俄内部文件泄露,俄军60%精锐已打残

瞩望云霄
2026-05-02 21:15:38
最后一圈连超两台雅马哈,张雪回应“张雪机车”第3冠:我说牛,谁不服;车手德比斯:感谢车队打造了一台极具竞争力的好车

最后一圈连超两台雅马哈,张雪回应“张雪机车”第3冠:我说牛,谁不服;车手德比斯:感谢车队打造了一台极具竞争力的好车

极目新闻
2026-05-02 22:56:32
惨烈!五一票房11年来最差,陈思诚呼吁给中国电影机会

惨烈!五一票房11年来最差,陈思诚呼吁给中国电影机会

文娱春秋Plus
2026-05-02 13:45:48
美媒:伊朗放宽与美国恢复和谈的条件

美媒:伊朗放宽与美国恢复和谈的条件

参考消息
2026-05-02 18:52:30
汤杯战报:2大世界冠军团队都0-3出局!李诗沣21-9!决赛中法对决

汤杯战报:2大世界冠军团队都0-3出局!李诗沣21-9!决赛中法对决

求球不落谛
2026-05-03 03:09:05
中日联合国交锋,日本代表口出狂言:中国没资格批评日本防卫姿态

中日联合国交锋,日本代表口出狂言:中国没资格批评日本防卫姿态

共工之锚
2026-05-02 23:56:56
2026-05-03 07:23:00
新浪财经 incentive-icons
新浪财经
新浪财经是一家创建于1999年8月的财经平台
3096949文章数 7086关注度
往期回顾 全部

科技要闻

AI热潮耗尽库存,Mac Mini起售调高200美元

头条要闻

媒体:美国突然"翻脸" 对欧洲连打"三拳"一气呵成

头条要闻

媒体:美国突然"翻脸" 对欧洲连打"三拳"一气呵成

体育要闻

休赛期总冠军,轮到休斯顿火箭

娱乐要闻

高圆圆赵又廷游三亚 牵手逛街好甜蜜

财经要闻

雷军很努力 小米还是跌破了30港元大关

汽车要闻

同比大涨190% 方程豹4月销量29138台

态度原创

教育
游戏
艺术
手机
军事航空

教育要闻

高考地理:分析黄土高原红土柱的形成过程

兔女郎之后是女仆!《永恒轮回》新赛季越来越懂玩家想要什么了

艺术要闻

看!海夫兰笔下的美女,令人惊艳的艺术之美!

手机要闻

消息称iQOO 15T手机搭载天玑9500、6.82英寸2K直屏

军事要闻

特朗普:对伊战事结束 无限期延长停火

无障碍浏览 进入关怀版