网易首页 > 网易号 > 正文 申请入驻

本想去谷歌捞一笔就跑,却成了改变AI历史的人

0
分享至

谷歌两位大佬回应一切:从PageRank到AGI的25年。

现任首席科学家Jeff Dean、出走又回归的Transformer作者Noam Shazeer,与知名播客主持人Dwarkesh Patel展开对谈。

视频刚发几个小时,就有20万+网友在线围观。

两人都是谷歌远古员工,经历了从MapReduce到Transformer、MoE,他们发明了很多改变整个互联网和AI的关键技术。

Noam Shazeer却谈到当初入职谷歌只是为了捞一笔就跑,没想到成了改变世界的那个人。

在两个多小时的谈话中,他们透露了AI算力的现状:

  • 单个数据中心已经不够了,Gemini已经在跨多个大城市的数据中心异步训练。

也对当下最流行的技术趋势做了探讨:

  • 推理算力Scaling还有很大空间,因为与AI对话比读书仍然便宜100倍
  • 未来的模型架构会比MoE更灵活,允许不同的团队独立开发不同的部分

网友们也在边听边po发现的亮点:

比如在内存中存储一个巨大的MoE模型的设想。

以及“代码中的bug可能有时会对AI模型有正面影响”。

随着规模的扩大,某些bug正是让研究人员发现新突破的契机。

推理算力Scaling的未来

很多人觉得AI算力很贵,Jeff Dean不这么认为,他用读书和与AI讨论一本书来对比:

当今最先进的语言模型每次运算的成本约为10-18美元,这意味着一美元可以处理一百万个token。

相比之下,买一本平装书的成本大约相当于每1美元买1万个token(单词数换算成token)。

那么,与大模型对话就比读书便宜约100倍。

这种成本优势,为通过增加推理算力来提升AI的智能提供了空间。

从基础设施角度来看,推理时间计算的重要性增加可能会影响数据中心规划。

可能需要专门为推理任务定制硬件,就像谷歌初代TPU一样,它最初是为推理的目的设计,后来才被改造为也支持训练。

对推理的依赖增加可能意味着不同的数据中心不需要持续通信,可能导致更分布式、异步的计算。

在训练层面,Gemini 1.5已经开始使用多个大城市的计算资源,通过高速的网络连接将不同数据中心中的计算结果同步,成功实现了超大规模的训练。

对于大模型来说,训练每一步的时间可能是几秒钟,因此即使网络延迟有50毫秒,也不会对训练产生显著影响。

到了推理层面,还需要考虑任务是否对延迟敏感。如果用户在等待即时响应,系统需要针对低延迟性能进行优化。然而,也有一些非紧急的推理任务,比如运行复杂的上下文分析,可以承受更长的处理时间。

更灵活和高效的系统可能能够异步处理多个任务,在提高整体性能的同时最大限度地减少用户等待时间。

此外,算法效率的提升,如使用较小的草稿(Draft)模型,可以帮助缓解推理过程中的瓶颈。在这种方法中,较小的模型生成潜在的token,然后传递给较大的模型进行验证。这种并行化可以显著加快推理过程,减少一次一个token的限制。

Noam Shazeer补充,在进行异步训练时,每个模型副本会独立进行计算,并将梯度更新发送到中央系统进行异步套用。虽然这种方式会使得模型参数略有波动,理论上会有影响,但实践证明它是成功的。

相比之下,使用同步训练模式能提供更加稳定和可重复的结果,这是许多研究者更加青睐的模式。

在谈到如何保证训练的可重复性时,Jeff Dean提到一种方法是记录操作日志,尤其是梯度更新和数据批次的同步记录。通过回放这些操作日志,即使在异步训练的情况下,也能够确保结果的可重复性。这种方法可以让调试变得更加可控,避免因为环境中的其他因素导致结果不一致。

Bug也有好处

顺着这个话题,Noam Shazeer提出一个有意思的观点:

训练模型时可能会遇到各种各样的bug,但由于噪音的容忍度,模型可能会自我调整,从而产生未知的效果。

甚至有的bug会产生正面影响,随着规模的扩大,因为某些bug在实验中可能会表现出异常,让研究人员发现新的改进机会。

当被问及如何在实际工作中调试bug时,Noam Shazeer介绍他们通常会在小规模下进行大量实验,这样可以快速验证不同的假设。在小规模实验中,代码库保持简单,实验周期在一到两个小时而不是几周,研究人员可以快速获得反馈并做出调整。

Jeff Dean补充说,很多实验的初期结果可能并不理想,因此一些“看似不成功”的实验可能在后期仍然能够为研究提供重要的见解。

与此同时,研究人员面临着代码复杂性的问题:虽然不断叠加新的改进和创新是必要的,但代码的复杂性也会带来性能和维护上的挑战,需要在系统的整洁性和创新的推进之间找到平衡。

未来模型的有机结构

他们认为,AI模型正在经历从单一结构向模块化架构的重要转变。

如Gemini 1.5Pro等模型已经采用了专家混合(Mixture of Expert)架构,允许模型根据不同任务激活不同的组件。例如在处理数学问题时会激活擅长数学的部分,而在处理图像时则会激活专门处理图像的模块。

然而,目前的模型结构仍然较为僵化,各个专家模块大小相同,且缺乏足够的灵活性。

Jeff Dean提出了一个更具前瞻性的设想:未来的模型应该采用更有机的结构,允许不同的团队独立开发或改进模型的不同部分。

例如,一个专注于东南亚语言的团队可以专门改进该领域的模块,而另一个团队则可以专注于提升代码理解能力。

这种模块化方法不仅能提高开发效率,还能让全球各地的团队都能为模型的进步做出贡献。

在技术实现方面,模型可以通过蒸馏(Distillation)技术来不断优化各个模块。这个过程包括将大型高性能模块蒸馏为小型高效版本,然后在此基础上继续学习新知识。

路由器可以根据任务的复杂程度,选择调用合适规模的模块版本,从而在性能和效率之间取得平衡,这正是谷歌Pathway架构的初衷。

这种新型架构对基础设施提出了更高要求。它需要强大的TPU集群和充足的高带宽内存(HBM)支持。尽管每个调用可能只使用模型的一小部分参数,但整个系统仍需要将完整模型保持在内存中,以服务于并行的不同请求。

现在的模型能将一个任务分解成10个子任务并有80%的成功率,未来的模型能够将一个任务分解成100或1000个子任务,成功率达到90%甚至更高。

“Holy Shit时刻”:准确识别猫

回过头看,2007年对于大模型(LLMs)来说算得上一个重要时刻

当时谷歌使用2万亿个tokens训练了一个N-gram模型用于机器翻译。

但是,由于依赖磁盘存储N-gram数据,导致每次查询需大量磁盘I/O(如10万次搜索/单词),延迟非常高,翻译一个句子就要12小时。

于是后来他们想到了内存压缩、分布式架构以及批处理API优化等多种应对举措。

  • 内存压缩:将N-gram数据完全加载到内存,避免磁盘I/O;
  • 分布式架构:将数据分片存储到多台机器(如200台),实现并行查询;
  • 批处理API优化:减少单次请求开销,提升吞吐量。

过程中,计算能力开始遵循摩尔定律在之后逐渐呈现爆发式增长。

从2008年末开始,多亏了摩尔定律,神经网络真正开始起作用了。

那么,有没有哪一个时刻属于“Holy shit”呢?(自己都不敢相信某项研究真的起作用了)

不出意外,Jeff谈到了在谷歌早期团队中,他们让模型从油管视频帧中自动学习高级特征(如识别猫、行人),通过分布式训练(2000台机器,16000核)实现了大规模无监督学习。

而在无监督预训练后,模型在监督任务(ImageNet)中性能提升了60%,证明了规模化训练无监督学习的潜力。

接下来,当被问及如今谷歌是否仍只是一家信息检索公司的问题,Jeff用了一大段话表达了一个观点:

AI履行了谷歌的原始任务

简单说,AI不仅能检索信息,还能理解和生成复杂内容,而且未来想象力空间巨大。

至于谷歌未来去向何方,“我不知道”。

不过可以期待一下,未来将谷歌和一些开源源代码整合到每个开发者的上下文中。

换句话说,通过让模型处理更多tokens,在搜索中搜索,来进一步增强模型能力和实用性。

当然,这一想法已经在谷歌内部开始了实验。

实际上,我们已经在内部代码库上为内部开发人员进行了关于Gemini模型的进一步培训。

更确切的说法是,谷歌内部已经达成25%代码由AI完成的目标。

在谷歌最快乐的时光

有意思的是,这二位还在对话中透露了更多与谷歌相关的有趣经历

对1999年的Noam来说,本来没打算去谷歌这样的大公司,因为凭直觉认为去了也可能无用武之地,但后来当他看到谷歌制作的每日搜索量指数图表后,立马转变了想法:

这些人一定会成功,看起来他们还有很多好问题需要解决

于是带着自己的“小心思”就去了(主动投了简历):

挣一笔钱,然后另外开开心心去搞自己感兴趣的AI研究

而加入谷歌后,他就此结识了导师Jeff(新员工都会有一个导师),后来两人在多个项目中有过合作。

谈到这里,Jeff也插播了一条他对谷歌的认同点:

喜欢谷歌对RM愿景(响应式和多模态,Responsive and Multimodal)的广泛授权,即使是一个方向,也能做很多小项目。

而这也同样为Noam提供了自由空间,以至于当初打算“干一票就跑”的人长期留了下来。

与此同时,当话题转向当事人Jeff时,他的一篇关于平行反向传播的本科论文也被再次提及。

这篇论文只有8页,却成为1990年的最优等本科论文,被明尼苏达大学图书馆保存至今。

其中,Jeff探讨了两种基于反向传播来平行训练神经网络的方法。

  • 模式分割法(pattern-partitioned approach):将整个神经网络表示在每一个处理器上,把各种输入模式划分到可用的处理器上;
  • 网络分割法(network-partitioned approach)流水线法(pipelined approach):将神经网络的神经元分布到可用的处理器上,所有处理器构成一个相互通信的环。然后,特征通过这个pipeline传递的过程中,由每个处理器上的神经元来处理。

他还构建了不同大小的神经网络,用几种不同的输入数据,对这两种方法进行了测试。

结果表明,对于模式分割法,网络大、输入模式多的情况下加速效果比较好。

当然最值得关注的还是,我们能从这篇论文中看到1990年的“大”神经网络是什么样:

3层、每层分别10、21、10个神经元的神经网络,就算很大了。

论文地址:https://drive.google.com/file/d/1I1fs4sczbCaACzA9XwxR3DiuXVtqmejL/view

Jeff还回忆道,自己测试用的处理器,最多达到了32个。

(这时的他应该还想不到,12年后他会和吴恩达、Quoc Le等人一起,用16000个CPU核心,从海量数据中找出猫。)

不过Jeff坦言,如果要让这些研究成果真正发挥作用,“我们需要大约100万倍的计算能力”

后来,他们又谈到了AI的潜在风险,尤其是当AI变得极其强大时可能出现的反馈循环问题。

换句话说,AI通过编写代码或改进自身算法,可能进入不可控的加速改进循环(即“智能爆炸”)。

这将导致AI迅速超越人类控制,甚至产生恶意版本。就像主持人打的比方,有100万个像Jeff这样的顶尖程序员,最终变成“100万个邪恶的Jeff”。

(网友):新的噩梦解锁了哈哈哈!

最后,谈及在谷歌最快乐的时光,二人也分别陷入回忆。

对Jeff来说,在谷歌早期四五年的日子里,最快乐的莫过于见证谷歌搜索流量的爆炸式增长。

建造一个如今20亿人都在使用的东西,这非常不可思议。

至于最近,则很开心和Gemini团队构建一些,即使在5年前人们都不敢相信的东西,并且可以预见模型的影响力还将扩大。

而Noam也表达了类似经历和使命,甚至喜滋滋cue到了谷歌的“微型厨房区域”。

据介绍,这是一个大约有50张桌子的特别空间,提供咖啡小吃,人们可以在这里自由自在闲聊,碰撞想法。

一说到这个,连Jeff也手舞足蹈了(doge):

Okk,以上为两位大佬分享的主要内容。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
女孩昏迷3周,脑子里却过了7年!她在梦中养大俩娃,醒来崩溃了:娃全没了...

女孩昏迷3周,脑子里却过了7年!她在梦中养大俩娃,醒来崩溃了:娃全没了...

英国那些事儿
2026-03-25 23:12:57
施海荣若下课,谁来执掌江苏女排?张常宁,沈富麟还是外教

施海荣若下课,谁来执掌江苏女排?张常宁,沈富麟还是外教

金毛爱女排
2026-03-27 00:00:04
陈慧琳”太丰满了,穿抹胸都兜不住好身材,我感慨自律女人真美

陈慧琳”太丰满了,穿抹胸都兜不住好身材,我感慨自律女人真美

章眽八卦
2026-03-08 15:36:53
38.6万元起拍!南京一民国老四合院上架拍卖

38.6万元起拍!南京一民国老四合院上架拍卖

现代快报
2026-03-26 14:34:07
光通信+CPO,逻辑最硬的11家公司

光通信+CPO,逻辑最硬的11家公司

龙头主升趋势
2026-03-25 17:51:33
75岁港星花百万在中山买房,住了两年称生活素质高,后悔搬来太晚

75岁港星花百万在中山买房,住了两年称生活素质高,后悔搬来太晚

树娃
2026-03-24 12:28:41
伊朗已通过中间人正式回应美方“15点计划”

伊朗已通过中间人正式回应美方“15点计划”

环球网资讯
2026-03-26 23:45:59
特变电工:阿玛利亚水电站项目各项基础设施建设工作正有序开展

特变电工:阿玛利亚水电站项目各项基础设施建设工作正有序开展

每日经济新闻
2026-03-26 18:09:04
别让你的无知,毁了她的高潮!男人必须掌握的技巧课

别让你的无知,毁了她的高潮!男人必须掌握的技巧课

精彩分享快乐
2026-03-06 14:01:39
伊朗获得强援,又一中东国家下场,还是美国亲自送上门的帮手

伊朗获得强援,又一中东国家下场,还是美国亲自送上门的帮手

快看张同学
2026-03-26 14:46:05
破防!小县城殡仪馆大屏流出,中年人扎堆离世,网友:还争什么?

破防!小县城殡仪馆大屏流出,中年人扎堆离世,网友:还争什么?

川渝视觉
2026-03-23 19:26:44
伊朗挂断王毅电话后发全球照会,萨勒曼震怒

伊朗挂断王毅电话后发全球照会,萨勒曼震怒

空间展示知识
2026-03-26 07:06:58
医生再三告知:老人同房时,需要注意6件事,不然可能麻烦就大了

医生再三告知:老人同房时,需要注意6件事,不然可能麻烦就大了

路医生健康科普
2026-03-21 15:43:25
《红楼梦》成就的3段姻缘,对对恩爱到白头,活成爱情最好的模样

《红楼梦》成就的3段姻缘,对对恩爱到白头,活成爱情最好的模样

上官晚安
2026-03-26 06:48:44
23万大厂员工被AI替代,为何一半公司又把人请回?

23万大厂员工被AI替代,为何一半公司又把人请回?

钛媒体APP
2026-03-26 18:26:16
42岁女星宣布离婚,结束14年婚姻独自照顾三孩

42岁女星宣布离婚,结束14年婚姻独自照顾三孩

风月得自难寻
2026-03-27 02:15:04
扎哈罗娃警告日本:任何试图向乌提供致命武器之举,都将招致强硬回应

扎哈罗娃警告日本:任何试图向乌提供致命武器之举,都将招致强硬回应

环球网资讯
2026-03-26 08:55:12
网友吐槽别糊弄老百姓了,又是天才少年发国际论文,谁家的公子?

网友吐槽别糊弄老百姓了,又是天才少年发国际论文,谁家的公子?

眼光很亮
2026-03-08 01:43:40
离那些张口闭口不离宏大叙事的人远点

离那些张口闭口不离宏大叙事的人远点

廖保平
2026-03-20 10:14:56
60年难遇的清明节,今年碰上了,牢记上坟4人不去、3人必去!

60年难遇的清明节,今年碰上了,牢记上坟4人不去、3人必去!

户外阿崭
2026-03-26 05:54:27
2026-03-27 02:52:49
量子位 incentive-icons
量子位
追踪人工智能动态
12348文章数 176425关注度
往期回顾 全部

科技要闻

美团发布外卖大战后成绩单:亏损超200亿

头条要闻

特朗普:伊朗允许10艘油轮通行霍尔木兹海峡

头条要闻

特朗普:伊朗允许10艘油轮通行霍尔木兹海峡

体育要闻

申京努力了,然而杜兰特啊

娱乐要闻

刘晓庆妹妹发声!称姐姐受身边人挑拨

财经要闻

油价"驯服"特朗普?一到100美元就TACO

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

亲子
艺术
房产
公开课
军事航空

亲子要闻

试工育儿嫂被查出传染病,宝妈崩溃!家政服务“健康关”如何保障?

艺术要闻

北京大兴机场和青岛胶东机场“撞脸”,长得像就是抄袭?

房产要闻

突发,三亚又有大批征迁补偿方案出炉!

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

担心特朗普突然停战 以总理下令48小时尽力摧毁伊设施

无障碍浏览 进入关怀版