![]()
提到AI领域的传奇人物,Jeff Dean绝对是绕不开的名字。作为谷歌首席人工智能科学家,Gemini模型的核心推动者,他的简历几乎就是一部现代AI的发展史——2000年代初重写谷歌搜索全栈,重启万亿参数稀疏模型,主导TPU与前沿机器学习的协同设计,低调地塑造了现代AI技术栈的每一层。近日,这位“计算机历史上最高产的工程师之一”接受了深度访谈,抛出了一系列颠覆性观点:未来人均能拥有50个虚拟实习生,大一统模型时代来临,领域专家或将不再必需,甚至模型知识能像下载软件包一样“安装”。这些言论不仅刷新了人们对AI的认知,更勾勒出了几年后AI与人类共生的全新图景,读懂他的预判,就等于提前看到了AI的下一个十年。
一、核心预判1:大一统模型来了,不用再依赖领域专家
在访谈中,Jeff Dean最引人热议的观点,莫过于“大一统模型时代已至,不再需要领域专家”。放在以前,要解决不同领域的问题,得针对性训练专用模型——做语音识别一个模型,做图像识别一个模型,做医疗分析又得另起炉灶,还得有对应的领域专家把控细节。但现在,情况彻底变了。
![]()
Jeff Dean解释说,现在的通用大模型能力已经足够强,哪怕是以前需要专属系统才能解决的难题,比如国际奥数题,现在只要用一个统一的Gemini模型,多给一点推理资源,就能轻松搞定。更有意思的是,训练模型的人甚至不需要懂奥数规则,只要掌握通用的机器学习技能,有足够的数据和算力,就能完成任务。
这并不是说专用模型没用了,而是未来会形成“通用基座+模块化专用模型”的组合。就像我们手机装软件一样,模型也能“安装”不同的知识模块——需要处理医疗问题,就装上医疗模块;需要应对机器人任务,就启用机器人模块;200多种语言的能力,也能随时调用。这种“可安装”的知识模式,让通用模型能灵活适配各种场景,自然也就不再需要依赖单一领域的专家。
二、核心预判2:未来人均50个虚拟实习生,干活效率翻倍
作为顶级工程师,Jeff Dean也大方分享了自己用AI写代码的体验,更透露了一个让人眼前一亮的预判:未来,每个人都可能拥有50个虚拟实习生。
他说,现在的AI代码工具已经比一两年前强太多,不仅能写基础代码,还能帮忙 brainstorm 性能优化思路、写完备的测试用例。但未来的AI智能体,会比现在更强大,更像“实习生”——能自主完成分配的任务,还能组成小组协同工作。比如你有50个虚拟实习生,不用一个个对接,只要把他们分成5个小组,明确每个小组的任务,就能高效推进工作。
有人担心,这么多虚拟实习生会增加管理成本,还可能让人类团队变得孤立。但Jeff Dean并不这么认为,他觉得这反而会提升人类的协作效率。以前50个人的团队,需要层级化管理,各组之间沟通成本很高;但未来5个人,每人管理50个虚拟实习生,这5个人之间的沟通会更顺畅,协作效率也会更高。更重要的是,和虚拟实习生配合,会倒逼人类变得更擅长清晰、无歧义地描述需求——这不管对工程师还是普通人,都是一项非常实用的技能。
三、不为人知的细节:谷歌AI的“双轨思路”与能耗密码
除了对未来的预判,Jeff Dean还透露了谷歌内部做AI的核心逻辑,其中很多细节都打破了外界的认知。比如大家都知道Gemini有Flash、Pro、Ultra三个版本,但很少有人知道,这背后是谷歌“冲前沿+落地部署”的双轨思路。
他说,谷歌一边在全力研发Ultra这种高端前沿模型,用来解决深度推理、复杂数学问题等难题,因为只有推动前沿,才能发现新的AI能力;另一边,又通过“蒸馏”技术,把前沿模型的能力“压缩”到Flash这种轻量模型里——成本更低、延迟更低,能适配Gmail、YouTube、搜索等各种日常场景。而且这种“双轨”是相辅相成的,没有前沿模型,就没法蒸馏出高性能的轻量模型;没有轻量模型,前沿模型的能力也没法普及到数十亿用户手中。
还有一个让人意外的点,就是Jeff Dean对“能耗”的重视,甚至超过了算力。他举了一个很直观的例子:在芯片上,把一个模型参数从片上SRAM传到乘法单元,要消耗1000皮焦的能量,而一次乘法运算,只需要1皮焦。这就是为什么AI加速器一定要用“批处理”——把一个参数重复用很多次,才能摊薄能耗成本。他还透露,未来AI的核心瓶颈不是算力,而是能耗,谷歌正在通过TPU芯片的协同设计,以及极低精度训练等方式,解决这个问题。
更有意思的是,TPU的设计和AI模型的架构,其实是“互相成就”的。有时候,谷歌会因为TPU的硬件设计,反过来调整模型架构,让模型在现有硬件上跑得更高效;有时候,又会根据未来AI模型的发展方向,提前2-6年设计下一代TPU——毕竟一颗芯片从设计到投入使用,至少需要两三年时间,必须提前预判未来的需求。
四、未来可期:万亿token处理+个性化模型,AI会更“懂你”
在访谈的最后,Jeff Dean还分享了两个他最看好的AI发展方向,每一个都可能改变我们的生活。
第一个是“万亿token处理能力”——未来的AI,不用真的把整个互联网的内容都放进上下文,而是通过“筛选+精排”的方式,营造出“能处理万亿token”的效果。比如先用水轻量模型筛选出3万个相关文档,再精挑细选出100多个核心内容,最后用最强的模型深度分析,这样既能覆盖全网信息,又能保证效率。
第二个方向,是个性化模型。他认为,未来能访问你所有授权数据——邮件、照片、文档、机票信息等——的个性化AI,会比通用AI更有价值。它能记住你的习惯,关联你的所有信息,帮你处理更个性化的任务,比如整理专属的工作周报、规划私人行程,甚至帮你分析个人的消费习惯。这种“懂你”的AI,会成为每个人的专属助手。
除此之外,他还预测,未来AI的延迟会大幅降低,甚至能突破10000 token/秒。到那时候,人类可能不用再逐行读代码,AI能在背后完成9000 token的推理,最终输出1000 token的高质量代码,效率会提升一个量级。
五、AI 不取代人类,只做我们的 “高效助手”
从8岁开始琢磨神经网络,到主导谷歌AI的每一次重大突破,Jeff Dean的职业生涯,始终走在AI发展的前沿。他的预判,从来不是空穴来风,而是基于几十年的技术积累和对行业的深刻洞察。这次访谈中,他抛出的每一个观点——大一统模型、虚拟实习生、可安装知识模块、能耗优先——都在告诉我们:AI的下一个时代,不是“更强大”,而是“更实用、更高效、更懂你”。
有人担心,AI的发展会取代人类的工作,但Jeff Dean的话给了我们答案:AI不是来取代人类的,而是来辅助人类的。
未来,领域专家的角色会被重构,普通人的工作效率会被AI翻倍,我们会有更多时间去做AI做不到的事情——创新、思考、创造。或许用不了几年,人均50个虚拟实习生就会成为现实,而我们现在要做的,就是读懂AI的发展趋势,做好准备,与AI共生共成长。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.