![]()
智东西
编译 刘煜
编辑 陈骏达
智东西4月20日消息,昨天,据The Information报道,两名直接知情人士透露,谷歌正与无晶圆厂半导体公司Marvell商谈合作,计划开发两款全新芯片,包括专为运行AI模型打造的全新TPU,以及设计用于与谷歌TPU协同工作的内存处理单元。但值得一提的是,长期以来,博通一直是谷歌TPU的独家设计合作伙伴。
本次谷歌与Marvell的合作计划最快于明年完成对内存处理单元的设计,并生产近200万颗该单元。该合作尚未披露具体金额。消息人士补充称,由于谈判仍处于早期阶段,200万这一数字仍有可能调整。
一名谷歌员工透露,对于新推理芯片的研发,谷歌早已开始布局规划。今年3月,英伟达于GTC大会上发布了旨在提升推理任务效率的LPU芯片。谷歌在其发布LPU之后,进一步加快了对新一代推理芯片的相关研发速度。
值得一提的是,LPU是英伟达以200亿美元从Groq获得技术授权后研发打造的。而谷歌此次的合作对象Marvell,曾作为Groq第一代LPU的芯片设计合作伙伴,在推理芯片设计领域积累了相应的技术与项目经验。
在合作研发层面,谷歌在芯片设计领域对博通存在单一依赖。但由于博通收费模式成本高昂,该公司按每颗量产TPU收取费用,随着TPU需求激增,谷歌的相关支出也大幅攀升。因此谷歌正寻求降低对博通依赖的途径。
不过,据The Information2023年报道,谷歌早在当时就有摆脱对博通单一依赖的意图了。那时谷歌曾考虑让Marvell取代博通,成为其数据中心内用于连接服务器与以太网交换机的网络接口芯片供应商。
去年,谷歌为了降低对博通的单一依赖,引入了中国台湾厂商联发科参与TPU芯片的设计与生产。
但在本月早些时候,博通与谷歌签署新协议,将为谷歌下一代AI数据中心开发并供应定制化TPU及网络组件,合作期限延长至2031年。这意味着博通在谷歌的芯片体系中仍占据着核心地位。
需要补充的是,摩根士丹利曾预计,谷歌2027年TPU产量约为600万颗。不过,本次双方合作中全新TPU的设计完成时间及谷歌规划的量产规模,目前仍未明确。
此外,谷歌当前的芯片均由台积电代工生产,新款芯片最终由台积电还是其他厂商制造,目前也未确定。
在谷歌与Marvell协商此次合作前,谷歌也曾向Marvell采购过CXL控制器芯片。据两名谷歌员工介绍,这类芯片用于管理数据中心内服务器之间的内存共享。不过采购的均为现货标准产品,并未涉及定制化合作。
多年来,谷歌仅在自有数据中心内部署TPU,用于支撑搜索、YouTube及Gemini大模型等业务,且仅对谷歌云客户开放。据The Information报道,这一局面在去年出现转变:谷歌开始向客户提供TPU算力租赁服务,支持客户将其部署于非谷歌数据中心,直接挑战英伟达在AI芯片领域的主导地位。
截至目前,谷歌TPU已被包括Anthropic、Meta以及苹果在内的客户采用。
而Marvell主营数据中心通用网络、存储及光互联芯片设计,同时为客户提供定制化芯片设计服务,该业务已成为其增长最快的板块。
结语:AI Agent推高算力需求,专用推理芯片研发趋势持续升温
谷歌与Marvell的此次合作,不止为降低谷歌对博通的单一依赖。
由于AI推理环节正走向精细化分工,推理任务并非通用处理器就能一概胜任,该任务部分环节依赖峰值算力,另一部分则受限于内存读写与数据调度效率。而谷歌与Marvell此次合作研发可与TPU协同工作的内存处理单元,正是这一行业趋势下的产物。
此外,当前AI Agent对算力的消耗远高于聊天机器人等传统AI应用,随着各类AI企业持续推出更复杂的智能体产品,专用推理芯片市场也进入快速发展阶段。
除谷歌外,OpenAI已于4月中旬与AI芯片公司Cerebras达成协议,计划斥资超200亿美元采购其推理芯片,同时该公司也在与博通合作研发自研推理芯片。
综合来说,为不同任务搭配专用推理芯片,而非依靠单一处理器包揽全部工作,也在逐渐成为头部厂商提升效率、控制成本的选择趋势。在此趋势下,AI芯片有望加速从通用化路线,向更贴合场景、更聚焦专业功能的方向分化发展。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.