三位从苹果、高通、Nuvia出走的顶级芯片架构师,刚离职几个月就拿到红杉资本的钱。他们的新公司Nuvacore喊出的口号是"为高度而设计"——但服务器芯片市场真的需要另一个新玩家吗?
一支"全明星叛逃队"的诞生
![]()
Gerard Williams、John Bruno、Ram Srinivasan。这三个名字在半导体圈的分量,相当于篮球界的乔丹、皮蓬、罗德曼组队打街球。
Williams是苹果A系列芯片的幕后推手,从A7到A12X都经他之手;Bruno和Srinivasan则在Nuvia时期就与他并肩作战,后来三人一同被高通收购,主导了Oryon CPU的设计。今年早些时候,三人同时离开高通——外界猜测与高通取消自研服务器芯片计划有关。
几个月后,Nuvacore浮出水面。红杉资本站台,口号"Engineered for Altitude"(为高度而设计),目标直指数据中心AI负载。
Nuvacore的官网声明毫不客气:"几十年来,半导体行业被'老 guard'主导,他们为地面而设计,在昨天的架构上迭代。但AI和核心基础设施需求暴涨,迭代已经不够了。"
这话的指向很明确:英特尔、AMD,甚至Arm阵营的现有方案,在他们眼里都是"修修补补"。
正方:为什么现在需要"从零开始"
支持Nuvacore的核心论点,建立在两个技术判断上。
第一,AI工作负载的特性变了。传统服务器CPU设计针对的是"突发型"任务——请求来了,快速响应,然后空闲。但大模型推理、Agent计算是"永在线"(always-on)的长时间高负载,对持续吞吐量、能效比、延迟稳定性的要求完全不同。
Nuvacore强调其设计"最大化性能和面积效率",专门针对"长时间运行的计算密集型任务"。这不是营销话术的微调,而是架构层面的重新排序:缓存层级、内存带宽分配、功耗墙策略,都需要为持续高负载重新设计。
第二,制程红利正在枯竭。3nm之后,晶体管成本下降曲线趋平,单纯靠先进工艺堆性能的投资回报率暴跌。这意味着架构创新的权重上升——谁能用更少的晶体管做更多的事,谁就能在数据中心TCO(总体拥有成本)战中获胜。
Williams团队在苹果和Nuvia的履历证明了这一点:A系列的性能功耗比、Nuvia Phoenix核心的单线程效率,都是架构创新的结果,而非单纯依赖台积电的工艺。
红杉的押注逻辑也在这里。数据中心AI芯片是少数还能容纳独立CPU设计公司的赛道——云厂商的自研芯片(AWS Graviton、Google Axion)证明了需求真实存在,而Arm的Neoverse生态留下了第三方优化的空间。
反方:服务器CPU的护城河有多深
质疑者的清单同样扎实。
首先,"从零设计"的代价被严重低估。现代高性能CPU是十年量级的工程积累:验证流程、物理设计工具链、软件生态适配、量产良率爬坡。Nuvia从2019年成立到2021年被收购,核心产品从未流片;高通收购后,Oryon的落地也花了近三年。
Nuvacore现在才开始,首款产品流片至少要等到2026-2027年。届时,AMD的Zen 6、英特尔的Diamond Rapids、Arm的Neoverse V3早已就位,甚至云厂商的第二代自研芯片也会上市。时间窗口是否还敞开?
其次,"通用CPU做AI"这个定位本身存疑。训练负载早已被GPU垄断,推理市场则分裂成三派:GPU派(NVIDIA)、DSA派(Google TPU、Amazon Trainium)、以及"CPU+加速器"的混合派。纯CPU在AI推理中的角色,更多是"协调者"而非"计算主力"。
Nuvacore强调的"通用核心",恰恰可能是尴尬所在:比专用加速器灵活,但效率不如;比传统CPU强,但云厂商为何不用自研方案?
第三,客户集中度的风险。数据中心CPU的买家屈指可数:AWS、Azure、Google Cloud、Meta、字节、阿里。这些巨头要么已有自研团队,要么与AMD/Arm深度绑定。Nuvacore作为无晶圆厂初创公司,需要同时说服云厂商采用新架构、并承诺长期供应安全——这在地缘政治敏感的当下,难度倍增。
一个被忽略的细节:为什么是高通的"最近离职"
时间线值得玩味。Williams三人今年早些时候离开高通,而高通在2024年明确取消了自研服务器CPU的计划,转而专注PC和移动端。
这意味着什么?Nuvacore的创立,某种程度上是对高通战略撤退的"反其道而行"——他们认为高通放弃的服务器市场,恰恰是最值得押注的方向。
这种"大公司的盲区就是初创公司的机会"的逻辑,在半导体史上反复上演:AMD从英特尔忽视的64位市场突围,NVIDIA从CPU主导的通用计算中切出GPU加速。但反例同样多:Calxeda、SeaMicro、Cavium的服务器芯片尝试,最终都归于沉寂。
关键变量在于"生态位"的选择。Nuvacore没有透露授权模式(是否像Arm一样卖IP),还是直接卖芯片。前者需要漫长的客户设计周期,后者需要庞大的资本投入——红杉的单笔投资,大概率不足以支撑流片后的量产阶段。
我的判断:这是一场关于"架构话语权"的争夺
Nuvacore的真正野心,可能不是成为下一个AMD,而是重新定义数据中心CPU的架构范式。
观察其团队背景:Williams在苹果主导的是"消费级高性能",Nuvia时期探索的是"云原生效率",高通Oryon则是"跨设备统一架构"。这三段经历的交集,指向一个被低估的趋势——边缘与数据中心的边界正在模糊。
大模型的小型化(Llama 3 8B可在单卡运行)、Agent的分布式部署、端侧推理的崛起,都在催生一种新需求:能在边缘服务器、区域节点、核心云之间无缝迁移的计算架构。现有方案要么太重(x86服务器芯片),要么太专(AI加速器),中间地带存在空白。
Nuvacore的"为高度而设计",如果解读为"从边缘到云端的垂直优化",而非单纯的性能指标,其故事就通顺得多。这不是与AMD正面竞争,而是试图成为下一代分布式AI基础设施的默认选项。
但风险同样真实。半导体行业的"老 guard"之所以老而不死,不是因为缺乏创新勇气,而是因为生态锁定的网络效应。指令集架构、编译器优化、操作系统适配、云厂商的存量代码——这些沉没成本构成的护城河,比任何技术参数都更难跨越。
Williams团队需要回答的终极问题是:你们的架构优势,是否大到足以让客户承担迁移成本?
在Nuvacore给出跑分数据之前,这个问题没有答案。但至少,他们选择了一个正确的战场——当AI算力需求每百天翻倍的当下,"足够好"的架构确实可能不再够用。迭代者的窗口正在关闭,重写规则者的窗口或许刚刚打开。
至于结果?参考Nuvia的命运:做出好东西,然后被高通买下。这次Williams自己当老板,大概会更在意价格标签上的零的数量。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.