![]()
![]()
CES 2026,芯片巨头的“正面交锋”。
作者|苏霍伊 刘杨楠
编辑|王博
1月5日的拉斯维加斯CES现场,空气中弥漫着芯片巨头间剑拔弩张的硝烟味。
全球AI芯片领域的两家顶级厂商——英伟达与AMD,在数小时内先后登场。当地时间下午1点多,英伟达CEO黄仁勋开始演讲,完整披露了Rubin架构的性能与量产进度,强化“规模+统一架构”的叙事;就在黄仁勋演讲完约4个小时后,当地时间傍晚6点半,AMD董事长兼CEO苏姿丰走上舞台,以“AI Everywhere, for Everyone”为核心主线,集中展示了其从数据中心到终端设备的全栈AI战略。
不过,今年CES官方给出的主题演讲名单中,苏姿丰排在第一位。
![]()
图片来源:CES官网
苏姿丰这次也是带来了一批硬货来镇场子,包括:
Helios:AMD面向yotta级AI计算时代提出的一套机架级(rack-scale)AI 基础设施参考架构与系统蓝图,基于AMD Instinct MI455X GPU与AMD EPYC Venice处理器构建,专为先进AI工作负载而设计,单机架可提供高达2.9 ExaFLOPS算力。
全新GPU产品:推出面向企业级部署的AMD Instinct MI440X GPU,其采用2nm/3nm制程,集成3200亿晶体管,配备432GB HBM4高带宽内存;并提前预告了下一代Instinct MI500系列GPU,预计2027年推出。
终端与边缘侧:发布了全新的Ryzen AI平台,覆盖AI PC与嵌入式应用场景,并正式推出Ryzen AI Halo开发者平台。AMD称其为世界上最小的AI开发系统,配备128GB高速统一内存,支持在本地运行2000亿参数规模的大模型,预计2026年第二季度推出。
「甲子光年」认为,从这次CES 2026的发布来看,AMD并没有重复一套“单点性能领先”的叙事,而是选择一条更偏向系统工程与长期演进的AI路线。
Helios直接把竞争维度直接拉升到机架级、yotta-scale的基础设施层面,试图提前回答未来超大规模训练与推理应如何协同运转。新发布的MI440X面向的是“可部署、可落地”的现实需求,而MI500的提前预告,则更多是在向云厂商和超大客户释放长期路线图信号,可以说这是一种“先把棋盘铺开”的策略。在终端侧,Ryzen AI、AI PC 与嵌入式平台同步推进,显示AMD对本地与边缘AI的明确押注,而Halo开发者平台本质上是在抢占生态与工具链入口。
苏姿丰并不执着于勾勒未来,而是拉上一众合作伙伴一起,讲述了一个又一个关于“当下”的片段。她把演讲大半的时间交给合作伙伴:模型研发、AI PC、医疗健康、空间计算、人形机器人甚至是太空探索。
在被现场观众戏称为“复仇者联盟”的合作伙伴介绍环节,苏姿丰“摇”来了业界一众大咖:
OpenAI联合创始人、总裁格雷格·布罗克曼 (Greg Brockman)
Luma AI联合创始人&CEO阿米特·贾因(Amit Jain)
Liquid AI联合创始人兼首席执行官拉敏·哈萨尼(Ramin Hasani)
World Labs联合创始人、CEO,斯坦福大学教授李飞飞(Fei-Fei Li)
Generative Bionics CEO达尼埃莱·普奇(Daniele Pucci)
蓝色起源(Blue Origin)高级副总裁约翰·库鲁里斯(John Couluris)
工作之外的苏姿丰热衷扑克、雪茄和威士忌,她牌技高超、判断敏锐。此刻,在拉斯维加斯的苏姿丰正在下注,希望从英伟达手中抢夺一部分AI基础设施市场。
1.“我每次见你,你都说你需要更多计算资源”
“不出所料,今晚的一切都与AI有关。”苏姿丰一上台就说道。
自ChatGPT问世以来,AI的活跃用户规模在短短几年内从100万激增至超过10亿,这是互联网技术用了几十年才达到的商业里程碑。
“AI正在让我们变得更聪明、更有能力。”苏姿丰表示。但这种进化并非没有代价,随着AI形态从简单的文本交互演进为更多模态、能够自主执行长周期任务的Agent,底层算力的缺口正被无限拉大。
苏姿丰给出的判断是:未来五年,全球需将AI计算能力提升至10 Yottaflops。“1 yottaflop是一个‘1’后面跟着24个‘0’。所以 10 yottaflop 的计算能力是2022年的10000倍。”她说。
为了承接这一野心,苏姿丰在主题演讲中全面展示了其最新系统级方案的布局。
她强调,AMD是目前行业内唯一拥有CPU、GPU、NPU及定制加速器全系列组合的公司。这种“全家桶”式的硬件矩阵,正是其对抗算力焦虑的核心底牌。
硬件方面,AMD开发了新一代机架级解决方案Helios,试图通过高集成度的系统级创新,解决大模型训练与推理的效率瓶颈。
Helios由AMD Instinct MI455X GPU、AMD EPYC Venice CPU 和 AMD Pensando Vulcano网卡提供支持,实现横向扩展网络,重量接近7000磅,机架中最多可包含72块GPU,相当于两辆小轿车的重量。
![]()
AMD新一代机架级解决方案Helios
Helios平台的核心是Instinct MI455XGPU,这也是AMD迄今为止打造的最先进的芯片。这款芯片采用了2nm和3nm的先进制程工艺,集成了高达3200亿个晶体管,比MI355 多70%,包含12个2nm/3nm 计算与I/O 芯粒,配备了432GB的高带宽HBM4内存。 Helios的每个计算托盘包含四块MI455X GPU,可与EPYC Venice处理器和Pensando网络芯片集成,全部采用液冷技术。
而代号为“Venice(威尼斯)”的新一代EPYC CPU,采用2nm先进制程,并采用Zen 6架构,核心数高达256核。
在这一体系下,整个机架能够被视作一个单一的、高效的计算单元运行。单台Helios机架式服务器通过800G以太网和Pensando网络芯片,配备超过18000个CDNA 5架构GPU运算单元与4600个Zen 6架构CPU核心,可提供高达2.9 ExaFLOPS的算力,并搭载31TB容量的HBM4内存。
![]()
AMD数据中心
随后,苏姿丰还介绍了AMD Instinct MI400系列GPU。
MI400系列的最新成员是AMD Instinct MI440X GPU,专为企业本地AI部署而设计。MI440X采用紧凑的8块GPU封装,可无缝集成到现有基础架构中,从而支持可扩展的训练、微调和推理工作负载。MI440X GPU基于近期发布的AMD Instinct MI430X GPU打造,核心是为高精度科学计算、高性能计算 (HPC) 和自主人工智能 (AI) 工作负载提供领先的性能和混合计算能力。
MI440X和MI455X都属于AMD的MI400系列芯片。其中,MI440X是面向企业级部署与中型数据中心的产品,强调现实中可部署、可落地的AI推理和训练能力,适合在企业内部设施或中等规模系统中使用。而MI455X则是针对更大规模AI训练与推理场景的高端型号,意图在对标英伟达Rubin的大规模AI计算上具备竞争力。
![]()
MI455X
苏姿丰在现场还透露,下一代MI500系列已在紧锣密鼓地开发中。该系列基于CDNA 6(Compute DNA 6)架构设计,采用2nm工艺制造,并搭载HBM4e高带宽显存 ,并计划于2027年推出,其AI性能较过去四年将提升1000倍。
在演讲中,OpenAI联合创始人、总裁格雷格·布罗克曼惊喜现身。
![]()
OpenAI联合创始人兼总裁格雷格·布罗克曼 (Greg Brockman)
他并未带来新的模型或应用展示,而是强化了一个已被反复验证的行业事实:先进模型的演进,正在不断吞噬既有算力冗余。
“现在我们正看到企业级智能体(enterprise agents)和科学发现领域开始腾飞。”布罗克曼说。
布罗克曼提到,每一次模型能力的跃迁,都会迅速“用完”此前被认为足够的计算资源。而当世界转向Agent工作流,一个开发者可能同时运行10个不同的任务流,每个任务流持续数天。这种算力消耗,意味着AI不再是按需调用的工具,而是持续运行的基础设施。这使得模型公司在现实中面对的,不是“是否需要更强的GPU”,而是“是否能够持续、稳定地获得规模化算力交付”。
苏姿丰还开玩笑说:“我觉得我每次见你,你都说你需要更多计算资源。”
对话中,布罗克曼透露,OpenAI内部存在着对算力的争夺现象,尽管OpenAI在过去几年中将算力翻了三倍。
在这一语境下,算力竞争的焦点开始从单卡性能,转向系统级基础设施的可扩展性——这也是OpenAI选择同时与多家芯片与系统供应商合作的直接原因。
布罗克曼还表达了一个愿景:“我希望世界上每个人都能在后台运行一个GPU,因为那能为他们释放真实的价值。”
不过,这一系列硬件组件都需通过开放的AMD ROCm软件生态系统进行统一。
长期以来,软件生态被视为AMD挑战竞争对手的最大短板。但在本次CES主题演讲中,苏姿丰用了重头戏来介绍ROCm软件栈的最新进展。
![]()
AMD ROCm
如今的ROCm不再仅仅是一个追赶者。AMD通过与Meta等巨头合作开发OCP(开放计算项目)标准,推动算力底座进一步开放。目前,ROCm在主流大模型框架上的兼容性已大幅提升。
Luma AI的分享佐证了这一点。
![]()
Luma AI联合创始人、CEO阿米特·贾因(Amit Jain)
贾因提到,与以文本为主的大模型不同,三维重建、视频生成和空间建模等多模态任务,对算力的消耗呈指数级上升。
在他看来,当前生成式 AI 的主要瓶颈,已经不完全在模型本身,而在于能否以可接受的成本运行这些模型。这也是为什么初创公司往往更关注计算效率、内存带宽以及软件栈的可调优性,而不仅仅是峰值算力指标。
这一判断,实际上也解释了为什么部分AI公司开始在英伟达体系之外,探索更多元的算力组合。
Luma AI透露,通过与AMD团队合作,他们实现了最佳的总体拥有成本(TCO)。2026年,Luma AI与AMD的合作规模将扩展到之前的10倍。
“我们很早就押注了AMD。”贾因说道,因为大多数AI软件在AMD平台上都能“开箱即用”。但是,现场也有开发者表示:“这显然与我听到的关于ROCm的评价不符。”
虽然依然有负面的声音,但不可否认的是,AMD的朋友圈正在不断扩大。
2.“AI是有史以来创造的最强大的技术,它可以无处不在,惠及每个人”
如果说云端大模型考验的是算力的规模极限,那么人形机器人、太空系统与端侧AI,则考验算力在现实世界中“持续运行”的能力。
这次,AMD宣布了Ryzen AI 400系列处理器的全新升级。该系列搭载12个高性能Zen 5 CPU核心、16个RDNA 5架构核心,以及RDNA 3.5 TPU核心和最新的XDNA架构NPU,提供算力达60TOPS。这意味着新一代AI PC将具备更强的本地处理能力,能够处理更复杂的端侧任务。首批系统将于2026年1月发货,并于2026年第一季度面向更广泛的OEM厂商供货。
我们注意到,苏姿丰演讲中提到的一个名为“Ryzen AI Halo”的AI开发者平台引发了极大关注。
![]()
Ryzen AI Halo
这个设备体积很小,却配备了128G高速统一内存,实现了CPU、GPU和NPU的内存共享。
它的实际意义在于:开发者可以在完全不联网的情况下,在本地设备上运行参数规模高达2000亿的模型。这一突破打破了“大模型必须上云”的刻板印象。Halo支持多种操作系统,预装了开源开发工具,计划于今年二季度正式推出。
Liquid AI联合创始人兼首席执行官拉敏·哈萨尼(Ramin Hasani) 对此给出了技术层面的注脚。
![]()
Liquid AI联合创始人兼首席执行官拉敏·哈萨尼(Ramin Hasani)
他认为,端侧AI有三个不可逾越的需求:隐私、速度和连续性。
这意味着,并非所有任务都适合被送往云端处理。尤其是在涉及个人数据、实时交互或弱网络环境的场景中,保持AI能力的连贯性,并确保敏感数据不出本地,是AI能够进入金融、医疗等垂直领域的先决条件。这些场景下,端侧AI具备不可替代的价值。
因此,端侧模型的兴起,并不是对云计算的否定,而是算力体系分层的结果——云端负责规模,端侧负责高效响应。AMD的端侧布局,恰好踩在了这一需求痛点上。
不过,当大模型试图理解真实世界时,文本和图像显然已经不够。
这次,被誉为“AI教母”的李飞飞也带着她的创业项目World Labs来到现场。
![]()
World Labs联合创始人、CEO,斯坦福大学教授李飞飞(Fei-Fei Li)
她展示了名为Marble的生成式3D模型。这项技术能够仅凭手机拍摄的几张照片,在几分钟内构建出一个具备深度信息、比例感和几何一致性的连贯3D世界。
与传统的生成式AI不同,空间智能需要处理复杂的3D结构、物理规律和运动逻辑。李飞飞表示,依靠AMD MI325X芯片和ROCm软件栈的支持,World Labs在不到一周的时间内,就跑通了实时帧生成模型的迭代,几周内性能提升超4倍。
李飞飞介绍,此前World Labs前往AMD办公室并使用手机摄像头进行了扫描,没有使用任何特殊设备。随后,World Labs利用其模型重新构建了这座位于硅谷的办公室。“过去需要数月才能完成的工作,现在只需几分钟即可完成。”
此外,她还展示了Marble生成的威尼斯人酒店(Venetian Hotel)图像,而这正是本次活动的举办地,“这是昨天刚刚制作完成的。”李飞飞说。
当李飞飞说我们需要“开发能够反映真实人类价值观的AI”时,现场响起了掌声。
此外,苏姿丰还邀请了来自人形机器人、医疗健康、商业航天领域的明星伙伴上台,密集展示了AMD算力方案在垂直领域的应用:
在物理AI与机器人领域,Generative Bionics CEO达尼埃莱·普奇展示了人形机器人在物理世界中的实时交互能力。
他提出,人形机器人并不是把现有模型“装进一个外壳”,而是要求 AI 在连续、复杂、不可预测的物理世界中实时运行。
与大模型训练或云端推理不同,人形机器人所面对的是一个持续闭环的系统:感知、决策与动作之间不存在明显的边界,任何计算延迟或不稳定,都会直接体现在身体行为上。
这也意味着,人形机器人对算力的需求并不以峰值性能为第一目标,而是更强调低延迟、确定性和长期稳定运行的能力。在这一场景下,算力不再只是“支持智能”的后台资源,而是直接参与控制身体的核心组成部分。
而依靠AMD提供的低功耗、高带宽算力,机器人能够对环境变化做出快速反应。
普奇还表示机器人也需要触觉,他们甚至还为机器人制造了鞋子,用作传感器。苏姿丰称这“超级酷”。
![]()
Generative Bionics CEO达尼埃莱·普奇(Daniele Pucci)
在医疗健康领域,AMD与Absci、Illumina及阿斯利康等企业合作,为其药物发现、基因组分析与精准医疗提供高性能算力支持。合作伙伴利用AMD Instinct GPU与EPYC处理器,加速AI模型训练与大规模数据推理,实现药物虚拟筛选、疾病早期诊断与个性化治疗方案开发,共同推动AI在医疗科研与临床中的应用突破。
一个趣事是,Absci创始人、CEO肖恩·麦克莱恩(Sean McClain)在对话时表示他们希望“AI能治愈秃顶”,而坐在他身边的Illumina CEO雅各布·蒂森(Jacob Thysen)就是一位光头男士。
麦克莱恩还介绍,Absci正在转向使用AMD MI355X,切实提高药物研发的速度。
![]()
苏姿丰与Absci、Illumina及阿斯利康圆桌对话
在太空探索领域,AMD与蓝色起源(Blue Origin)等机构合作,为其月球常驻计划及深空探测任务提供高可靠、抗辐射的嵌入式算力解决方案。
“太空是终极的边缘环境。”蓝色起源高级副总裁约翰·库鲁里斯说。
![]()
蓝色起源(Blue Origin)高级副总裁约翰·库鲁里斯(John Couluris)
在演讲的最后,苏姿丰感叹:“AI是有史以来创造的最强大的技术,它可以无处不在,惠及每个人。”
一直以来,AMD都被视为在英伟达阴影下寻找突破口的追赶者。在AI与高性能计算的赛道上,AMD对英伟达展开了多项对标。从消费级产品到数据中心产品,从云侧到端侧,从软件到生态,AMD几乎在每一个英伟达的核心战场上同步推进对应产品。
以AMD的ROCm与英伟达的CUDA对比为例,根据Thunder Compute算力平台在2025年的实测:在性能方面,CUDA通常仍比ROCm快10%~30%,但与前几年40%~50%的差距相比,差距已经明显收窄;在成本方面,ROCm整体价格低15%–40%(视硬件档位而定),代价是对使用者的技术配置能力要求更高;在生态方面,PyTorch已经提供对ROCm的官方支持,但CUDA在框架兼容性和工具成熟度上仍占优势。
苏姿丰更多的信心来自于财报。根据此前AMD公布的2025财年第三季度财报,AMD在总营收、利润、自由现金流以及C端营收四个方面都创下了新纪录:总营收达92.46亿美元,同比增长36%;毛利润为约47.80亿美元,同比增长40%;自由现金流增长超2倍;C端业务营收27.5亿美元,同比增长46%。
![]()
AMD GAAP 季度财务业绩,翻译:「甲子光年」
整体来看,AMD在CES 2026并没有选择用“最强芯片”去制造单点震撼,而是用一整套从数据中心到终端、从产品到生态的发布,试图构建一个更长周期、更可持续的AI竞争框架。
这种路径未必最激进,但在AI正从“爆发期”走向“工程化深水区”的当下,反而显得更冷静,也更耐心。
(封面图与未标注来源图片由「甲子光年」拍摄)
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.