![]()
芯东西(公众号:aichip001)
作者 陈骏达
编辑 心缘
芯东西2月2日报道,1月29日,AMD CTO兼执行副总裁Mark Papermaster接受了播客More Than Moore的深度访谈,勾勒出AMD的未来的路线图:AMD是台积电2nm工艺的首个流片客户,与台积电进行了极其深度的协同优化。2026年,随着下一代Instinct GPU与Helios机架的交付,AMD将从目前的数千节点训练能力跃升至支持数十万卡集群的AI基础设施,正式向大规模AI训推市场发起总攻。
在2011年AMD濒临绝境之际,Papermaster加入AMD,比AMD现任CEO苏姿丰还要早2-3个月。苏姿丰主要负责业务,而Papermaster负责工程。
过去十五年时间里,Papermaster深度参与了AMD早期向Zen架构的转型,推进了Infinity Fabric、3D V-Cache、Instinct显卡以及近期的机架级AI平台等项目,还见证了AMD工程文化和路线图规划的演变。在这场访谈中,Papermaster结合自己的经历,分享了不少关键洞察:
![]()
▲Mark Papermaster(右)与节目主持人Ian Cutress(左)(图源:More Than Moore)
1、技术节点的收益递减并不等于创新停滞。AMD正通过深度协同优化获取密度增益,以推进总体拥有成本(TCO)的下降。
2、2025年AMD大举收购了十几家公司,接纳数千名员工,收购重点是AI模型开发和光学,并通过ZT Systems的收购让AMD真正具备了机架级设计能力。
3、架构设计的关键在于平衡计算、内存与I/O,而非单纯堆砌核心数。CPU计算范式正在转变,未来行业不仅要追求每瓦每平方毫米的性能,更要将推理能力融入CPU,并确保与GPU形成高效的异构计算协同。
4、AMD倡导“良性争论(healthy contention)”,鼓励团队对不同方案进行专业辩论以优化决策。
5、摩尔定律还没死,每当有人告诉你“我们完蛋了”、“遇到壁垒了”或者“摩尔定律已死”,恰恰就是创新这一制胜法则发挥作用的机会。
6、AMD推行AI原生的芯片设计方法,将AI视为得力助手,就像不会不带手机出门一样,让AI成为不可或缺的工具。
7、AMD目前已经在出货750瓦功耗的GPU,未来,他们将向千瓦和两千瓦级别的设计迈进。
8、随着供应链成熟,光互连将在未来三年内从大规模集群逐步渗透到更高密度的纵向扩展领域,但铜互连不会消失。
以下是Mark Papermaster最新访谈核心内容的梳理:
一、AMD是台积电2nm工艺首个流片客户,能效提升不如以往但密度仍有优化空间
访谈伊始,Papermaster把时光拨回10年前,他回忆道:“几乎没人相信我们能成为行业的一员。”
当时AMD的CPU架构Zen尚未发布,服务器级CPU EPYC仍在路线图上。很难想象到10年后,AMD会同时参与到CPU、GPU和AI基础设施的前沿竞争。
这种转变并非在单一产品周期内完成。它需要长期基础设施投资、多代执行纪律,以及提前多年承担风险的意愿,才能看到明显成果。
2016年时,行业判断元宇宙可能是前景更广阔的方向,但却没预料到AI的颠覆性影响会来得这么快。Papermaster称,在那段时间人们都没意识到,要打造一个能够驱动AI时代的芯片基础设施,仍需要大量建设。
关于Zen架构初期的战略定位,Papermaster将2017年推出的前两代产品视为“验证期”而非“烟幕弹”。这一时期旨在回答市场关键质疑:AMD是否具备真正的持续创新能力,抑或只是昙花一现。
面临外界疑虑,AMD始终“将油门踩到底”,将公司翻身全盘押注于打造具有领导地位的处理器。技术路线上,第一代Zen实现了42%的IPC跃升,此后每代保持15%-20%的两位数增长;直至第三代才达到技术能力的“曲线拐点”,此时市场方才确信AMD已脱胎换骨,市场份额随之真正起飞。
Papermaster解释,选择先攻CPU源于x86生态的无缝迁移优势,同时外界当时并未察觉AMD正并行推进GPU业务、Radeon游戏显卡及AI计算布局,这为后续发展埋下了关键伏笔。
关于单核性能是否存在物理极限的问题,Papermaster对工程师创新能力仍有坚定信心,强调技术节点的收益递减并不等于创新停滞。
他透露,AMD作为台积电2nm工艺的首个客户(首个流片),尽管能效提升已不如以往,AMD正通过深度协同优化获取密度增益,以推进总体拥有成本(TCO)的下降。面向未来,他认为架构设计的关键在于平衡计算、内存与I/O,而非单纯堆砌核心数。
值得注意的是,Papermaster详细阐述了AMD在AI时代的CPU路线图:当前AVX引擎已支持原生512位宽和VNNI指令,具备良好的推理能力;而Zen 7及后续架构将引入ACE引擎,提供更先进的灵活推理能力。
这标志着CPU计算范式正在转变,未来不仅追求每瓦每平方毫米的性能,更要将推理能力无缝融入CPU,并确保与GPU形成高效的异构计算协同,以应对AI无处不在且传统工作负载长期并存的混合需求。
二、AMD鼓励内部“良性争论”,CTO坚信摩尔定律还没死
回顾AMD过去做的关键重要决策,Papermaster谈到了Infinity Fabric。
这是AMD在Zen架构之前就开始投资的芯片互联技术,现已发展到第五代。尽管当年引发争议甚至导致高管离职,但这一决策成为AMD实现CPU/GPU无缝扩展、避免瓶颈的关键。此外,Chiplet技术是AMD在企业级市场的重大赌注,带来巨大回报。
凭借对3D堆叠技术的长期投入,AMD目前仍是唯一大规模量产3D V-Cache的厂商,在游戏芯片领域保持四年技术领先。
那么,AMD是如何做出上述正确决定的呢?Papermaster称,AMD倡导“良性争论(healthy contention)”,鼓励团队对不同方案进行专业辩论以优化决策。
AMD还建立了容错机制,从未出现需要推翻的微架构路线失误,若发现晚期漏洞,可通过诊断和可替代性设计实现生产级补丁,确保用户端功能不受影响。他们还重视韧性设计,内置了可靠性、可用性和可维护性架构,配备大量诊断功能。
访谈中,Papermaster也回顾了自己在IBM 26年的职业生涯。
80年代初他毕业并加入IBM时,起步于一支小规模但特立独行的团队,任务是打造IBM首款NMOS芯片,两年后转而打造IBM的CMOS专用集成电路(ASIC)。
Papermaster最初是做模拟电路的,后来迅速转向数字电路和微处理器设计,并主导了Power微处理器的研发。模拟电路的背景教会他,永远不能忽视物理本质。即便拥有最先进的分析工具,最终还是要回归到:这符合物理规律吗?背后的科学原理扎实吗?
他认为,这些八九十年代的经验教训,如今依然有效:“每当有人告诉你‘我们完蛋了’、‘遇到壁垒了’或者‘摩尔定律已死’,恰恰就是创新这一制胜法则发挥作用的机会。我们总会找到绕过障碍的方法,为终端客户创造价值。”Papermaster坚定的认为,摩尔定律还没死。
三、AMD已推行AI原生芯片设计方法,将继续坚持通用方案
谈及AMD未来的规划与目标,Papermaster透露,AMD正对其流片策略进行调整。GPU层面,AMD几乎每代A0步进(首轮流片)即达到商用标准,这是因为GPU可编程性强、容错性高。
CPU层面,AMD传统上预留两次流片机会,但因掩膜组成本(数百万美元)和测试样本费用越来越高,现在正转向“首轮流片即成功”的目标。
AMD还将AI应用于芯片设计,重点领域是物理设计和设计验证,他们利用AI提升覆盖率、提前发现漏洞。AMD推行的是AI原生的芯片设计方法,将AI视为得力助手,就像不会不带手机出门一样,让AI成为不可或缺的工具。
Papermaster认为,如今进行芯片设计的方式将彻底改变,我们将能够实现芯片与算法更紧密的融合。但AMD仍然坚持通用CPU、GPU路线,因为算法在不断变化,我们始终需要通用计算能力。
他相信,算力的这个舞台足够广阔,既需要量身定制的专用解决方案,同时也需要通用的可编程性。AMD提供了FPGA,客户可以用它进行原型设计并适配最新算法。对于需要定制芯片的大型客户,AMD也很乐意提供这类服务。
2025年,AMD进行了多笔收购,大约有十几家公司,数千名员工,其中大部分融入了AMD的组织架构,不过Papermaster不认为这会让AMD的工程师团队变得臃肿,因为其收购的目标十分明确。
AMD的主要人才收购集中在AI模型开发领域和光子学,而去年最大的一笔收购是ZT Systems,它让AMD真正具备了机架级设计能力。
ZT Systems已经参与了AMD的Helios机架设计,2026年这一机架将会正式上市,使AMD能提供从芯片到整机架的参考设计。
产品方面,AMD目前已经在出货750瓦功耗的GPU,未来,他们将向千瓦和两千瓦级别的设计迈进。最近,Papermaster在与一些初创公司会面,探讨与散热技术相关的前沿研究,不过,他认为短期内高度集成的液冷将成为高密度机架的事实标准。
Papermaster强调,与八九十年代IBM大型机那种单一整体的设计不同,今天的机架级系统呈现出高度模块化特征,这正是AMD的重要战略。
通过将CPU、GPU等计算核心设计为可跨数据中心、企业、边缘计算乃至PC端复用的模块化架构,AMD既能满足垂直优化的机架级高密度需求,又能实现横向的快速市场衍生。
机架级优化团队与横向扩展团队之间的设计博弈,让AMD能在保持垂直性能的同时,将技术快速下放到包括AI PC在内的更广阔市场,使千亿参数模型得以在消费端运行。
在互连技术层面,Papermaster对光学与铜互连采取了务实的渐进策略。他认为,当前铜互连在72个GPU的节点(如Helios设计)内仍具备成本与可靠性优势,光互连目前主要流行于数千节点的大规模横向扩展场景。
随着供应链成熟,光互连将在未来三年内从最大规模集群开始逐步渗透到更高密度的纵向扩展领域,但铜互连不会消失,因为市场需要覆盖从基础模型训练到企业级应用的广泛解决方案。
AMD希望在架构中保留对两种互连方式的灵活性,并通过开放生态支持Celestial.ai等创新方案,避免专有的封闭式系统。
结语:研究团队规模翻倍,全面进军大规模AI训推
面对AI驱动的年度产品更新压力,Papermaster透露AMD已建立了从长期研究(五年以上)、中期路径探索(三到五年)到当前产品开发的梯队式创新体系。
收购赛灵思后,AMD研究团队规模翻倍,与产品开发团队深度合作,确保在前期设计阶段就具备竞争力,同时通过严格的路线图流程平衡创新敏捷性与商业交付的严谨性。
展望2026年,Papermaster最为期待的是下一代Instinct GPU以及Helios机架。有了这些产品,AMD将全面进军大规模AI训练和推理领域。AMD如今虽支持训练,但只到数千节点,未来会有能力支持数十万卡的训练。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.