集微网报道 今日,AMD公布2023年第四季度及全年财报,第四季度营业额62亿美元,全年营业额227亿美元,得益于AMD Instinct GPU和EPYC(霄龙) CPU创纪录的季度销售额以及AMD Ryzen(锐龙)处理器销售的增长,营业额和收益实现环比与同比同步增长。
AI领域的快速发展超出AMD预期,其将此前制定的2024年数据中心AI GPU产品的收入由20亿美元修改为35亿美元。在大模型领域,AMD对于其MI300X数据中心GPU产品充满希望,同时表示也将对其CPU市场持续收获份额充满信心。今年下半年,搭载全新Zen5架构的产品将会推出。
数据中心业务强势增长 实现创纪录营收
Q4季度AMD实现62亿美元营业额,同比增长10%,主要来自于数据中心和客户端业务的贡献,均实现双位数的同比增长。但受游戏业务等影响,全年227亿美元营业额同比下降4%。
受益于人工智能浪潮的推动,AMD数据中心业务Q4增长强劲。本季度营业额达到创纪录的23亿美元,同比增长38%,环比增长43%。2023年,AMD数据中心事业部营业额为65亿美元,与2022年相比增长7%,同样实现创纪录的年度增长表现,主要得益于AMD Instinct GPU和第四代AMD EPYC CPU的强劲增长。
AMD CEO苏姿丰在财报会上表示,尽管在云业务市场整体需求环境仍然疲软,但随着在北美超大规模云服务厂商中实现第4代EPYC处理器的逐步部署,AMD服务器CPU收入将逐年增加。Q4包括亚马逊、阿里巴巴、谷歌、微软和甲骨文等厂商将部署超过55个由AMD驱动的AI、HPC和通用云实例。2023年全年,有800多个基于EPYC CPU的公共云实例部署。预计这个数字将在2024年继续增长。
目前,AMD正在推动其EPYC服务器CPU在金融、能源、汽车、零售、技术和制药公司的拓展,在性能方面具有吞吐量,以及70亿Llama大模型进行训练和推理上的功耗优势。AMD表示,今年下半年推出的第五代EPYC CPU“都灵”将进一步提升AMD在数据中心业务领域中的领导力。
目前的一些媒体爆料显示,“都灵”CPU采用新一代Zen5架构,增加新的内存扩展功能和更高核数。与基于Zen4的第四代系列处理器相比,“都灵”增加了 33% 的核心数量以及33%的L3缓存。
由于锐龙7000系列CPU销售增长,Q4AMD客户端业务营业额为15亿美元,同比增长62%。但从全年看,由于PC市场的下滑,客户端事业部营业额为47亿美元,与2022年相比下降25%。
游戏业务本季度营业额为14亿美元,同比下降17%,环比下降9%。2023年,游戏事业部营业额为62亿美元,与2022年相比下降9%, 主要原因是半定制产品销售下降。
因客户降低库存水平,本季度AMD嵌入式业务营业额为11亿美元,同比下降24%,环比下降15%。2023年,由于赛灵思的并购所带来的全年营业额,嵌入式业务营业额达到53亿美元,与2022年相比增长17%。
人工智能正在成为助力AMD成长的基石和机遇,在去年12月初召开的“Advancing AI”活动上,AMD展示了AI所带来的市场空间以及AMD从数据中心到PC的解决方案,并发布两款AI芯片旗舰产品——Instinct MI300X与MI300A,以及引领AI PC时代的锐龙8040系列处理器。
苏姿丰表示,Q4AMD数据中心GPU业务大幅加速,收入超过了4亿美元的预期,得益于MI300X在客户中的快速导入,得到了来自大规模云服务商,OEM以及许多领先的AI开发人员的支持。基于MI300系列目前客户一侧的强劲需求以及产品的市场导入情况,对未来发展前景看好。
当前,AMD将AI视为第一战略重点,存在大量的市场机会,而最大机遇来自数据中心。MI300系列已成为AMD历史上收入增长最快的产品。而2024年将会是AI进一步集中落地的年份。AMD预计来自CPU、GPU、FPGA以及其他AI数据中心业务将推动市场规模从2023年的450亿美元增加到2027年的4000亿美元,年均复合增长率超过50%。
AI领域的快速发展也使得AMD不断调整营收预期,此前,AMD预计2024年数据中心AI GPU产品的收入将超过20亿美元。而在电话会上,AMD表示,结合市场需求情况,这一数字将调整至35亿美元。
GPU仍是大模型首选 CPU持续拓展份额
此次财报会上,AMD最新发布的数据中心GPU MI300X成为分析师最为关注的话题。MI300X由台积电代工,其第三代CDNA架构集成了高达1530亿个晶体管,是目前最为先进的数据中心GPU芯片。
苏姿丰表示,随着越来越多的企业开展AI相关业务,进行大模型开发,推理的需求将超过训练,这样的趋势将成为未来几年AI领域的显著特征,而在相关的硬件支持方面,考虑到不同类型的模型,从小的模型到模型微调,再到大语言模型,针对不同用例,需要不同硬件,但从AMD的角度,大语言模型的训练和推理,GPU仍是首选计算单元。
苏姿丰表示,目前MI300系列体现出强劲的牵引力,而AMD依靠独有的chiplet小芯片技术,使得芯片产品能够同时具有APU和GPU版本,从而获得内存带宽和容量的优势。
此外,为强化GPU的生态能力,AMD目前在积极推进生态方面的建设,包括发布其最新版本的开源ROCm 6,为生成式人工智能优化的软件堆栈。AMD还扩展了对ROCm软件的支持,包括AMD Radeon RX 7900 XT GPU,为人工智能开发人员和研究人员使用AMD硬件进行人工智能工作提供了更多选择。
苏姿丰表示,通过和顶级云服务商和OEM厂商的合作,持续优化ROCm 6,目前进展顺利。同时,也在开源社区方面得到了很好地支持,包括同hugging face、Triton等厂商的合作,这些都承载着AMD对于GPU市场进一步取得扩展的期望。
苏姿丰表示,与竞争对手相比,MI300系列产品拥有更多的带宽和内存容量,对于数百亿参数的大型语言模型而言,意味着更少的GPU用量,以及更好的整体拥有成本。在MI300方面,AMD认为路线图非常有竞争力,预计今年每个季度收入都会增加,随着产能供应等问题下半年有所改观,下半年增势将更加明显。
尽管GPU在处理大模型方面具有优势,但并非唯一选择。在去年的“Advancing AI”活动上,集微网记者看到采用AMD EPYC 9654处理器运行Llama 2大语言模型的展示,在同竞品Xeon Platinum 8480的对比中,处理运行速度提升36%。这意味着,在某些场景下,依靠CPU提供的AI算力也能够进行大模型处理,而非仅依靠GPU,这对于具有较少GPU资源的企业而言非常具有吸引力,也能够带来成本上的节省。
而在数据中心CPU方面,AMD认为每一代EPYC的推出,都在助力AMD进行市场份额的拓展,去年Q4实现了创纪录的收入。当下,采用Zen4架构的与Genoa、Bergamo、Siena表现出较好的竞争优势,而在进入Zen5的“都灵”后,AMD仍将保持乐观地持续收获市场份额的预期。此外,苏姿丰表示,2024年,数据中心CPU的业务增长取决于宏观和整体资本支出的趋势,从AMD的视角,基于节能等因素的考虑,可以看到一些大客户正在进入他们的基础设施产品更新周期,这将给AMD带来更多机会。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.