亲爱滴小伙伴们
最近微信又改版啦
邀请大家动动手指
把圈主设为星标
这样就不会错过我们的精彩推送了
![]()
直播嘉宾:
李星全 国泰基金研究员
— 摘 要 —
2026年英伟达GTC大会密集发布重磅技术成果,推动AI产业技术迭代持续加速,算力、存力、运力三大核心赛道迎来全新增长机遇,通信ETF(515880)、半导体设备ETF(159516)成为把握AI产业高景气红利的核心配置工具。
本届大会四大核心发布奠定产业发展基调:一是Feynman架构芯片正式亮相,采用台积电1.6nmA16制程,单GPU算力达50PFLOPS,推理性能为Blackwell的5倍,计划2028年量产;二是推出Rubin UltraNVL576卡机柜,通过正交背板技术大幅提升单机柜算力集成度;三是全球首款量产CPO交换机落地,明确铜缆、光学、CPO三条技术路线并行推进;四是发布LPU推理专用芯片,专为AI推理场景优化,吞吐效率较Blackwell提升35倍,预计2026年下半年出货。
行业趋势层面,算力端AI已取代智能手机成为半导体制程迭代核心驱动力,单芯片性能升级与集群规模扩张形成双轮驱动;存力端AI大模型与Agent商用化催生海量存储需求,HBM、DRAM等产品景气度持续上行,涨价周期有望延续;运力端scale up与scale out双向扩容,高规格PCB、铜缆率先受益,光互联、CPO技术打开长期成长空间,光模块与GPU配比稳定在1:6,规格持续向1.6T升级。
长期来看,AI行业发展远未触顶,2026年全球AI资本开支预计超7000亿美元,Agent技术进入规模化商用元年,产业成长空间全面打开。投资层面,核心推荐通信ETF(515880),光模块、服务器等算力核心权重超75%,2025年涨幅居全市场ETF首位;半导体设备ETF(159516)受益于全球存储扩产与国产替代双重逻辑,具备充足业绩弹性。同时短期布局需警惕美联储货币政策不确定性、大宗商品涨价推高运营成本等潜在风险。
正 文
盛会直击:英伟达GTC大会四大核心重磅发布
李星全:今天非常荣幸给大家分享一下GTC盛会的情况。今天我们除了会复盘GTC以往发布的产品之外,也会和大家探讨从硬件层面看未来的行业趋势,最后再提炼相关的投资参考内容。
首先,我们来看英伟达历届GTC大会的产品发布情况。英伟达在GPU领域深耕多年,自1999年发布首款GPU至今,已有约27年时间。其芯片制程从220纳米迭代至4纳米左右,未来还将向1.6纳米推进,这也是我们较为期待的投资价值。
本轮AI浪潮始于2023年,当时市场主流GPU为A100与H100。截至目前,市场主流GPU已更新为Blackwell架构芯片。A100与H100的核心技术特征是什么?其中H100芯片性能强劲,在2023年AI浪潮爆发后,迅速成为市场炙手可热的GPU产品。
H100由中国台湾台积电采用4纳米工艺代工生产,单芯片集成800亿个晶体管,还专门内置了Transformer模型引擎。为什么要专门针对Transformer做硬件适配?当前国内外我们耳熟能详的各类大模型,其底层架构基本都是基于Transformer基础架构针对性优化发展而来。
英伟达极具前瞻性地在Hopper架构中,从硬件层面对Transformer做了专项优化,也就是引入了对应的专用引擎。英伟达也凭借这一核心优势,在短短两年多的时间里,从一家规模中等的企业,成长为全球市值第一的科技巨头,由此也能充分看到AI产业的强劲爆发力。
总结来看,H100的核心优势是极致适配大模型训练场景。其在大模型训练中的能效比与运算速度,相比上一代Ampere架构的A100芯片,均有大幅提升。
英伟达在2023年前后发布的Blackwell芯片,则重点针对AI推理场景做了优化。AI产业发展的后半程,推理场景的重要性愈发凸显,Blackwell在推理场景优化上做了大量技术布局,其中就包括低精度训练技术。什么是低精度运算?GPU的晶体管数量是有限的,采用低精度数据进行计算,能够在单位时间内完成更多次运算,完美契合推理场景降本提效的核心需求。因此Blackwell架构更侧重推理场景优化,同时也保留了极强的训练性能。
展望未来,大家可以重点关注英伟达的产品发布节奏与技术路线图。本届GTC大会上,英伟达正式披露了其未来数年的新品规划,清晰梳理并展望了从Blackwell到Rubin再到Feynman的技术演进路线。其中2027年将推出RubinUltra架构、CPX芯片与CPU交换机,2028年将实现Feynman架构芯片的量产,这些重磅新品均已在本届GTC大会上完成首次亮相。
本届大会的核心重磅发布之一,就是Feynman架构芯片。目前英伟达市场主流GPU仍是Blackwell架构的GB300,该芯片已实现量产,目前仍在持续放量的GPU产品均基于GB300基础架构。按照本次大会披露的规划,英伟达将于今年下半年推出Rubin架构的新一代GPU,2028年实现Feynman架构芯片的量产,整体架构迭代速度非常快。
本次大会官方披露,Feynman架构芯片将采用台积电A16制程生产,是全球首款1.6nmAI芯片。相较台积电上一代N2P工艺,A16制程在同等电压下速度提升约10%,更关键的是晶体管密度提高1.1倍,实现了翻倍以上的增长。摩尔定律带来的计算密度提升,让Feynman架构芯片的性能表现实现了重大突破,单GPU算力达50PFLOPS,推理性能是Blackwell的5倍。该芯片的核心升级集中在制程层面,同时采用背部供电技术,面向机器人、世界模型场景打造,初期英伟达将独享A16产能,2028年正式量产。
第二个核心重磅发布,是大算力机柜的升级。当前AI机柜的算力规模持续扩大,英伟达目前主流的Blackwell架构GB300机柜,单机柜搭载72张GPU卡。本届大会上,英伟达正式推出了单机柜576卡的Rubin Ultra NVL576卡机柜,完整披露了这款机柜的核心架构设计。本次大会正式展出了Rubin Ultra所采用的Kyber机架与正交背板连接方案,该方案采用正交背板实现前后向连接,将垂直部署的计算刀片与交换刀片直连,在Scale up架构中替代传统铜缆,有效提升单机柜算力集成度,相关光互联技术细节也同步在本届GTC大会上完成披露,成为本次大会的核心亮点之一。
第三个核心发布内容,是英伟达CPO交换机的技术进展与产业规划。CPO是一项新兴技术,也是英伟达重点推进的技术方向。本届GTC大会上,英伟达正式展示了SN6800、SN6810、Q3450三款量产落地的CPO交换机,这是全球首款量产的共封装光学交换机,标志着CPO技术正式从实验室走向规模化商用。同时英伟达对CPO技术做了全面的技术解读与产业规划披露,黄仁勋明确表示“需要更多的铜缆产能,更多的光芯片产能,更多的CPO产能”,确立了铜缆、光学、CPO三条路线并行推进的发展路径,CPO技术的渗透率提升速度与规模化放量进度有望持续超出市场预期。
第四个核心发布内容,是市场高度关注的LPU芯片与配套机柜。英伟达去年已推出CPX系列产品,本届大会正式发布了整合Groq技术的LPU芯片与配套机架,之所以持续布局LPU芯片,核心原因是适配快速增长的AI推理场景需求。AI发展初期,尤其是2023年,绝大部分算力都用于大模型训练;但对于商业化云厂商而言,模型训练完成后,需要通过落地应用实现商业变现,不能只做投入。因此长期来看,AI推理赛道具备极高的产业价值。
AI推理有明确的技术特征,整体分为Prefill(预填充)与Decode(解码)两个阶段。这两个阶段对硬件的需求存在差异,因此要提升推理效率,最优方案是将两个阶段拆分运行。英伟达为此做了大量技术布局,无论是去年发布的CPX芯片,还是本届GTC大会上正式发布的LPU芯片,核心目标都是更好地适配AI推理的发展趋势。该LPU芯片可视为专为推理场景设计的专用集成电路(ASIC),采用三星4nm制程,单芯片带宽达150TB/S,核心目标是实现极致的低延迟与高吞吐量,引入后将由其负责Decode环节,相较于BlackwellNVL72吞吐效率提升35倍,预期2026年下半年出货。英伟达在AI训练领域已建立极高的技术壁垒,其也希望在推理赛道构建起同样坚固的护城河。
以上就是本届GTC大会我们重点梳理的核心发布内容,在此做简要总结:
1. Rubin Ultra576卡机柜及其先进互联方案;
2. Feynman架构芯片的正式亮相与参数披露;
3. CPO交换机的量产落地与技术规划解读;
4. LPU等推理专用芯片的正式发布与落地计划。
趋势洞察:AI硬件算力、存力、运力三大核心赛道演进
梳理完GTC大会的核心发布内容后,我们再对AI硬件的行业发展趋势做总结分析。首先从算力层面来看,英伟达的芯片产品是行业发展的核心风向标。作为全球AI计算芯片领域占据绝对市场份额的龙头企业,英伟达的产品迭代节奏,对整个AI硬件行业具备极强的指引作用。
从英伟达的产品迭代来看,芯片制程正在持续微缩。此前推动全球半导体产业制程持续迭代的核心动力是智能手机,比如此前中国台湾台积电最先进的制程工艺,绝大部分产能都优先供应苹果公司。但现在,推动半导体制程迭代的核心主角已经发生变化,未来这一趋势也将持续延续。
为什么要持续推进制程升级?核心是让AI计算能够充分受益于摩尔定律带来的性能红利。但摩尔定律的迭代速度相对有限,通常需要两年多时间才能实现性能翻倍。当前半导体制程逐渐逼近1纳米物理极限,摩尔定律的迭代速度还在持续放缓。但与此同时,AI算力需求呈现爆发式增长,如何填补这一供需缺口,成为行业核心命题。
在这样的行业背景下,行业选择通过扩大芯片部署规模来满足算力需求——当摩尔定律带来的单芯片性能提升跟不上算力需求增长时,就通过增加芯片投放量、扩建数据中心的方式,填补算力缺口。这也直接推动了算力芯片市场的高速增长。海外市场中,无论是英伟达的GPU,还是谷歌的TPU等AI算力芯片,均实现了极快的增长。以上就是算力层面的行业发展趋势。
对于存储的情况,其最本质的需求就来自于AI的带动。因为我们知道,AI领域需要大量存储来存放数据,不管是GPU上面有很多的HBM——HBM就是一种高带宽内存。除了HBM以外,英伟达还在其机柜里面配置了大量DRAM、NAND等存储芯片,催生了对应的需求。现在随着agent的快速发展以及放量,尤其推理市场现在起量得这么快,我们知道很多用户,比如很多人可以看到自己的公司里面可能已经部署了一些大模型了。这种大模型在部署的时候,本身带有海量参数,每个大模型的参数规模都极为庞大,用来存储这些参数的存储需求也十分强劲。后续大模型还在不断地走强,那么从这一发展逻辑来看,后续存储的需求还会快速地增加。就目前来看,存储的涨价可能还会持续一段时间。所以存储的景气度,本质上还是来源于AI的计算需求在快速地增长,从而带来的价格上行效应。
而运力,是我们今天想重点给大家分享的板块。其实对于运力而言,其组网逻辑主要分为两个部分。或者说我们可以想象,海外的云厂商要进行组网,是通过两个阶段实现的:第一个是scale up。
这个scale up怎么理解?比如英伟达之前的A100以及H100的GPU,都是以八张GPU组成一个小型集群,再把这些服务器通过柜外连接,组成超大规模的数据中心。单台服务器内部的GPU互联,我们就可以看作是scale up,它原本就要把服务器里面的GPU连接成一个整体,服务器之内的互联就是scale up。我们从scale up的发展来看,单集群内的GPU数量在不断地增加。目前来看,单柜GPU数量已经增加到72卡,后续本次发布的576卡机柜将进一步刷新单机柜算力规模。这也是刚刚提到的,我们在GTC大会上看到的核心发布内容。
Scale out是什么?就是要把这些服务器或者机柜组成一个超大规模的整体,只有组成完整的大规模集群、搭建起超大型数据中心之后,才能开展AI的训练以及推理工作。从目前来看,海外头部的云厂商,已经建成了十几万卡的GPU集群,整体发展速度非常快。
那么我们在实现scale up和scale out的互联时,有哪些可用的技术方案?第一个是PCB,可能有的朋友知道PCB是什么。大家如果在家拆过闹钟或者其他电器,就会知道里面基本都会有一块PCB。PCB就是印刷电路板,被称作电子元器件之母,其核心作用就是让电路能够更高效、更稳定地运行。当然,不同PCB之间的规格差异极大,比如我们家里闹钟里面用的PCB,一平方米可能也就100多块钱。
但是像英伟达这类企业,或是其他云厂商,用于GPU计算芯片的PCB,规格都非常高:基材目前基本都在M8级别,后续还会向M9甚至M10的材料迭代;层数也很高,普遍能达到二三十层,还带有一次DI的相关设计。所以AI场景所用的PCB单价极高,部分产品一平方米能卖到几万块钱,甚至更高。
所以我们可以看到,相关PCB企业的业绩成长得也非常迅猛,从市场规模来看,也在快速地扩大,目前整个行业产能都处于供不应求的状态。大家可以看到,很多厂商目前都在快速地扩产,后续产能释放之后,对相关厂商的业绩提振是比较乐观的。当然这里只是给大家做行业情况的分析列示,不做任何个股推荐。
第二种备选的互联方式是铜连接。大家可以看到,我列示了英伟达机柜背面的实拍情况,机柜背面这些银白色、一捆一捆的部件,就是英伟达目前在NVL72机柜中所用的铜缆,整体用量非常大。
![]()
资料来源:Nvidia
这些铜缆的作用是什么?大家可以看下方的示意图,英伟达的机柜内部是一个个独立的托盘,每个计算托盘里放置4个GPU,一个机柜内有18个计算托盘,所以总共有72张GPU。计算托盘内部的GPU,主要通过PCB来连接。从内部结构来看,这个结构就相当于一个托盘,每个托盘里有两个超级芯片,每个超级芯片上搭载两个GPU,下方蓝色的部分就是两块PCB,也就是我们刚刚提到的高规格PCB。这里我们可以看到,PCB将4个GPU组成了一个完整的计算托盘。
![]()
下一步,就是要把所有的计算托盘,组成一个完整的机柜整体。而机柜内部的跨托盘互联,就是靠铜缆来实现的。基本就是通过铜缆连接NV Switch芯片,从而把机柜内所有72张GPU组成一个完整的互联整体。
![]()
资料来源:Nvidia
但是铜缆也有自身的技术局限。比如目前单层网络下,用铜缆组成72卡集群已经接近物理极限,如果再叠加一层网络,最多也只能扩展到576卡,且这还只是技术层面的设想,未必能完全实现。因为铜本身存在诸多物理限制,我们知道铜是导体,而当下数据中心的功耗极高,功耗高的核心原因,是计算芯片的计算吞吐量极大,数据传输过程中的运算量极高,传输的电流更大、信号频率也更快。
![]()
资料来源:Nvidia
如果用铜缆承担数据传输任务,极有可能出现过度发热的问题。持续发热就意味着能量损耗,长时间工作还会引发数据丢失等问题,这在AI训练与推理场景中是绝对无法容忍的。为什么?我们以训练为例,AI模型需要通过一次次的迭代,不断寻找到最优的参数集合,如果每次迭代都丢失一部分数据,最终很可能导致整个训练过程完全无效。所以铜缆的核心问题就在这里:它只能支持短距离的连接,传输距离过长就无法满足需求。从目前来看,铜缆最多只能支持几米的传输距离,而英伟达的互联网络已经升级到800G通信规格,后续还会进一步向1.6T升级,铜缆的局限性会持续凸显。
当然,在英伟达机柜规格持续提升的过程中,柜内互联的整体市场规模也在不断扩大。在这个扩容的过程中,我们认为无论是PCB还是铜缆,后续都能获得可观的市场份额。但如果要让它们承担柜内全部的互联任务,尤其是本次发布的576卡机柜的互联需求,仅靠铜和PCB在技术上存在不小的难度。后续随着Feynman芯片的量产落地,将正式引入CPO技术,同步推进柜内可插拔光模块等光互联方案的落地应用。
柜外的互联要如何实现?从英伟达的方案来看,其目前所用的网络架构,主要是叶脊网络。什么叫叶脊网络?大家可以看下方的拓扑图,叶脊网络的架构其实很简单,看起来就像一棵树,从树根不断长出更多的树枝,树枝再进一步分化出更细的枝丫,最终连接到叶片,就是这样的架构。
![]()
注:以上为根据英伟达资料推论所得,具体应用网络会在客户间有一定差异
叶脊网络的逻辑就是如此,比如我们假设有四个输入端口,中间设置两台交换机,从这个架构来看,最基本的要求,就是任意一个输入端口到任意一个输出端口之间,至少要有一条通信通路。
而所有的交换机不仅承担输入功能,也承担输出功能,如果我们把上面的拓扑图沿中线对折,就形成了英伟达所用的网络架构。大家可以看到,最上层是脊交换机,把下层的叶交换机连接成一个整体,叶交换机再进一步连接大量的GPU,最终组成数据中心的完整集群。
这个架构中需要用到大量的光模块。光模块的应用场景在哪里?大家可以看到,拓扑图里标注的这些线路,其实都是光缆,而交换机侧和服务器侧处理信号时,用的都是电信号。所以信号要从一台交换机传输到另一台交换机,或是从一台服务器传输到另一台服务器,传输过程中需要多次完成光电转换,而这个核心功能,就是由光模块来实现的。
我在这里给大家做了相关测算:在三层网络架构下,GPU与光模块的配比大约是1:6。当然这里是用同规格的光模块进行测算的,比如在Hopper架构芯片下,1:6的配比对应的是400G光模块;在Blackwell架构芯片下,1:6的配比对应的是800G光模块;下一代Rubin架构,对应的则是1.6T光模块。当然大家也知道,光模块有很强的灵活适配性,两个800G的光模块可以合并当作一个1.6T的光模块使用,一个1.6T的光模块也可以拆分成两个800G的光模块使用。所以这个配比在实际产品应用中可能会有小幅波动,但整体对应的带宽需求是固定的,因此三层网络下的配比基本维持在1:6左右。
由此可以看到,随着下游芯片的快速放量,光模块的整体市场规模会迎来快速增长。后续来看,“光入柜内”会是整个市场预期最高的发展方向之一。为什么会有光入柜内这样的预期?刚才我已经给大家介绍过,实现scale up和scale out互联的技术方案,目前只有三种:铜连接、PCB,以及光模块。目前在英伟达的技术体系中,scale up对应的柜内互联,全部通过电连接实现,也就是铜缆和PCB;而柜外的长距离互联,基本都通过光模块来实现。
往后面去看,正是因为Scale Up在不断地扩张,我们可以看到从8卡到72卡再到576卡,甚至后续规模可能会越来越大、覆盖的卡量越来越多。随着GPU的数量在不断地增加,对应的部署空间也在不断地扩大,对吧?所以大家可以看到,比如本次发布的576卡的机柜落地后,所需的部署空间就已经非常可观了。
对于这么大的部署空间而言,不管是PCB还是铜缆,都会存在自身的固有局限。比如说PCB无法制造得过大,不可能做出一间屋子那么大的PCB板,因为其内部尤其是多层板的压合工艺,会受到诸多机械条件的限制。而铜缆则受自身物理特性的限制,无法实现长距离的信号传输。所以其实在scale up市场规模持续扩大的过程中,光技术后续很有可能会成为核心选择。
在scale up规模持续扩大的过程中,我再强调一下:scale up的市场规模在不断扩张的过程中,首先PCB的成长性是比较强的。不管是本次发布的Rubin Ultra采用的正交背板,还是其技术持续升级、层数不断增加,亦或是所用材料的性能持续提升,PCB的成长性都十分强劲。我只是想说明,在scale up规模持续增长的过程中,PCB与铜缆很难独自承接市场的全部份额。所以往后面去看,光技术会是非常重要的选择。
那么scale up这个市场到底有多大?从目前来看,即便我们给大家做相关测算,结果也并不具备足够的参考性。但从博通CEO的表述来看,该市场规模有5到10倍的增长空间。虽然产业链上有5到10倍的增长预期,但各家公司可能都有自身的发展诉求。从我们目前的观察来看,该市场规模至少会超过柜外市场。
对于当前的可插拔光模块厂商而言,对应的市场机会大概是怎样的?我们知道,当前的scale out市场,大致可以理解为柜外市场,已经是可插拔光模块的核心主战场。而后续的scale up场景中,采用的可能是可插拔光模块,也可能是CPO。但无论是可插拔光模块还是CPO,对于当前的行业龙头厂商而言,都有充足的订单机会可以承接。即便是CPO,也有诸多相关方案正在验证阶段,后续有望拿到大量订单,所以大家也不用过度担心。
总体从产业层面来看,算力、存力、运力仍在快速地成长。在这样的发展过程中,相关厂商都将迎来更多的成长机会。
产业展望:AI行业远未触顶,长期成长空间全面打开
有很多朋友在问我,AI从2023、2024、2025年发展到现在,已经快三年时间了,发展了这么久,AI行业的发展是不是已经接近尾声了?比如之前新能源板块的行情也没有持续很多年,总会迎来发展的阶段性顶点。如果我们站在当前的时点来看,AI发展到顶了吗?我的答案是:远远没有。
单从资本开支来看,2026年全球AI的资本开支预计将超过7000亿美金。大家想一下,7000亿美金是什么概念?换算成人民币,大概是5万亿元人民币。大家可以想一下,5万亿这个数字,即便和我国整体GDP相比,也是一个极为庞大的规模。所以AI领域当前的投入,堪称人类科技发展史上前所未有的大规模投入。
从下游市场来看,大模型行业也实现了飞速发展。尤其是自去年以来,英伟达GPU持续大规模放量,很多企业都获得了更充足的算力资源。因此大家可以看到,诸多优秀模型的迭代速度正在持续加快,无论是OpenAI、谷歌,还是国内的一众模型厂商,皆是如此。
2026年,可以说是agent技术快速成长、规模化商用的关键一年。展望2027年,AI或将具备自我迭代、自我升级的能力,比如AI可以自主编写自身架构,通过重新设计架构实现自我提升与自我学习的目标。这一能力预计将在2027年的某个时间节点落地,届时或将实现由核心AI带动多AI协同工作的模式,甚至可以实现AI自主运营公司,这一强劲的技术趋势,预计将在2027年逐步显现。
从大模型行业来看,2027年起,部分厂商的产品迭代周期可能会缩短至半年。当前主流厂商的产品大多是一年一次迭代,2027年起或将缩短至半年一次,实现一年两次迭代。AI行业的发展速度极为迅猛,大家完全不必对这一产业趋势过度担忧,可以说当前整个产业正处于高速成长的阶段。
掘金指南:AI高景气赛道核心投资方向梳理
站在当前时点,若要挖掘相关投资机会,应该关注哪些方向?首先就是通信ETF(515880)。
大家可以看到,通信ETF(515880)中,光模块、服务器、铜连接器、光纤等相关板块的权重占比合计超过75%。其中光模块权重占比超43%,服务器占比17%,光纤占比约14%,整体相关板块占比极高,各个细分赛道的行业景气度都处于高位。
光模块相关内容,前文已经做了较多介绍。服务器赛道方面,随着英伟达机柜规模持续扩大,机柜功耗也随之提升,这就要求服务器组装厂商必须提前布局对应的散热技术。同时,机柜尺寸持续增大,也会推高全球运输成本,这就要求组装厂商具备全球化布局能力,行业龙头效应有望进一步强化。
对于光纤赛道而言,大家应该也已经注意到,自去年四季度至今,光纤价格涨幅十分显著。上周多家电信运营商的光纤招标结果,也进一步印证了光纤价格的大幅上涨,行业整体景气度依然处于高位。
当然,选对赛道之后,也要选对对应的ETF产品。比如我们看好光模块、服务器、光纤赛道,就需要选择相关板块权重占比高、能够充分反映算力产业景气度的ETF产品。
以通信ETF(515880)为例,其跟踪的通信设备指数,在去年通信类核心指数中涨幅居首,较第二名高出数个百分点。因此,选对高景气产业赛道的同时,也要选对对应的指数标的。如果大家持续看好AI赛道,通信ETF(515880)仍将是核心配置选择之一。
通信ETF(515880)也是去年沪深两市所有ETF中涨幅最高的产品。后续若AI产业发展持续超预期,该产品仍有望取得不错的表现。尤其是近期市场整体表现疲软,但业绩支撑扎实、未来发展趋势明朗的细分赛道,依然能获得市场的认可。因此我们可以看到,通信ETF(515880)近期的回调幅度相对有限,建议大家持续关注。当然,若要进行布局,建议等待更合适的入场时点。
第二个值得重点关注的方向,是半导体设备ETF(159516)。我们看好半导体设备ETF(159516),本质上还是源于对AI产业长期发展的信心。为什么这么说?当前存储芯片价格涨幅十分迅猛,我们此前在直播和诸多路演中也给大家强调过,存储芯片价格上涨的核心原因,是AI带来的爆发式需求。后续无论是AI训练还是AI推理场景,都将迎来高速发展,所需的存储容量也将持续提升。
从当前情况来看,全球存储厂商,无论是海外厂商还是国内厂商,都有强烈的扩产意愿。此前我们关注半导体设备赛道,大多认为这是国产替代的优质赛道。但从当前来看,半导体设备这条赛道,支撑逻辑不仅仅是国产替代,更核心的是全球AI发展带来的需求增量,能够通过存储赛道,充分受益于全球AI产业发展带来的高景气度。此前海外多家相关企业公布的资本开支与业绩超预期时,半导体设备板块也迎来了不错的涨幅,也印证了这一逻辑。
因此,半导体设备赛道同样建议大家重点关注。这里再给大家梳理一下半导体设备赛道的核心投资逻辑:首先是AI产业的高速发展,行业高景气度逐步传导至存储赛道,带动存储价格持续上涨,进而推动存储厂商大规模扩产。
从产业链上下游来看,AI产业的发展确定性极强,无论是光模块、服务器ODM厂商,还是更上游的计算芯片企业,行业景气度都维持在高位。即便在当前整体市场环境偏弱的背景下,通信ETF(515880)依然具备较强的抗跌性,后续也有充足的成长预期。
存储赛道短期催化密集,当前多家存储企业的股价表现也十分坚挺。产业链上下游两个核心环节均维持高景气,半导体设备赛道自然也具备极强的成长预期。该板块近期出现较大幅度回调,核心原因是前期利好密集落地,短期进入了信息与利好的真空期。后续来看,经过本轮回调,若市场整体回暖,半导体设备板块有望展现出极强的业绩弹性。建议大家持续关注,若要进行布局,可等待更合适的入场时点。
这里也给大家提示一下科技板块的潜在风险。科技板块,尤其是科技成长板块,其远期成长预期对短期市场表现有极强的指引作用。当前全球地缘冲突持续加剧,石油、天然气等大宗商品价格大幅上涨,这将带来两方面的核心影响:
第一,可能会影响美联储的货币政策走向。在最悲观的情况下,若美联储重启加息,市场流动性将大幅收紧,成长板块的估值也会受到明显压制。
第二,大宗商品价格上涨,可能会推高AI训练、推理及数据中心的运营成本。尽管该因素对成本的影响幅度相对有限,但仍客观存在。
此外,近期中东地区部分数据中心遭遇袭击,市场也担忧该事件会影响中东国家的AI建设需求,这也是短期需要警惕的风险点。以上这些,都是短期内需要重点关注的风险因素。
综上,我们此前从产业成长趋势层面做了较多分析,AI相关赛道的长期发展确定性极强,但短期内仍存在上述潜在风险。因此再次提示大家注意投资风险,若要进行布局,建议选择更稳妥的入场时点。
今天就这样,白了个白~
![]()
风险提示
投资人应当充分了解基金定期定额投资和零存整取等储蓄方式的区别。定期定额投资是引导投资人进行长期投资、平均投资成本的一种简单易行的投资方式。但是定期定额投资并不能规避基金投资所固有的风险,不能保证投资人获得收益,也不是替代储蓄的等效理财方式。
无论是股票ETF/LOF基金/联接基金,都是属于较高预期风险和预期收益的证券投资基金品种,其预期收益及预期风险水平高于混合型基金、债券型基金和货币市场基金。
基金资产投资于科创板和创业板股票,会面临因投资标的、市场制度以及交易规则等差异带来的特有风险,提请投资者注意。
板块/基金短期涨跌幅列示仅作为文章分析观点之辅助材料,仅供参考,不构成对基金业绩的保证。
文中提及个股短期业绩仅供参考,不构成股票推荐,也不构成对基金业绩的预测和保证。
以上观点仅供参考,不构成投资建议或承诺。如需购买相关基金产品,请您关注投资者适当性管理相关规定、提前做好风险测评,并根据您自身的风险承受能力购买与之相匹配的风险等级的基金产品。基金有风险,投资需谨慎。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.