在刚刚落幕的光合组织2025人工智能创新大会(HAIC2025)上,国产AI产业呈现出前所未有的“体系化”趋势。从海光信息的开放系统互联总线,到曙光的万卡集群;从统一异构编程工具包UPTK到科学大模型一站式开发平台的开放共享;从整机、操作系统、芯片厂商的大规模联合签约,到覆盖三年周期、总投入10亿元的AI计算开放架构联合实验室的项目组协同创新计划等,国产AI正在从碎片化走向生态化协同;从单点产品竞争走向系统工程竞争。而在这一转变中,“开放架构”已不再是行业口号,而成为了支撑国产AI走向可持续繁荣的技术拐点。
![]()
告别“烟囱式”繁荣,生态的本质是连接与选择
众所周知,过去几年,国产算力市场呈现出“爆发式”增长。然而,当我们拨开繁荣的表象,审视其内核时,会发现这种繁荣在某种程度上伴随着“虚火”。
例如为了在短期内抢占市场,许多厂商选择了“类大型机”的封闭垂直优化模式,且这种模式仅由少数巨头主导,从芯片、基础软件、框架到模型进行全栈耦合优化。
不可否认,此种“烟囱式”模式在初期的确能带来较高的整合效率,但长此以往,势必导致严重的“生态隔离”,即不同品牌的芯片之间无法互通、不同架构的系统之间难以迁移以及算力资源变成相互割裂的孤岛的同时,给用户带来极高的试错成本和被厂商锁定的风险,而站在整个产业的高度,则意味着重复造轮子,大量研发资源被消耗在无意义的适配而非核心技术的创新上。
此外,国产智算产业要想实现真正的突围,还面临“性能墙”与“生态墙”的双重阻碍。
以“性能墙”阻碍为例,随着摩尔定律的放缓和单芯片性能提升边际效应的递减,单纯依靠堆砌晶体管数量来提升单点算力的路径已难以为继。特别是在高端芯片供应链受限的大背景下,单纯靠“单卡性能”硬刚,如同以己之短攻彼之长。
相较之下,“生态墙”的阻碍则更为隐秘且致命。具体表现为专有封闭系统导致应用适配迁移成本高昂,软硬件生态不成熟,资源供需错配,从而导致许多企业在采购了昂贵的国产算力设备后,却发现由于软件栈不兼容,主流的大模型无法跑通,或者性能折损严重。而这种“有算力无生态”的尴尬局面,势必严重制约国产AI产业的落地进程。
正是在上述背景下,行业亟待重新定义“伙伴繁荣”的含义。而重新定义它的关键在于企业不应建立在“绑定”之上,而应建立在“选择权”之上;不应依赖单卡性能的极限突破,而是仰仗体系协同的持续演进。
基于此,惟有打破“烟囱式”模式,通过开放、标准化建立一个基于统一开放技术底座(“类Cluster”的开放跨层优化模式)的“安卓”开放生态,打通底层的互联互通,让不同厂商的产品像搭积木一样自由组合,实现资源的普惠,才是国产计算走向可持续发展的唯一技术路线,也是实现算力普惠的必由之路。
开放架构为支点,五层开放体系重构产业协作
如果说“打破烟囱”是行业的共识,那么“AI计算开放架构”就是实现这一目标的具体路径。而在HAIC2025上,光合组织详细阐述了这一架构,即与封闭垂直模式不同,AI计算开放架构并非由单一厂商主导,而是以系统工程思维,联合芯片、整机、基础软件、数据与应用等产业链多方共同构建。这种路径更像国产智算界的“安卓模式”,通过开放接口与标准,降低协作门槛,放大整体创新效率。
而从工程角度看,开放架构的关键不在于“是否开放”,而在于“开放到哪一层、以何种方式开放”。具体到此次光合组织推动的开放架构,其核心体现在五个层面的系统性打通。
众所周知,在AI集群中,芯片与芯片之间的互联带宽往往是性能的瓶颈所在,是架构的基石。为了解决这一问题,海光信息推出了HSL(High-performanceScalable Link)。
相比传统的PCIe接口,HSL不仅大幅降低了延迟,提升了带宽,更实现了芯片间(C2C)的高速直连和全局地址空间一致性。这意味着,基于HSL,不同厂商的AI加速卡可以像“搭积木”一样与CPU进行高效协同,极大简化了编程复杂度,尤其是在本届大会上海光HSL 1.0规范及设计参考方案的发布,硬件伙伴的适配门槛将大幅降低,解决了长期以来国产AI服务器“适配难”的顽疾,推动了部件级的“即插即用”。而10余家国产芯片厂商的加入,正是看中了这一标准所带来的生态红利。
建立在互联基石之上的,是系统级的硬件解耦与大规模集群的工程化协同。
以中科曙光发布的scaleX万卡超集群为例,它不仅是算力规模的突破,更是开放架构理念的集大成者。据了解,该集群由16个scaleX640超节点通过全栈自主研发的原生RDMA高速网络互连而成,硬件支持多品牌AI加速卡,软件兼容主流计算生态。
![]()
需要强调的是,这种“巨型系统”的构建,并非简单的节点堆砌,而是通过国产自研原生RDMA高速网络和“超级隧道”技术带来的存力范式革命,实现存、算、传紧耦合深度优化,并结合BurstBuffer、XDS等技术加持,显著降低访问延迟、提升推理客户端的带宽,大幅提升大模型训推效率。
这无疑向行业证明,在开放架构下,通过超大规模组网与智能调度、存力新范式的系统工程创新,完全可以驾驭万亿参数模型训练等顶级挑战,构建出世界领先的算力基础设施。
如果说硬件是骨骼,那么软件就是灵魂。为此,开放架构在软件层推出了UPTK(通用异构编程工具包),直指长期困扰国产算力生态的CUDA壁垒问题。具体体现在,通过对异构计算接口的统一抽象,UPTK让开发者能够以“一套代码、多端部署”的方式,适配多种国产硬件平台,快速实现异构程序的开发,大幅降低应用迁移与维护成本。
而在此基础上,科学大模型一站式开发平台OneScience的开放共享工作,则进一步将算力、数据、模型、工具链整合为一体,把过去动辄数月的科研模型复现过程,压缩至小时级别。以昌平实验室为例,其依托该平台构建的MolSculptor分子建模体系,实现了全流程高效开发,训练效率提升了5倍;而中科院大气所则构建了下一代多模式超级集合预报系统,在Z500大尺度技巧评估中,其性能远超国外,达到了国际领先水平。这些真实的落地数据证明,开放架构为AI for Science提供了真正可复制的工程化路径。
当然,开放架构的视野并未止步于软硬件,而是延伸至基础设施与数据的全链路赋能。
例如在基础设施层,曙光数创牵头制定了《数据中心冷板式液冷系统技术规范》国家标准,引导行业向标准化、高质量方向发展;至于数据层,中科天机发布的“高分辨率气象数据共享计划”,为行业大模型提供了高质量的数据“燃料”。通过共享全球12公里与中国区域3公里分辨率的气象全要素模式数据,开放架构正在打通AI落地的“最后一公里”,赋能新能源、低空经济等垂直行业。
实践见真知,从“概念”到“工程化”的生态进阶
众所周知,任何技术路线和架构,最终都要经受工程实践,否则就是空中楼阁。具体到本届光合大会,先不说2500家企业代表、专家学者及行业领袖,通过200余场高密度分享与5000余平方米实景展区本身就证明了光合组织强大的产业号召力,更具实质意义的是,围绕开放架构形成了跨芯片、跨系统、跨软件的集体行动。
其中多家CPU、GPU厂商,整机与操作系统企业,基础软件与行业模型团队,在同一技术框架下对齐接口、标准与演进路径,释放出国产AI生态正在由松散并行转向有序协同的明确信号,并具体表现为商汤科技、中科曙光、大晓无限机器人、麒麟软件、华大九天、海光信息等企业达成多项战略合作,涉及科学大模型、行业应用、操作系统等多个赛道,由此证明了不同厂商、不同技术栈的产品能够在统一底座上高效融合。
![]()
值得关注的是,这种变化的意义,还不在于签约数量本身,而是协作方式的转变。例如AI计算开放架构联合实验室首批项目组协同创新计划,旨在汇聚顶尖力量,针对科学大模型、多元异构算力融合、统一基础软件栈、超大规模集群优化等共性关键技术开展联合攻关,将开放协作深入研发源头;开启光合组织生态筑基行动、光耀百城2.0计划,推动产业链各环节产品以标准接口协同工作,诠释了开放生态从“全链覆盖”到“价值闭环”的演进。
更重要的是,上述协作不再依赖某一家企业的单点推动,而是通过体系化机制降低参与门槛,使更多生态伙伴能够以较低成本融入其中,国产AI也由此开始具备类似“集团军作战”的能力。毕竟单个厂商的能力或许仍有边界,但通过体系协同,整体效能得以被持续放大,而HAIC2025所呈现的正是这一拐点,即国产AI生态已经跨越了“喊口号”的阶段,具备了“标准化接口+多架构协同”的工程化落地能力,是从概念验证到规模化部署的关键跃迁。
写在最后:站在“十四五”收官与“十五五”蓄势之际,人工智能正在完成从“技术工具”向“社会基础设施”的身份转变,此时国产AI生态的选择势必关乎未来十年的产业格局。而HAIC 2025则向我们展示了一个清晰的路线,即开放架构不是权宜之计,而是国产AI走向体系化的技术分水岭。尽管这条路径未必最短,却是在现实约束条件下,通向体系化与可持续发展的必经之路。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.