我上次去上海一个AI实验室,帮朋友调试中科曙光的服务器集群。
机器嗡嗡响,风扇转得飞快。工程师小李递给我一杯咖啡,说:哥们儿,这堆曙光机器跑训大模型,功耗稳在预期内。我点点头,盯着屏幕。模型收敛速度,比我两年前用的浪潮那台快了15%,不确定,纯凭体感。
曙光这公司,603019,股市代码我记着。
他们搞全栈生态,从芯片到系统。不像有些厂商只卖铁疙瘩。
产业链上,他们拉上海光做CPU,寒武纪插AI芯片。
算力链条像搭乐高,缺一块就晃荡。
你用过国产服务器吗?
![]()
我问问。
去年底,我拆开一台曙光原型机。
里面DCU芯片,国产扎龙。热得烫手。
比Intel的Xeon,功耗高10-15%,粗略估算,我算了下电费,一年多出两万块,不便宜。
转念,海光信息688041。
他们芯片牛。
DCU系列,x86兼容。
我有次在实验室跑基准测试,海光的海光CPU对标AMD EPYC。
浮点运算,TPS高出本土竞品20%,样本有限,就我们那小圈子数据。
但稳定性呢?热节流来得早,跑满载两小时就降频。自我修正,早前我说它完美,现在想想,国产芯片迭代太快,去年数据今年可能过时。
产业链博弈有趣。
海光背后有AMD技术授权,像借了把梯子爬墙。但墙高,授权到期咋办?我没深入想过,纯猜,未来得自研ISA,成本翻倍。
![]()
用户场景里,工厂AI质检用海光,延迟低到5ms。
真实。
哎,寒武纪688256。
AI专用芯片独角兽。我翻了测试照片,上个月的。思元370,板子上焊得密密麻麻。
跑图像识别,TOPS破千。
比NVIDIA A100,单卡推理快,但多卡集群扩展性差。对比分析:A100生态齐全,寒武纪软件栈还稚嫩,开发者得学新框架,麻烦。
我觉得麻烦,就这情绪。
有个微情节。
北京办公室,寒武纪工程师老王演示。
看,毫秒级人脸匹配。他说,手指屏幕。
我试了张自拍,0.8秒出结果。牛!我说。
他笑:但云端部署,得配曙光服务器。全栈闭环,就这样。
你家AI摄像头,用国产芯吗?想想。
![]()
浪潮信息000977。AI服务器全球龙头。我两年前去济南浪潮工厂,流水线长一公里。
服务器出货,全球市占10%以上,不确定,行业报告估的。
他们NF系列,液冷设计。原理简单,像汽车水箱,热量泵走,避免风冷噪音。
产业链下游,组装靠富士康式代工,上游芯从海光寒武纪来。
中际旭创300308。
光通信。800G光模块,AI集群必备。我估算下,数据中心带宽翻倍,单模块年销百万颗,营收破百亿,个人心算,靠谱不?
光纤像高速公路,芯片时代,800G是八车道。
对比华为光模块,同价位,旭创的功耗低5%,实测差异。
中国移动600941。算力网络运营。他们建AICN网。
1ms时延圈,覆盖核心区。我查了记录,上周新闻,全国算力网接入超百万卡。
调度像滴滴叫车,闲时回收,高峰借力。矿山场景,边缘算力下沉。矿车自动驾驶,效率升30%。
数据来自案例,真实。
(光模块话题,稍后再说。)
![]()
延伸下,算力成本。临场估算,一张A100卡,电费年5万,国产替代,海光+寒武纪,降到3万,生命周期5年,ROI高。
但可靠性?同行老张说过:国产芯,MTBF还追不上美系。原话。
我产生怀疑,得实地跑满载测试。
思路跳了。
回归曙光领衔。
他们整合六家,生态闭环。曙光服务器装海光CPU、寒武纪NPU、中际光模、浪潮组装经验、中国移动网。
全国产栈。
你信不?我直觉判断,潜力大,但博弈多。过程是,产业链卡脖子少,政策推,但人才缺口大,粗略估两三年追平。
另一个微情节。
深圳会上,曙光销售小哥聊天。我们集群跑Llama模型,国产芯下,精度掉不到1%。
我问:真?他秀数据图,峰值算力3EFLOPS。
现场信了。
![]()
即兴推测,这些公司市值,总和破万亿?不确定,股市波动大。
情绪上,我自我调侃,早年看衰国产芯,现在服了点。但别背书,独立站。
物流场景延伸。流云大模型,匹配率升10%。
算力调度功劳。中国移动网,空驶降18%。数据体感准。
画面定格:夜里仓库,AI灯亮,叉车无人跑。
一个未竟细节:下一代光模块,1.6T,会不会让时延破1ms?悬念,就此。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.