你的GPU在郊区,你的数据在城里,中间隔着100公里光纤。延迟够低,这笔账就能算得过来。
这是IOWN全球论坛在悉尼年会上透露的新动向。这个由索尼、NTT、英特尔等巨头背书的组织,正在把数据中心互联(DCI)推成自家光网络技术的头号落地场景。
![]()
他们的目标很明确:让那些想搞AI但建不起超大规模机房的公司,也能用上远处的算力。
「伦敦金融城的人给我们算过账」
IOWN论坛指导委员会主席Gonzalo Camarillo透露,团队最近和伦敦金融服务业的代表聊过。对方的态度很直接:城外的数据中心便宜得多,但前提是延迟不能炸。
「他们看到了巨大潜力,」Camarillo说,「如果能用城外的设施,成本比市中心或中央商务区的机房低一大截。」
这个账不难算。伦敦金融城的写字楼租金常年盘踞全球前列,机房托管费用更是按平方米割肉。把冷数据甚至部分热负载搬到郊区甚至更远的地方,电费、地租、冷却成本全线下降。
但金融交易对延迟的容忍度极低。高频交易里,1毫秒就是生与死的区别。传统广域网(WAN)技术在这类场景里长期吃瘪——距离一拉远,延迟和抖动就往上蹿。
IOWN赌的是自家全光网络能打破这个困局。他们的技术已经在数百公里光纤上验证了同步数据复制的能力,而且不需要传统网络里的光电转换环节。
Camarrillo的潜台词是:只要延迟够稳够低,地理位置就不再是算力部署的硬约束。
「超大规模玩家自己玩,我们盯的是另一群人」
IOWN对市场的切割很清醒。
hyperscaler(超大规模云厂商)们财大气粗,自建光纤、自研芯片、自组网络,解决延迟问题有自己的套路。IOWN没打算跟他们硬碰硬。
他们盯上的是「neoclouds」——这批新兴的GPU托管服务商。这些公司通常没有谷歌、亚马逊那样的网络基建实力,但又必须给客户承诺低延迟的远程GPU访问。
IOWN用例工作组负责人Katsutoshi Itoh的判断是:neoclouds会在土地和能源便宜的地方建大量小型数据中心,然后靠高速互联把它们串成一张网。
论坛最近的董事会讨论已经明确:IOWN愿意主动提供这种互联技术。
这个定位很聪明。neoclouds是AI算力市场的新变量。CoreWeave、Lambda Labs这些公司靠英伟达GPU租赁快速崛起,但它们的机房分布零散,网络能力参差不齐。如果IOWN能成为它们的「默认互联选项」,就能在AI基建的缝隙里卡住位置。
更关键的是,neoclouds的客户很多是中小企业或研究机构,付不起超大规模云厂商的溢价,又对数据主权敏感。IOWN的下一招,正好切中这个痛点。
「数据不出境,算力能借来」
IOWN给这套玩法起了个名字:主权AI(sovereign AI)。
逻辑是这样的——组织把自己的数据留在本地基础设施,通过高速全光广域网发送到云端或neocloud的AI加速器上处理。云厂商只碰计算,不存数据,处理完就把结果通过IOWN网络发回来。
这对欧盟、日本、东南亚的数据监管环境简直是量身定制。GDPR(通用数据保护条例)和各国数据本地化法规把跨国云服务商搞得头大,「数据不出境」成了很多政府和企业采购的硬门槛。
传统方案是本地部署AI集群,但GPU稀缺、建设周期长、运维成本高。IOWN的替代方案是:数据本地待着,算力远程调用,用低延迟网络把两者缝在一起。
这个模式如果跑通,会改变AI算力的地理经济学。企业不再需要为了合规而在每个司法管辖区自建AI机房,而是可以集中购买远程算力,用网络带宽换建设时间和资本支出。
当然,前提是IOWN的网络真的够快、够稳、够便宜。论坛目前展示的技术指标看起来不错,但大规模商用还没落地。
「30台摄像机的转播车,能不能塞进一根光纤?」
IOWN的野心不止于AI基建。Itoh举了个看似不相关的例子:体育赛事转播。
传统操作是—— broadcaster(广播公司)在赛场部署30多台摄像机,再配一辆昂贵的户外转播车(OB van)现场制作信号。场馆通常指定单一视听公司垄断服务,收费毫不手软。
Itoh的设想是:用IOWN的高速广域网替代转播车和现场制作团队。摄像机信号直接通过光纤传回远程制作中心,导播、剪辑、特效全部在异地完成。
这个场景和远程GPU访问的技术内核是一样的:把原本必须在本地完成的重负载,通过低延迟网络转移到远程。
疫情已经证明远程制作的可行性。2020年之后,很多体育联赛被迫采用「云制作」模式,信号从球场传到云端处理中心。但当时的网络条件限制了画质和实时性,很多制作环节只能妥协。
IOWN想消除这些妥协。如果全光网络能把延迟压到足够低,远程制作就能达到甚至超越现场制作的体验,同时砍掉转播车的物流成本和场馆的垄断溢价。
这个逻辑可以延伸到更多场景:远程手术、工业控制、云游戏……所有「算力在远方、体验在本地」的应用,都是IOWN的潜在市场。
从芯片到光纤,IOWN的终极拼图
IOWN的 backers(支持者)包括索尼、NTT、英特尔、NEC等日本和美国科技巨头。他们的长期愿景很大:用光网络替代所有有线连接,最终连芯片内部的die-to-die(芯粒间)互联都要光子化。
目前落地的第一步是广域网。IOWN已经展示了在数百公里光纤上承载同步数据复制的能力,合作运营商正在组建全光网络。
数据中心互联是这个技术栈的下一个锚点。相比广域网,DCI场景的距离更短(同城或相邻城市)、流量更大、延迟要求更苛刻,是验证IOWN技术成熟度的理想试验场。
如果能在DCI市场站稳脚跟,IOWN就能向更核心的场景渗透:数据中心内部的光互连、芯片级的光I/O。这是一个从外向内、逐层深入的路线图。
但竞争也很激烈。CPO(共封装光学)正在数据中心内部快速普及,Ayar Labs、Lightmatter等初创公司盯着芯片级光互连,传统光通信巨头(Ciena、Infinera、华为)更不会坐视新玩家切走DCI蛋糕。
IOWN的差异化在于「全栈」野心——从广域网到芯片级,统一的技术体系和标准。如果真能打通,就能避免不同层级网络之间的协议转换和性能损耗。
当然,「如果」是关键词。技术愿景和商用落地之间,隔着工程实现、成本控制、生态构建三道大坎。
算力民主化,还是新瓶装旧酒?
IOWN的故事可以解读成两种版本。
乐观版本:AI算力正在被少数超大规模厂商垄断,neoclouds和主权AI模式是打破垄断的关键变量。IOWN提供的基础设施,让更多组织能以更低成本、更高灵活性获取AI能力。
悲观版本:这不过是光通信行业的新一轮标准战争。IOWN背后的日本和美国巨头,想用自己的技术体系替代现有的以太网和光传输标准,把产业链利润重新分配到自己手里。
现实可能介于两者之间。技术中立是个神话,任何基础设施都嵌入特定的权力结构。但IOWN确实瞄准了真实的市场缝隙——那些既需要AI算力、又受限于成本或合规约束的组织。
伦敦金融城的算盘、neoclouds的网络焦虑、数据主权的地缘政治——这些力量都在推着IOWN向前。技术能否匹配需求,2024-2025年的首批商用部署会给出答案。
一个值得玩味的细节:IOWN论坛的年度会议选在悉尼,而不是东京或硅谷。亚太地区是neoclouds增长最快的市场之一,也是数据主权法规最复杂的区域之一。这个选址本身,就是一张明牌。
当算力可以像电力一样远程调度,数据中心的地理分布会被彻底重写吗?还是说,网络延迟的物理极限,终究会把我们拉回「算力必须靠近数据」的原点?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.