![]()
Aria Networks Inc. 今天宣布完成1.25亿美元融资,同时发布名为Deep Networking的产品组合。这家数据中心交换机初创公司由Sutter Hill Ventures、Atreides Management、Valor Equity Partners和Eclipse Ventures联合注资,选择在同一天公布融资与产品,节奏紧凑得像产品经理赶deadline。
Deep Networking的核心是一系列基于以太网(Ethernet,一种数据传输协议)的交换机。Aria直接押注800G和1.6T两个最新版本,前者单端口每秒处理800吉比特数据流量,后者翻倍至1.6太比特。这个数字游戏背后,是一个叫SerDes的组件在起作用——处理器把信息切成多条并行数据流,发送前必须合并成单一流,SerDes负责这个整合工作。1.6T版本的速度优势,纯粹来自SerDes吞吐量的翻倍。
液冷与空气冷却并行:数据中心的两条散热路线
Aria的64端口1.6T交换机提供两种冷却版本:空气冷却和液体冷却。这个设计选择暴露了AI基础设施的一个现实矛盾——算力密度飙升,散热方案却未统一。液冷效率更高,但改造现有数据中心成本惊人;空气冷却部署灵活,却在高负载场景下捉襟见肘。Aria不做选择题,两条线一起卖,让客户用自己的预算投票。
交换机的端口拥堵处理机制值得一提。当数据流量排队等待处理时,一个名为包缓存(packet buffer)的组件会临时存储延迟流量,避免直接丢弃。丢弃意味着重传,重传意味着带宽浪费,在AI训练这种分秒必争的场景里,这种"堵车时不赶人下车"的策略能省下真金白银。
800G产品线覆盖更广的端口密度需求。64端口版本每秒管理51.2太比特流量,128端口版本翻倍至102.4太比特。这种阶梯式配置对应着不同规模的AI集群——从几百张GPU的中小训练任务,到万卡级别的超大规模部署,Aria试图用两款SKU(库存单位)吃掉大部分市场。
开源操作系统+AI代理:软件层面的差异化赌注
硬件规格容易比对,软件才是粘住客户的关键。Aria的交换机运行定制版SONiC(Software for Open Networking in the Cloud,一种基于Linux的开源网络操作系统),采用容器化架构。这个技术选择的实际意义是:某个模块出故障时,管理员可以单独更新它,不用把整个交换机踢下线。对于宣称"全年无休"的AI训练集群,任何计划外停机都是灾难。
SONiC原生支持RoCE(RDMA over Converged Ethernet,融合以太网上的远程直接内存访问)。这项技术让AI集群内的数据流量绕过部分硬件组件直达目的地,减少中间环节的延迟。在分布式训练中,参数同步的速度直接决定GPU利用率——RoCE就是那个让网络不拖算力后腿的隐藏功臣。
Aria在软件栈里埋了一个更激进的赌注:遥测引擎(telemetry engine)。据该公司宣称,其收集的硬件技术信息粒度是其他工具的10000倍。这个数字如果属实,意味着Aria能感知到风扇转速的细微波动、端口温度的毫秒级变化,以及电信号质量的微观衰减。
AI代理消费这些遥测数据,自动执行负载均衡和拥塞管理。发现潜在技术问题时,系统向人类管理员告警,后者可以通过自然语言对话框调查故障。这个交互设计降低了网络运维的门槛——你不需要背诵CLI命令,用"为什么第三个端口延迟飙升"这种大白话就能排查问题。
订单在手,但早期采用者的真实身份成谜
Aria声称"已有客户订单在手",正在向早期采用者网络部署技术。但公告未披露任何客户名称,这个留白引发两种解读:要么是保密协议限制,要么是客户规模尚不足以作为背书。在数据中心交换机这个被思科、Arista、英伟达(通过Mellanox)瓜分的红海市场,新玩家的客户名单就是生死状。
融资结构本身透露了信心程度。Sutter Hill Ventures是硅谷最神秘也最成功的早期基金之一,历史上押中过Pure Storage、Snowflake、Netskope等独角兽。Atreides Management由Gavin Baker创立,以深度研究驱动的科技投资闻名。Valor Equity Partners和Eclipse Ventures的联合参与,意味着Aria的故事同时打动了成长型和硬科技两类资本。
1.25亿美元的规模在2026年的AI基础设施赛道不算夸张——同期,Cerebras、SambaNova等AI芯片公司单轮融资动辄数亿。但交换机作为"管道"生意,毛利率和估值倍数天然低于计算芯片。Aria能拿到这个数,说明投资人认可其技术差异化,而非单纯押注赛道Beta。
以太网vs.英伟达InfiniBand:AI网络的路线之争
Aria的产品选择卷入了一场持续多年的协议战争。英伟达收购Mellanox后,力推InfiniBand作为AI集群的首选网络技术,其NVLink + InfiniBand组合在超算和大型训练集群中占据主导。以太网阵营则以开放性和成本优势反击,超以太网联盟(UEC)的成立标志着传统网络设备商的集体觉醒。
Aria押注以太网,但做了两个关键增强:一是RoCE支持,弥补以太网在RDMA(远程直接内存访问)性能上的传统劣势;二是AI代理驱动的自动化运维,降低大规模部署的复杂度。这个策略的潜台词是——以太网的生态广度足以抵消InfiniBand的性能优势,前提是有人把易用性做到位。
1.6T以太网的商用时间表是另一个变量。IEEE标准尚未完全冻结,芯片层面的SerDes设计仍在迭代。Aria选择在这个节点发布产品,意味着它要么掌握了预标准实现的技术诀窍,要么在赌标准最终版本与当前设计的兼容性。无论是哪种情况,早期采用者都在承担协议不成熟的风险。
液冷版本的推出时机也值得玩味。英伟达GB200及后续芯片的TDP(热设计功耗)突破1000瓦,单机柜功率密度逼近MW级别,液冷从"可选项"变成"必选项"。Aria的1.6T交换机同步提供液冷型号,显然是为下一代AI集群的散热需求提前卡位。
遥测数据的10000倍粒度宣称,是Aria最激进也最需要验证的卖点。传统网络监控工具以秒或分钟为单位采样,Aria声称的微观粒度意味着毫秒级甚至微秒级的数据捕捉。这种数据量对存储和分析基础设施的压力是指数级的——除非Aria同时重构了后端的数据处理流水线,否则这个优势可能停留在纸面。
AI代理的自动化能力同样面临现实检验。网络故障的根因分析是出了名的棘手——同一个延迟飙升症状,可能是端口故障、线缆老化、对端设备异常,或者是上游流量突增的连锁反应。Aria的自然语言交互界面降低了查询门槛,但诊断准确性取决于训练数据的质量和覆盖度。在缺乏大规模生产环境验证的情况下,"AI驱动"更像是一个待兑现的承诺。
客户身份的保密策略在B2B硬件领域并不罕见,但在竞争激烈的交换机市场,沉默可能意味着议价能力不足。Arista Networks的成长路径提供了参照——它早期就公开了微软、Meta等超大规模客户,用社交证明撬动更多订单。Aria的"订单在手但不方便说",是谨慎还是无奈,只有时间能回答。
融资公告与产品发布的同一天操作,是Aria的精明之处。在媒体注意力碎片化的今天,分两次发布意味着两次都被淹没在AI新闻的洪流中。合并发布制造了"有钱有产品"的复合叙事,尽管1.25亿美元对于自建芯片团队、搭建供应链、支撑早期客户部署来说,只能算是一张入场券。
Sutter Hill Ventures的历史投资名单给了Aria某种光环,但也要注意幸存者偏差。这家基金同样投过大量未能出头的网络基础设施公司,只是它们的名字从未进入公众视野。Aria能否成为下一个Pure Storage,取决于它能否在18-24个月内把"早期采用者"转化为"大规模部署",并把POC(概念验证)收入变成可重复的经常性收入。
以太网在AI网络中的份额扩张是确定性趋势,但Aria能否从中切走一块蛋糕,取决于三个变量的交互:标准成熟速度、英伟达的生态锁定强度,以及超大规模云厂商的自研决心。AWS、Google、Microsoft都有自研交换机的历史,它们对第三方供应商的态度,将在很大程度上决定Aria的天花板。
如果Aria的遥测引擎和AI代理真的能把网络运维成本砍掉一个数量级,它有机会在特定细分市场建立护城河。但这个"如果"的验证周期,可能长于当前融资能支撑的跑道。下一轮是战略融资还是并购退出,2027年底前应该会有答案。
Aria Networks的1.25亿美元融资,是AI基础设施"带宽军备赛"的最新注脚。当训练集群从万卡向十万卡演进,网络带宽从瓶颈变成生死线,交换机这个曾经沉闷的品类突然成了创新热土。但热土上早已站满巨头——Aria的窗口期,可能比它愿意承认的更窄。
公告结尾处,Aria留下一个未完成的句子:"正在向早期采用者网络部署技术。"这些早期采用者是谁?部署规模多大?实际运行中的故障率和延迟表现如何?在资本热情与技术现实之间,这些问题构成了评估Aria真实进度的坐标系。下一个财报季,或者某次技术大会的现场演示,可能会透露更多。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.