公众号记得加星标⭐️,第一时间看推送不会错过。
有时,IT领域的创新源自超大规模数据中心和云计算。但早在这些公司从互联网泡沫破灭的废墟中崛起之前,创新往往来自电信和服务提供商行业,并被引入到数据处理领域。
一家名为 Eridu 的网络初创公司也是如此,该公司刚刚结束隐身模式,并刚刚筹集了超过 2 亿美元的 A 轮融资,旨在为 AI 集群创建一个非常高的基数交换系统,该系统将扁平化网络,从而降低延迟并减少网络成本,而网络成本约占 AI 集群硬件总购置成本的 20% 以上。
超大规模数据中心和云构建商,更不用说高性能计算中心了,都不喜欢网络成本占分布式计算系统成本的 10% 以上,而当他们看到这个数字上升到 30% 时,他们就更不喜欢了。这其中既包括将 GPU 和 XPU 内存连接起来组成机架级(以及未来的行级)系统的纵向扩展网络,也包括使用几十年前为高性能计算超级计算机开发的消息传递接口 (MPI) 协议的某种变体将成千上万个机架级(以及很快的行级)系统连接成一个更松散耦合的系统所需的横向扩展网络。
如果要全面核算 AI 硬件的网络成本,公司还必须加强将应用程序连接到 AI 集群的前端网络,因为与构成 AI 集群外环或分支(取决于您使用环形拓扑、网状拓扑还是胖树拓扑)的横向扩展网络相比,这些网络通常速度非常慢。
目前,Eridu 对其计划的具体内容以及如何制造高基数 AI 交换系统仍然守口如瓶。当我们不断向创始人提出我们需要一款具有无数个高速端口、超低延迟和超高带宽的以太网交换机时,他们只是点头大笑。
当然,我们长期以来一直对此深恶痛绝,尤其是在我们发现用于互连 GPU 的 PCI-Express 交换机端口数量不足(在网络术语中称为低基数)以及单通道带宽不足(通道是组合成端口的),因此总带宽不足以构建机架级系统——更不用说行级系统了。(如果机架是新的服务器,那么行就是新的机架,对吧?)
尽管UALink 互连规范的传输速率和速度足以与英伟达为其 GPU 开发的 NVSwitch 内存架构相媲美,但我们尚未看到任何保证,有人会制造出能够突破该规范极限、在内存架构领域与英伟达匹敌甚至超越的 UALink 交换机 ASIC。理论上,UALink 交换机能够在单层网络环境下支持 1024 个 GPU 或 XPU 在共享内存域中运行,这远远超过当前 NVSwitch 3 的 72 个 GPU 以及英伟达“Blackwell” GPU 上的 NVLink 5 端口。公平地说,英伟达理论上可以在多层 NVSwitch 3 架构中支持多达 288 个 GPU 插槽,但这并未得到商业支持,并且会显著增加 GPU 之间内存架构跳转的延迟。
在深入探讨我们对 Eridu 的了解之前,先来了解一下它的三位创始人的背景很重要,因为这能展现他们在电信和服务提供商领域取得的巨大成功,甚至可以追溯到互联网诞生之初。当然,过去的业绩并不能保证未来的表现,但它确实能很好地预测新理念进入市场并最终实现商业化的潜力。
Eridu联合创始人德鲁·珀金斯 是一位连续创业者,从业已有45年。珀金斯于1986年毕业于卡内基梅隆大学,获得电气工程、计算机工程和数学学士学位。在卡内基梅隆大学就读期间及毕业后,他参与了多个项目,包括IP协议的开发以及点对点协议的创建——该协议最终被广泛应用于众多互联网应用中。1987年,他创立了Entelechy公司,并设计了他认为的首款多端口以太网交换机,但该产品未能成功实现商业化。
1990年,珀金斯联合创立了InterStream公司,该公司是网络附加存储(NAS)领域的早期供应商。然而,一次意外让他的人生跌入谷底:他被一名酒驾司机驾驶的卡车撞倒,住院两年多才康复。在重新学会走路、身上植入的金属部件比“无敌金刚”还多之后,珀金斯加入了Fore Systems公司,这是一家为早期商业互联网提供ATM骨干网的供应商。他担任首席架构师,负责编写ATM交换机软件栈。1998年,珀金斯联合创立了Lightera Networks公司,并担任首席技术官。该公司开发的CoreDirector光交换机,促使Ciena公司在一年多后以5.5亿美元的价格收购了Lightera Networks。之后,珀金斯在OnFiber Communications公司担任同样的职务。OnFiber Communications公司为美国都市地区提供互联网光纤服务,并于2001年5月被Quest公司收购。珀金斯随即加入Infinera公司,担任联合创始人兼首席技术官。据他所说,Infinera开发了世界上第一款硅光子集成电路。 Infinera 于 2007 年上市,并于 2024 年 6 月被诺基亚以 23 亿美元收购。
颇具史蒂夫·奥斯汀式的风格,也与《少数派报告》和《黑镜》的情节有几分诡异的相似之处:2014年,珀金斯因双眼白内障接受了人工晶体植入手术,之后他利用休假时间创立了Mojo Vision公司。该公司致力于通过“智能隐形眼镜”进行图像增强,并将增强后的图像直接投射到视网膜上,从而为所有人打造仿生眼。2023年3月,珀金斯卸任Mojo Vision首席执行官一职,创立了Eridu公司。
这家网络初创公司的另外两位联合创始人分别是首席产品官奥马尔·哈森(Omar Hassen) 和首席业务拓展及市场营销官迈克·卡普阿诺(Mike Capuano)。哈森此前曾担任RISC-V 服务器芯片制造商 Ventana Systems的业务拓展高级副总裁。在此之前,他负责 Arm 服务器芯片初创公司 AppliedMicro 的产品开发,该公司的 Arm 服务器 CPU 业务为 Ampere Computing(现为软银旗下公司)奠定了基础,而其光网络和收发器芯片业务则被 Macom 收购。哈森在 International Rectifier、Marvell 和 Broadcom 等公司拥有丰富的部门和团队管理经验,其职业生涯可以追溯到互联网泡沫破灭时期。
Capuano 一直在科技公司的市场营销和销售部门工作,1992 年从摩托罗拉开始,几年后在 Juniper Networks 被收购后加入该公司,之后在思科系统和 Infinera 工作了十多年,之后在 Pluribus Networks 工作了一段时间,Pluribus Networks 是一家服务器交换机混合型产品制造商,于 2022 年被 Arista Networks 收购。
以上是它的出身背景。现在,让我们来数数它融到的钱。
珀金斯告诉The Next Platform,该公司迄今为止已筹集超过2亿美元的资金。网络上的传言称,种子轮融资约为3000万美元,A轮融资超过2亿美元。这是一笔相当可观的资金,如果你想在人工智能领域挑战英伟达NVSwitch和Spectrum-X,并与博通、思科系统、Marvell以及其他一些为人工智能系统构建纵向扩展和横向扩展网络专用集成电路(ASIC)的公司竞争,那么这笔资金必不可少。
Eridu 的 A 轮融资由 Socratic Partners、John Doerr(曾任 Kleiner Perkins 的技术顾问,并早期投资了 Compaq、Netscape、Sun Microsystems、Google 和 Amazon 等公司而闻名)、Hudson River Trading、Capricorn Investment Group 和 Matter Venture Partners 领投。SBVA、Bosch Ventures、TDK Ventures、Eclipse Capital 和 VentureTech Alliance 也参与了此次融资。
从现在到本十年末,人工智能硬件支出预计将达到3万亿至5万亿美元,具体数额取决于你询问的对象以及你对可能性或趋势的判断。这意味着网络领域蕴藏着巨大的商机。例如,网络领域的投资额可能在6000亿美元到1.5万亿美元之间,具体取决于你如何界定。如此巨大的收入足以推动创新、促进竞争,并最终确保英伟达在2030年继续保持其在人工智能系统计算和网络领域的领先地位。
至于如何进行这种高基数转换,珀金斯和哈森只是笑着说,不愿透露太多细节。他们提供了以下图表:
![]()
我们假设上述对比使用的是 51.2 Tb/秒以太网交换机 ASIC,而不是已经曝光、可能在今年晚些时候或明年年初开始出现在产品中的 102.4 Tb/秒设备,并将其与 Eridu 正在研发的产品进行比较。但如果对比对象是 102.4 Tb/秒设备,那将会更有意思。
“众所周知,GPU插槽的性能和功耗正以惊人的速度提升10倍,但网络性能却没有,”珀金斯解释道。他补充说,这种数量级的提升涵盖了所有技术手段,包括降低数据和计算精度、优化软件栈以及底层硬件。“网络性能并没有跟上步伐,每个芯片节点(也就是每两到三年)的性能才翻一番。我们认为这样的速度远远不够,而Eridu的创立正是为了解决这个问题。”
“我们希望将网络性能提升一个数量级,因为这些GPU必须互连,”珀金斯继续说道。“单个GPU固然不错,但当数量达到数十万甚至数百万时,你就能拥有真正足以构建人工智能的计算能力。但网络速度必须足够快才能跟上这些计算。否则,GPU就会闲置。而GPU三分之二的时间都处于闲置状态,因为网络速度不够快,无法及时将数据传输到它们。”
嘘,别告诉英伟达或AMD的GPU用户……
我们不知道埃里都究竟在做什么,但我们知道一些事情。
首先,埃利都位于如今伊拉克南部,是苏美尔帝国最古老的城市,它建于约7500年前,并繁荣了数个世纪。它南临波斯湾,北接幼发拉底河,距离乌尔下游仅15英里。埃利都曾是智慧、工艺和淡水之神恩基的都城,他的神庙名为阿布祖,意为“深水之屋”。这在美国或许可以称作“静水”,正如“静水流深”所言。这又以一种有趣的方式将我们带回到了智能的话题。进一步延伸这个比喻,埃利都存在于大洪水之前——没错,就是美索不达米亚和基督教经典中都记载的那场大洪水——或许我们也正处于一场属于我们自己的人工智能大洪水之前。的确,这都是深水。
上图清晰地表明,Eridu 公司希望开发一种新的交换机 ASIC 架构和新的交换机系统设计,以便在纵向扩展网络中互连数千个 GPU 和 XPU,并在横向扩展配置中互连数百万个这样的计算引擎。Eridu 的这项计划成本高昂,但使用对温度敏感的光收发器连接以太网脊交换机和叶交换机(或直接驱动铜缆或铜背板的 NVSwitch)同样成本不菲。
我们来做一个思想实验。
假设上述 Clos 架构中的交换机有 64 个端口,运行速度为 800 Gb/s,那么叶脊网络可以将 1280 个端口互连到 1280 个 GPU。因此,有几种方法可以从看似单个设备中实现 1280 个端口。第一种方法是构建一个带有独立背板和互连结构的模块化交换机。但这成本很高,这也是为什么我们看到超大规模数据中心和云平台构建商在叶脊架构中首先使用普通交换机的原因。
你可以制造一个超大型交换机插槽,就像我们明年即将推出的带有四个或更多互连计算引擎的超大型 GPU 和 XPU 插槽一样。这种“大插槽”方案在网络应用方面的问题在于,它存在“前沿区域与实际处理区域”的矛盾。随着交换机数据包处理引擎面积的增加,能够部署 SerDes 与外部通信的边缘节点数量与数据包处理能力的比值会下降。此外,在达到一定程度后,交换机插槽的直通延迟也会变得过大。所以,这很糟糕。
但哈森在我抱怨这件事之后说,这种受限于十字线的芯片混合方法的缺点还不止于此。
“这是次要问题,”他指出。“首要问题是,如果你把交换芯片粘在一起,数据包就必须经过多个地方,而且必须被存储。所以你真的必须从一张白纸开始,承认你不会把东西粘在一起,你构建的交换架构必须有一定的适用范围。”
当我们仔细考虑这个问题时,我们想到了一种晶圆级交换机专用集成电路(ASIC),但珀金斯和哈森都对此既不承认也不否认。尽管存在我前面提到的面积与前端带宽的问题,但这种方案仍然很有道理。使用小型芯片组可以极大地提高良率,但由于芯片间的互连,也会增加功耗。如果想要彻底解决这个问题,可以在晶圆级数据包处理引擎的边缘堆叠SerDes,以弥补前端带宽的减少。或者,可以使用非常大的SRAM缓存(这对于管理复杂大型系统中的数据流非常有用),以保持数据包处理能力和SerDes带宽的平衡。
我可能会试试这个方法。我们得等到今年晚些时候——也许是在Hot Chips大会上,也许是在其他某个活动上——才能知道结果,因为埃里都现在对此事不予置评。
该公司确认,无论最终方案如何,都将采用以太网,并运行适用于内存架构和横向扩展网络的相应协议。在与 Perkins 和 Hassen 深入交谈后,我们感觉它并非像谷歌用于其网络骨干(包括其最新四代 TPU 集群)的光路交换机。
我得到的另一条提示是:
![]()
首个 Eridu 行级交换系统的单域似乎可以在单跳网络中支持多达 5120 个 GPU 或 XPU,并在两层网络中支持超过 100 万个计算引擎。目前尚不清楚内存原子操作能否在这种规模下正常工作,但如果它对 AI 模型开发者有用,我们不妨抱有希望。
从这张图表中还可以看出,尽管 Eridu 声称可以将交换机数量减少 30 倍,但它实际上只试图将交换基础设施的成本降低 40%,同时将网络功耗降低 70%。换句话说,Eridu 认为这是一条通往巨额利润的捷径。
https://www.nextplatform.com/connect/2026/03/11/eridu-cuts-to-the-ai-networking-chase-with-high-radix-switch-system/5208996
(来源:编译自nextplatform)
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4343内容,欢迎关注。
加星标⭐️第一时间看推送
求推荐
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.