一颗芯片能顶过去好几颗用,数据中心布线会不会变成"乐高简化版"?
先看清这张"交通图"
![]()
Scorpio X-Series 320 Lane的核心就一张图:320条可配置通道像一座超级立交桥,所有车流(数据)可以在单跳内抵达目的地。
传统方案是什么?多颗低通道芯片接力,数据得"换乘"好几次。Astera Labs的思路很直接——把换乘站拆掉,修一条直达高速。
这张图里还藏了个硬件加速模块叫Hypercast,专门处理集体运算。按官方说法,能让这类运算性能提升最高2倍。
谁在为"少换乘"买单?
Jitendra Mohan的原话是:「驱动当今最苛刻的AI应用的前沿模型,需要与驱动它们的加速器同步发展的互联基础设施。」
翻译一下:GPU算力飙得太快,数据搬运跟不上就成了瓶颈。320通道不是炫技,是给下一代AI集群提前修路。
财务数据也侧面验证了需求热度——2026年第一季度营收3.084亿美元,环比涨14%,同比翻了近一倍(93%)。
省下的不只是钱
单颗替代多颗,表面看是省芯片成本,实际隐性收益更大:
拓扑简化 → 延迟降低 → 功耗下降 → 每瓦特处理的词元(Token)变多。这对24小时烧电的AI训练集群来说,电费账单会很诚实。
不过有个问题Astera Labs没细说:320通道的"高基数"设计,对散热和主板走线是不是提出了新要求?通道越多,物理层面的复杂度未必线性下降。
开放提问
当单颗芯片能撑起过去整板交换机的活,下一代AI服务器的内部结构会变成什么样——是更紧凑的"黑箱",还是反而因为散热和供电,机箱得重新做大?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.