我看到阿尔托大学这条新闻的时候,老实说我愣了两秒:这谁敢在这个节骨眼上宣布“用一次光程把张量算完”?行吧,这波要是落地,真可能把我们盯了十年的“GPU换代节奏”给彻底改写。
关键信息先摆在这:阿尔托大学团队在《自然·光子学》发表的研究,用光的振幅和相位做信息编码,把卷积、注意力这些深度学习的核心运算,塞进一次光传播里完成。没时钟翻转、没电子开关频繁抖动,执行速度就一句话——光速级。研究里叫“单次张量计算”(single-pass tensor computing),还引进了多波长并行,等于在一个光路里开出一整个“多车道高速”。
![]()
为啥我会这么兴奋?这两年大家都被算力压着喘。OpenAI那篇经典统计提过,训练大模型的计算需求早期差不多每3.4个月翻倍,这节奏谁顶得住。数据中心这边也不轻松,IEA给出的路径里,数据中心用电占比继续上行,AI负载的份额越拱越高。电费和散热,成了最硬的KPI。更扎心的是,GPU堆到天花板,带来的边际收益越来越像踩棉花——时钟上不去、带宽卡在内存墙,单位MAC的能耗掉不下去。
这项光学方案到底在做啥?我试着把它说人话:
和现在的GPU比,改变点在哪?我盯着三件事:
别光吹,工程上的坑有不少,摊开说:
![]()
产业这边,生态不是空白:
我给出一份购买清单式的关注点,算是“看门道”的指南:
有人会问,那这玩意能不能“换掉”GPU?我自己的判断偏稳:短期更像“并肩作战”。把最吃线性代数、最吃带宽的块卸载到光路,GPU/TPU做控制与非线性,整机能效立刻跳一格。等到非线性件、可编程性、I/O都被一代代材料和器件追上,再去谈“重构计算机”。这节奏反倒靠谱。
顺带补几条供你抬杠的数据点:OpenAI那篇算力趋势是公开的旧图还在更新;IEA对数据中心电力的预测也在年年修正,AI的份额变化很快,地区差异也大。企业侧,Lightmatter、Celestial AI在光互连上已经签了一些大单,说明产业愿意买单“光进机房”的第一步。阿尔托这次把“单次张量”扔进来,有点像在说:不只互连,计算本身也能重写。
我的态度很直接:这件事既前途光明,也绝不轻松。要恰当地兴奋,也要耐心看版本号。三到五年的窗口期,谁能先交出“真指标+真软件栈+真工艺”的三件套,谁就有资格在下一代AI硬件命题里占个C位。
我先押一句大胆的预判:下一波SaaS大厂,会把注意力层推理卸载到光子模块上,先拿低延迟和能效做突破。你愿不愿意把自己的推理集群,拆一层换成“光学外挂”?要不要赌一次?评论区说说你会投给谁,光学派还是继续ALL IN GPU。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.