阿尔托大学研究人员展示了"单次"张量计算技术,利用光的天然物理特性完成传统上需要GPU承担的运算任务。
![]()
研究人员成功演示了一种新型光学计算方法,可在单次光传输过程中完成复杂张量运算。这一突破有望重塑现代AI系统的数据处理方式,缓解传统数字硬件日益增长的压力。当今几乎所有AI任务都依赖张量运算。GPU虽能有效处理这些运算,但数据量的激增已凸显出其在速度、能效和可扩展性方面的局限。
这种压力促使由阿尔托大学张宇峰(音译)博士领导的国际团队将目光投向电子电路之外的解决方案。该团队开发的"单次张量计算"技术,利用光的物理特性处理数据。光波携带振幅和相位信息,研究人员将数字信息编码至这些特性中,使光波在传输过程中自然相互作用,从而实现与深度学习系统相同的数学运算。
张博士表示:"我们的方法能执行当前GPU处理的各类运算,如卷积和注意力层,但全程以光速进行。"他补充说明,由于光学运算在传播过程中自然完成,系统避免了电子开关的延迟。
多波长技术拓展能力边界
研究人员通过引入多波长光波进一步扩展了该方法。每个波长就像独立的计算通道,使系统能并行处理更高阶的张量运算。张博士用海关查验流程作比喻:"想象您是海关官员,需要让每个包裹通过功能各异的检测设备,再将它们分拣至对应区域。"他进一步解释说,正如将包裹与检测设备合为一体,他们的"光学钩子"能在单次操作中将每个输入连接至正确输出。
该系统还具有简易性优势。所有相互作用都是被动发生,无需外部控制电路管理计算过程,这既降低了功耗又提升了系统集成度。阿尔托大学光子学团队负责人孙志培(音译)教授指出,该方法适用于多种光学平台:"我们计划未来将这套计算框架直接集成到光子芯片上,使光处理器能够以极低功耗执行复杂AI任务"。
产业化应用路径
研究团队预计该技术将很快应用于商业硬件。张博士表示目标是将该技术部署到主流公司的硬件平台上,预计三到五年内实现集成。研究人员认为,这种系统可加速依赖实时处理的多个领域的AI工作负载,包括医学成像、大语言模型和科学模拟。随着AI模型规模扩大,光学方法带来的能耗降低优势也愈发重要。
张博士总结道:"这将催生新一代光学计算系统,显著加速众多领域的复杂AI任务。"
该研究成果已发表于《自然·光子学》期刊。
如果朋友们喜欢,敬请关注“知新了了”!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.