![]()
10纳安培。这个数字放在芯片领域,相当于用一根头发丝去撬动一辆卡车。
剑桥大学研究团队本月在《科学进展》发表的论文,披露了一种新型氧化铪忆阻器。其开关电流低至传统器件的百万分之一,却能在单一物理位置同时完成存储与计算——这意味着AI训练机房那些嗡嗡作响的散热风扇,可能很快就要失业了。
电流降百万倍,靠的是"三明治"结构
传统氧化铪忆阻器依赖导电细丝机制:电流在氧化物内部烧出一条条纳米级通路,这些细丝的生长和断裂充满随机性,器件之间的一致性堪比开盲盒。
剑桥团队换了个思路。他们在氧化铪中掺入锶和钛,用两步沉积法造出一个p型Hf(Sr,Ti)O₂层,与原本的n型氧化铪形成内置p-n结。这个结构让电荷转移变得可控,器件能在低于10纳安培的电流下平滑切换状态,同时产生数百个可区分的电导水平。
论文通讯作者Babak Bakhit博士打了个比方:传统忆阻器像洪水冲出的河道,每次都不一样;他们的设计更像精密调节的水闸,开多大、流多快,全由结的能带结构说了算。
这种"界面型"而非"丝状"的开关机制,把器件间差异和循环波动性压到了极低水平——这对需要海量并行计算的神经形态系统至关重要。
70%能耗削减,从"数据搬运工"下岗开始
现代AI的耗电大户,往往不是计算本身。
英伟达H100训练GPT-4级别的模型时,超过60%的能耗花在内存和处理器之间的数据搬运上。这就像让厨师每切一刀菜,都得跑回仓库取食材—— von Neumann架构的"内存墙"瓶颈,逼着芯片厂把缓存越做越大、总线越来越宽,功耗却指数级攀升。
忆阻器的价值在于"存算一体"。电阻值本身就是计算结果,无需额外读取-写入循环。剑桥团队在论文中估算,基于这类器件的神经形态系统,整体功耗可比传统架构降低70%以上。
更关键的是,百万分之一的开关电流直接拉低了静态功耗。现有忆阻器阵列为了维持状态,漏电流累积起来相当可观;而新器件在10纳安培级别工作,相当于把"待机耗电"从水龙头拧成了滴灌。
实验室到晶圆厂,还差几道坎
论文数据很漂亮,但产业化的路还长。
锶钛掺杂的氧化铪薄膜需要两步沉积,这对现有12英寸产线的工艺兼容性是个考验。团队没有披露器件的耐久性数据——忆阻器能经受多少次开关循环而不退化,直接决定它能否用于需要持续训练的AI场景。
另一个隐性挑战是外围电路。忆阻器阵列需要高精度的读写电路来利用那数百个电导水平,而低电流操作对噪声抑制提出了更高要求。简单说,芯片本身省电了,但配套的模拟前端可能把省下的电又吃回去一部分。
不过产业界已经在行动。英特尔、台积电、SK海力士都有氧化铪忆阻器的量产路线图,剑桥这项技术的核心改进——内置p-n结的界面开关机制——理论上可以整合进现有HfO₂产线,无需推翻重来。
论文结尾,作者们留下了一个开放的计算:如果这类器件与硅光子学结合,能否把AI推理的能效再推几个数量级?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.