人工智能正在吞噬越来越多的电力,而一种新型纳米器件也许能把这个账单砍掉七成。
剑桥大学材料科学与冶金系研究员巴博克·巴希特博士主导的团队,开发出一种基于氧化铪的新型忆阻器,最新研究成果发表于《科学进展》期刊。这项技术的核心逻辑,是让芯片像人脑一样工作,从而从根源上解决AI计算的"电老虎"难题。
今天的AI系统跑在传统芯片上,每次运算都要在存储单元和处理器之间来回搬运数据。这种"数字通勤"本身就是一场持续的能量浪费,产生大量热量,耗掉大量电力。
数据说话:全球数据中心用电量正以每年两位数的速度增长,AI训练和推理已成为其中增速最快的分项。国际能源署估计,到2030年,数据中心的电力消耗将翻倍,部分预测机构给出的数字更为惊人。
人脑的工作方式截然不同。神经元在突触处同时完成信息的存储与处理,几乎不产生多余的热量,整个大脑的功耗约等于一只20瓦的灯泡。这正是神经形态计算,即"类脑计算",想要复制的核心特性。
忆阻器是实现这一目标的关键器件,它是一种能记住自身历史状态、同时兼具存储与计算功能的元件。但长期以来,主流忆阻器依赖在金属氧化物内部生长微小导电细丝来实现电阻切换,这些细丝行为随机、难以控制,工作电压偏高,严重制约了其实用化进程。
![]()
剑桥团队选择的材料是氧化铪,这是半导体行业本就熟悉的一种材料,广泛用于芯片制造中的绝缘层,这为未来的工业化集成提供了天然的亲和性。
研究人员的关键创新在于制备工艺。他们在氧化铪薄膜中加入锶和钛两种元素,并采用两步生长法,在沉积第一层之后才通入氧气。这一看似微小的调整,在薄膜各层交界处形成了"pn结",即内建的微型电子栅极。
结果是,这种器件不再依赖细丝的生长与断裂来切换状态,而是通过改变界面处能垒的高低,平滑、精准地调节电阻。行为更像一个受控的阀门,而不是一根时不时会断掉的金属丝。
效果立竿见影。新器件的开关电流比某些传统氧化物基忆阻器低约一百万倍,并能稳定呈现数百个不同的电导状态,这正是实现模拟"内存内计算"的必要条件。实验室测试显示,器件可承受数万次开关循环,能将编程状态稳定保持约一天,周期间和器件间的一致性均表现优异。
更值得关注的是,这种器件能够在硬件层面复现生物神经学中的基础学习规则,即"尖峰时间依赖性可塑性":神经元会根据信号到达的先后顺序,自动加强或削弱彼此之间的连接。这意味着用这种材料构建的芯片,不只是被动地存储数据,而是能够主动地学习与适应。
这项技术目前面临的最大障碍,清晰而具体:制备过程需要约700°C的高温,超出了标准半导体工艺的温度容限。
现代芯片制造线上的许多步骤对温度极为敏感,700°C足以损坏已成形的微结构,这使得该器件目前仍难以直接集成到现有芯片生产流程中。巴希特坦承,这是当前最主要的工程挑战,团队正在探索降低工艺温度的方法。
值得一提的是,这项成果本身来之不易。巴希特在接受媒体采访时透露,他在这个方向上足足研究了将近三年,经历了大量失败。转机出现在2025年11月底,那次他尝试在第一层薄膜生长完成后才引入氧气,意外获得了第一个真正令人满意的结果。
剑桥大学企业转化部门已就这项技术提交专利申请。如果温度瓶颈能够攻克,这种同时拥有超低功耗、高稳定性和生物学习能力的器件,将为下一代AI芯片提供一条截然不同的技术路径,将能耗降低70%,不再只是一个理论数字。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.