![]()
剑桥大学和南加州大学的新技术有望彻底改变人工智能的效率和极端环境计算。
人工智能正面临能源危机。随着模型规模的不断扩大,数据中心所需的电力正达到不可持续的水平。当前的计算架构受制于“冯·诺依曼瓶颈”,即处理器和内存之间持续不断的数据传输消耗了系统的大部分电力。为了解决这个问题,剑桥大学和南加州大学(USC)的研究人员开发了一种受大脑启发的“忆阻器”。这些纳米电子器件将存储和处理功能集成到一个单元中,模拟了人脑的效率。这项突破有望将人工智能的能耗降低70%,并使电子设备能够在以前被认为不可能的极端环境下运行。
现代计算机在主板上来回传输数据会浪费大量能源。这种“大脑”(负责思考)与“机柜”(负责存储信息)之间的物理分离是人工智能系统发热和功率损耗的主要原因。剑桥大学巴博克·巴希特博士领导的研究团队设计了一种忆阻器,可以消除这种物理隔离。该器件将处理和存储功能集成在一个纳米电子单元中,模拟了人类神经元的突触行为。这种“神经形态”方法使硬件能够在本地处理复杂的人工智能任务,而无需像传统架构那样消耗大量能源。剑桥团队历时三年的研究成果是一款可以将能耗降低高达70%的器件。随着全球电网难以支撑人工智能基础设施的大规模扩展,这种转变至关重要。通过提高硬件的固有效率,人工智能行业可以继续发展,而无需像目前大规模模型训练和部署那样,导致碳排放或电力需求成比例增长。
复杂的材料堆叠
剑桥忆阻器的技术成功依赖于其精密的材料堆叠结构。传统的氧化物基忆阻器通常依赖于丝状开关,这种开关方式不稳定且难以大规模控制。为了克服这一难题,剑桥团队采用了一种掺杂了锶和钛的改性氧化铪薄膜。这种成分在层间界面处形成pn结,从而可以精确控制电阻。与传统器件相比,这种设计确保了更稳定、更均匀的开关性能。此外,这种新型芯片所需的开关电流比传统氧化物基忆阻器低约一百万倍。电流的大幅降低是实现70%节能的主要原因。通过使用半导体制造中常用的氧化铪材料,研究人员确保了他们的发现基于业界熟知的材料。锶和钛的加入为器件提供了维持其状态所需的稳定性,使其能够有效地作为非易失性存储器,无需持续供电即可保存信息。
开发节能高效、高性能的硬件对欧洲和英国而言关乎战略自主。随着人工智能在国家安全和经济竞争力方面日益重要,减少对高能耗传统架构的依赖已成为当务之急。
忆阻器作为后摩尔时代极具发展潜力的新型电子器件,凭借其独特的物理特性和卓越的技术表现,在存储、计算、人工智能等多个领域展现出不可替代的优势,成为突破传统电子器件性能瓶颈的关键核心。与传统的电阻、电容、电感以及现有存储器件相比,忆阻器在性能、能效、集成度等方面均实现了重大突破,为电子技术的革新注入了新的活力。
忆阻器最突出的优势之一是其出色的非易失性存储能力。与DRAM断电后数据立即丢失、需要持续供电刷新不同,忆阻器能够在断电后长期稳定保持自身的阻值状态,从而实现数据的永久留存,无需额外配备后备电源和刷新电路,既降低了设备的能耗,也提升了数据存储的可靠性。同时,其读写操作能耗极低,数据保持阶段更是实现零功耗,读写能耗可达到飞焦级,远低于SRAM、Flash等传统存储器件,极大地契合了当下电子设备低功耗、长续航的发展需求。
在响应速度与集成度方面,忆阻器同样表现优异。其阻变速度可达纳秒级,接近SRAM的响应速度,远超Flash的微秒级水平,能够满足高速存储与实时运算的需求,尤其适用于对响应延迟要求极高的AI推理场景。此外,忆阻器结构简单,器件尺寸可微缩至10纳米以下,且支持三维堆叠架构,交叉阵列密度可达到百万级,大幅提升了存储与算力密度,能够有效解决传统器件集成度不足、占用空间过大的问题,适配小型化、高密度电子设备的发展趋势。
更为关键的是,忆阻器实现了存算一体的创新突破,打破了传统冯·诺依曼架构中存储与计算分离的瓶颈。传统芯片中,数据需要在内存与CPU之间频繁搬运,不仅产生大量能耗,还会造成严重的延迟,而忆阻器阵列既是存储单元,也是计算单元,可直接在阵列内完成矩阵乘加等AI核心运算,大幅减少数据搬运带来的损耗,运算效率相比传统架构提升显著,AI能效甚至可比GPU高出百倍至千倍。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.