近日,北京大学的科研团队凭借一道经半个多世纪的全球科学界所共仰的难题的攻破,成功研制出基于阻变存储器的高精度模拟矩阵计算的专用芯片,为我国的高新技术的发展开辟了新的天地。
![]()
相比之下,这款芯片的算力都让传统的GPU看了都“抖三抖”了,甚至在处理128×128的规模的矩阵的问题上,它的计算的吞吐量都高出了一 般的顶级的数字的处理器高出了1000倍以上,前些年我们用的GPU要辛苦地干一整天的活儿才能把一道比较复杂的任务给干完的了,它都轻轻松松地就能在一分钟的时间内就把它给搞定了。
由此可见,早在计算机的诞生初期就已将模拟计算的概念付诸实践,将直接利用了自然界的物理定律,具备了低功耗、高并行的先天的优点。但随着对其的不断完善却又逐渐被高精度的数字计算所所取代了。
但随着数字计算的不断精度的提高,却又掀起了一道又一道的技术难关,尤其是经常被称为“内存墙”的问题:无论如何提高的处理器的计算能力,都难以将大量的数据从外部的存储设备中高效的读取到处理器的内存中去,也就难以将处理好的数据从处理器的内存中高效的写入到外部的存储设备中去,从而使得整个系统的效率都大大降低了,能耗也大大提高了,甚至已经成为人工智能的发展和6G通信的瓶颈了。可谓一举将模拟计算的精度从原来的19位提升到了24位的定点精度,第一次真正地把模拟计算的精度“掰手腕”地与数字计算相提并论。
![]()
凭借对“块矩阵模拟计算”的巧妙把玩,研究团队不仅将原本难以由单一的高性能芯片所直接解决的复杂的大问题“分解”为小的块,分给了多个芯片同时协同的解决了,而且巧妙的突破了传统的模拟计算所固有的规模的限制。
不仅仅是让人眼前一亮的那一瞬间,它的实战能力更是真正地将其推上了领先的风口浪尖.。其在大规模的MIMO信号的检测等关键任务中仅仅需要3次的迭代就能将恢复的图像的误码率都能达到32位的数字的计算的效果都不相上下。
基于6G的到来,将能以实时、低能耗的方式对海量的天线信号进行有效的处理,将网络的容量和能效都能迎来质的飞跃。其对大模型的训练尤为关键,或可将人工智能领域那些耗时耗力的二阶优化算法的训练效率“提上天”。
![]()
其更大的优势就体现在了其可低功耗的特性上,让了如今的各类终端设备都能直接在自身上融入复杂的信号处理和AI的推理能力,大大地降低了对外部的云端的依赖,从而为边缘计算的普及铺就了一条又快又宽的高速路。
其高精度、可扩展的模拟矩阵计算的突破性成果,似乎也就仅仅体现在了“一篇顶级的期刊论文”上而已。它标志着我国在后摩尔时代计算范式的变革中抢占了关键先机,为应对人工智能和未来6G通信的算力挑战开辟了一条全新的路径,这项突破性技术目前正在积极推进产业化,用不了多久就能从实验室真正走向市场。
当我们把视线放得更宽一些,还会发现中国的芯片产业正呈现多点开花的局面。除了北大的模拟计算芯片,复旦大学团队也成功研发出全球首颗二维-硅基混合架构闪存芯片;华为则公布了昇腾AI芯片的完整发展路线图,通过其“灵衢互联协议”和超节点架构,在芯片制造环节仍面临约束的条件下,硬是靠着系统级创新实现了从单点突破到集群算力的跨越。
![]()
这些接踵而至的成果清晰地表明,中国芯片产业正在经历一场从技术跟跑,到并跑,乃至在部分领域实现领跑的历史性转变。一条自主可控、绿色高效的算力新征程,已经在我们脚下全面铺开。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.