![]()
2024年,训练一个大模型的耗电量已经超过一个小国家。英伟达H100集群的电费账单,正在逼疯数据中心。但有一群人早在2017年就开始造另一种芯片——它不搞暴力计算,而是学人脑"摸鱼"。
冯·诺依曼架构,成了AI的电费刺客
传统芯片有个致命习惯:数据和指令在内存和处理器之间来回搬家。就像你做饭时,食材在冰箱和灶台之间往返100次。这个设计缺陷叫"冯·诺依曼瓶颈",它让现代GPU空转时也在疯狂耗电。
英特尔Loihi和IBM TrueNorth的解法很粗暴——把厨房和冰箱焊在一起。内存和计算单元被压缩到同一物理空间,数据不用再"通勤"。
更狠的是它们的"脉冲神经网络"(Spiking Neural Network,脉冲神经网络)。传统AI芯片像24小时不关机的服务器,时刻待命;神经形态芯片则像人脑神经元,只在收到特定信号时才"放电"。
结果是:同样任务,功耗最高能压到传统GPU的千分之一。
事件驱动:摄像头终于学会"看眼色"
![]()
传统相机的逻辑很蠢——不管画面有没有变化,每秒固定输出30到60帧。拍一堵白墙?照拍。拍静止的会议室?照拍。
神经形态相机直接反着来:只记录变化的像素。一只鸟飞过,芯片只处理那几十个变动的像素点,其余990万个像素继续休眠。
这对工程师意味着两件事:无人机能在微秒级躲避飞行物,传感器可以用纽扣电池跑几年。没有云端、没有延迟、没有隐私泄露的焦虑。
原文作者举了个具体场景:可穿戴"辅导机器人"(Tutor Bot)可以24小时在线,通过端侧学习(On-device Learning,端侧学习)适应学生的语音习惯和学习节奏——数据永远不出设备。
硬件软件协同设计,正在变成必修课
SPPU(印度浦那大学)的课程设置透露了一个信号:未来的计算机工程教育,Python脚本只是基础分。学生需要同时理解生物神经机制和数字电路设计。
这不是跨学科的浪漫叙事,而是职业生存问题。
![]()
当"硅基大脑"从实验室走向产线,能打通生物启发和数字执行的人,才会拿到入场券。神经形态芯片的编程模型、编译工具链、甚至调试方法,都和传统计算完全不同。
英特尔2017年发布Loihi第一代,2021年推出Loihi 2,制程从14纳米缩到4纳米,神经元数量从13万提升到100万。IBM TrueNorth更早,2014年就流片,但一直困在生态建设上。
两家公司的路线分歧很明显:英特尔押注可编程性和工具链,IBM死守超低功耗的专用场景。
2026年的瓶颈,可能不在代码而在晶圆厂
原文把时间点定在2026年,理由很直接:AI的能耗危机将从"成本问题"变成"物理限制"。现有数据中心的电力和散热基础设施,撑不住下一代模型的训练需求。
神经形态计算不是替代GPU,而是接管那些"没必要用GPU"的场景——边缘推理、实时传感、长续航穿戴设备。
但有个问题还没人敢回答:当芯片学会像大脑一样"异步工作",我们的编程思维该怎么改?同步代码写了60年,突然要适应事件驱动的世界,这代人的学习曲线有多陡?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.