OpenAI还在堆算力,DeepSeek却给AI装上了“海马体”。
就在昨夜,DeepSeek(深度求索)再次扔下了一枚重磅炸弹:全新论文《Engram: Conditional Memory via Scalable Lookup》正式发布。这一次,他们没有卷参数,没有卷模型规模,而是把刀尖对准了所有大模型最痛的那根软肋——记忆。
如果说之前的MoE(混合专家模型)是为了让AI“算得少但算得快”,那么DeepSeek这次提出的Engram(记忆印痕),就是为了让AI“记得住且不费脑”。
这不仅是架构上的降维打击,更是对硅谷“大力出奇迹”神话的一次精准狙击。
![]()
DeepSeek看穿了所有人的“显存焦虑”。
不管是个人开发者还是科技巨头,只要玩过大模型都知道,现在最贵的不是计算核心(Compute),而是高带宽显存(HBM)。GPU再快,显存塞不下,模型就跑不动。为了让AI记住更多的知识,我们被迫把无数的“静态知识”硬塞进昂贵的GPU显存里,这就像是用法拉利的引擎去拉一车的砖头——极其奢侈,又极其愚蠢。
DeepSeek的Engram架构,做了一件极其天才的事情:它把“思考”和“记忆”分家了。
在传统Transformer架构里,AI想知道“法国首都是哪里”,它需要动用庞大的神经网络去“推理”出这个答案。这不仅慢,还占显存。而Engram引入了一套全新的机制:它允许AI直接去查表。
简单来说,DeepSeek给大模型外挂了一个极其巨大的“图书馆”。那些死记硬背的知识(比如历史事实、代码片段、固定搭配),直接被压缩成N-gram索引,扔到了便宜量大的CPU内存(RAM)里!
![]()
当模型需要用到这些知识时,它不需要消耗昂贵的GPU算力去“回忆”,而是直接通过O(1)复杂度的查表操作,瞬间从内存里调取。这就像人类的大脑:你计算微积分时需要动脑(GPU推理),但你想起自己名字时,是下意识的直觉(Engram查表)。
这一刀,砍断了算力与记忆的强绑定。
根据论文数据,引入Engram模块后,DeepSeek成功把海量的静态参数从GPU里踢了出去,放在了普通内存里。这意味着什么?这意味着我们终于可以用消费级的显卡,跑起那些曾经只有H100集群才能承载的“超巨型记忆体”模型!
测试结果令人头皮发麻:在同等算力消耗下,Engram模型的知识准确率、推理能力、代码能力全线暴涨。特别是在长文本检索任务(大海捞针)中,准确率直接从84.2%飙升到了97%!
![]()
这不仅仅是技术的胜利,这是方法论的胜利。
当西方的巨头们还在试图用千亿美金的各种昂贵硬件去暴力破解AGI(通用人工智能)时,来自中国的DeepSeek再次证明了:极致的算法优化,比单纯的堆料更优雅,也更致命。
Engram的出现,标志着AI正式从“计算器”进化到了“有脑子”的阶段。它不再是一个只会预测下一个词的概率机器,而是一个拥有独立检索机制、懂得在思考前先“查阅记忆”的智能体。
对于我们普通用户而言,好日子还在后头。未来的本地大模型,或许不再需要你有4块4090,只要你的内存插得足够多,DeepSeek就能让你在家里跑起一个拥有百科全书般记忆的超级AI。
DeepSeek这一波,不仅赢了面子,更赢了未来。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.