网易首页 > 网易号 > 正文 申请入驻

谷歌新论文证明LLM可以少吃80%内存,闪迪盘中跌去50亿美元,但跌得可能有点早

0
分享至

来源:DeepTech深科技

3 月 24 日,Google Research 发布了一套名为 TurboQuant 的向量量化压缩算法,宣称能将大语言模型的 KV 缓存(Key-Value Cache)压缩至仅 3 比特,同时实现零精度损失。

在 NVIDIA H100 GPU 上的测试中,4 比特精度的 TurboQuant 在计算注意力 logits 时取得了相比 32 位未量化基线高达 8 倍的性能提升。这篇论文将于下月在 ICLR 2026 上正式发表,第一作者 Amir Zandieh 是 Google Research 的研究科学家,通讯作者 Vahab Mirrokni 是 Google Research 副总裁兼 Google Fellow。


消息发布当天,资本市场给出了自己的解读。内存芯片厂商 SanDisk(SNDK)股价在周三交易时段下跌约 5%,收于 677.86 美元。分析师指出,TurboQuant 所代表的极端压缩技术路线,对于一家凭借 AI 驱动的内存需求在 2025 年股价飙涨近 196% 的芯片公司而言,构成了直接的叙事威胁。这个市场反应或许有些过度,但华尔街的焦虑也不无道理,毕竟 KV 缓存的内存开销,确实已经是 LLM 运营者账单上最大的单项成本之一。

大语言模型在生成文本时,每处理一个 token 都需要计算并存储一组 key 和 value 向量,以便后续生成时不必从头重算。这些向量逐 token 累积,内存占用随上下文长度线性增长。

以 Llama 3 70B 参数模型为例,当并发服务 512 个请求、每个请求的 prompt 长度为 2,048 个 token 时,仅 KV 缓存就需要大约 512GB 的存储空间,几乎是模型权重本身所需内存的四倍。上下文窗口越长,这个数字就越夸张。对于任何在生产环境中运行 LLM 的团队来说,KV 缓存的内存开销早已从技术细节升级为成本核心。

传统的向量量化方法确实可以压缩 KV 缓存,把浮点数映射到低比特的整数表示,但大多数方案都面临一个共同的尴尬:为了保证量化精度,每个数据块都需要额外存储一组全精度的量化常数(比如缩放因子和零点),这些常数本身会增加 1 到 2 个比特的额外开销,相当于一边压缩一边又把空间还回去。TurboQuant 瞄准的正是这个问题。

TurboQuant 本质上是三篇论文的组合成果。第一个组件叫 PolarQuant,将在 AISTATS 2026 上发表。它的核心思路是对输入向量做一次随机旋转,将数据从标准的笛卡尔坐标系转换到极坐标系。传统量化方法在笛卡尔坐标下工作,需要为每个数据块单独计算归一化参数,而极坐标变换后,向量被分解为一个半径(代表信号强度)和一组角度(代表方向信息)。

视频丨PolarQuant 充当了高效的压缩桥梁,将笛卡尔输入转换为紧凑的极坐标“速记”形式,以便进行存储和处理。该机制首先从 d 维向量中提取成对的坐标,并将其映射到极坐标系中。随后,半径被成对收集并进行递归极坐标变换,这一过程不断重复,直到数据被提炼为一个最终半径和一系列描述性角度。(来源:Google Research)

关键在于,旋转后每个坐标的分布会收敛到一个已知的 Beta 分布(高维下近似高斯分布),且不同坐标之间近似独立。这意味着可以对每个坐标独立地使用最优的标量量化器(通过经典的 Lloyd-Max 算法求解连续一维 k-means 问题),不再需要存储逐块的量化常数,从根本上消除了传统方法的内存开销。

第二个组件是 QJL(Quantized Johnson-Lindenstrauss,量化 JL 变换),已于 AAAI 2025 发表。QJL 利用经典的 Johnson-Lindenstrauss 变换将高维数据降维,同时把每个结果值压到只剩一个符号位(+1 或 -1),整个过程零额外内存开销。它的价值在于提供无偏的内积估计,这对注意力计算至关重要。

TurboQuant 将两者组合成一个两阶段流水线:先用 PolarQuant 以 b-1 比特的精度完成主体压缩,吃掉绝大部分误差;再对残差(主体压缩后剩余的微小误差)施加 1 比特的 QJL 变换,消除内积估计中的偏差。论文从信息论角度证明,这种组合方案的失真率与 Shannon 下界之间只差一个约 2.7 的常数因子。换句话说,TurboQuant 在理论上已经非常接近任何压缩算法所能达到的最优边界。

实验结果的亮点集中在几个方面。在“大海捞针”(Needle-in-a-Haystack)测试中,TurboQuant 在将 KV 缓存压缩至少 6 倍的情况下,取得了与未压缩基线完全一致的 0.997 分,而此前广泛使用的 KIVI 方法在同等压缩条件下得分为 0.981,SnapKV 和 PyramidKV 等 token 级剪枝方案的表现则更弱。

在 LongBench 基准上,覆盖问答、摘要、代码补全和 few-shot 学习等任务,3.5 比特的 TurboQuant 在 Llama-3.1-8B-Instruct 上取得了 50.06 的平均分,与 16 比特全精度缓存的 50.06 持平;即便压到 2.5 比特,平均分也只微降至 49.44。


图丨大海捞针基准测试结果(来源:arXiv)

在向量搜索场景中,TurboQuant 同样表现突出。研究团队在 GloVe(200 维)和 OpenAI 嵌入(1536 维、3072 维)数据集上将其与 Product Quantization(PQ)和 RabitQ 做了对比。TurboQuant 在各个维度和比特精度下的 1@k 召回率均优于两个基线,且完全不需要离线构建码本,PQ 需要 37 秒的码本构建时间(200 维、4 比特),RabitQ 需要 597 秒,TurboQuant 只需 0.0007 秒,几乎可以忽略。这意味着它天然适合数据持续更新的在线索引场景。


图丨GloVe 数据集(d=200)基准测试结果(来源:Google Research)

值得一提的是,近期英伟达发布的 KVTC(KV Cache Transform Coding)也致力于这一方向(同样被 ICLR 2026 接收),且宣称可达 20 倍压缩,精度损失控制在 1 个百分点以内。不过两者严格来说解决的是不同环节的问题。

TurboQuant 是向量量化路线,目标是在推理过程中即时把 KV cache 压到低比特,然后直接用量化后的数据计算注意力,同时还兼顾向量搜索场景。 KVTC 走的是变换编码路线,借鉴 JPEG 图像压缩的思路:先用 PCA 去相关,再做自适应量化,最后用 DEFLATE 熵编码进一步压缩。它更侧重于 KV cache 的紧凑存储与传输,典型场景是多轮对话之间把 cache 卸载到 CPU 或 SSD 再恢复,或者跨请求复用 cache。

NVIDIA 研究员 Adrian Lancucki 在接受 VentureBeat 采访时也明确表示,KVTC 针对的是长上下文、多轮对话场景。相比较而言,TurboQuant则针对的是推理计算路径上的实时压缩。

在此之前,KV 缓存量化领域的标准基线是 2024 年发表于 ICML 的 KIVI,它引入了非对称 2 比特量化方案,实现了约 2.6 倍的内存压缩。KIVI 已经集成进了 HuggingFace Transformers,是目前部署最广泛的方案之一。TurboQuant 在同类向量量化路线上直接把压缩比从 2.6 倍拉到 6 倍以上,且不需要任何校准数据,进步幅度相当明显。

需要指出的是,TurboQuant 论文中的实验模型规模止步于 8B 参数左右(Llama-3.1-8B-Instruct、Ministral-7B-Instruct),尚未在 70B 或更大规模的模型上验证。而恰恰是在这些大模型上,KV 缓存的压缩才最迫切、收益也最大。

另外,这篇论文最早于 2025 年 4 月就出现在 arXiv 上,到现在快一年了,谷歌也没有公布官方的代码实现或与现有推理框架(如 vLLM、TensorRT-LLM)的集成计划,虽然社区已经出现了基于 Triton、MLX 和 llama.cpp 的第三方实现尝试。

Mirrokni 团队此前的 Titans 架构和 Nested Learning 范式也是类似情况,论文效果亮眼,学术社区讨论热烈,但官方代码始终没有释出,落地全靠第三方复现。TurboQuant 是否会重复这个模式,目前还不好说。

从这一点上来说,内存股价跌得可能有点太早了,更何况,AI 模型对内存的胃口,总是会迅速膨胀到填满所有可用空间。SemiAnalysis 此前在分析 HBM 发展路线时提过一个观察,可以叫“内存帕金森定律”:每一轮硬件升级或软件优化释放出来的余量,很快就会被更长的上下文窗口、更大的批处理规模、更复杂的推理管线吞掉。

所以,TurboQuant 省下来的那 5 倍内存,大概率不会让 GPU 闲着,它会被用来服务更多并发请求、处理更长的文档,或者跑原本塞不下的大模型。压缩技术扩大的是推理效率的供给侧,不是在缩减内存的需求总量。

参考资料:

1.https://arxiv.org/pdf/2504.19874

2.https://arxiv.org/pdf/2511.01815

3.https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/

运营/排版:何晨龙

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
蓝莓再次被关注?研究发现:蓝莓或可在30小时内清除体内45%因子

蓝莓再次被关注?研究发现:蓝莓或可在30小时内清除体内45%因子

垚垚分享健康
2026-03-29 11:55:24
养鱼界最强王者!广东男子因把带鱼养活5天而爆红,网友惊叹围观

养鱼界最强王者!广东男子因把带鱼养活5天而爆红,网友惊叹围观

观察鉴娱
2026-03-29 09:59:48
释新闻|被中方制裁的日众议员古屋圭司:高市早苗心腹,多次参拜靖国神社

释新闻|被中方制裁的日众议员古屋圭司:高市早苗心腹,多次参拜靖国神社

澎湃新闻
2026-03-30 13:50:26
4月7日至12日 郑丽文将应邀率团访问大陆

4月7日至12日 郑丽文将应邀率团访问大陆

看看新闻Knews
2026-03-30 10:55:01
太原高层大楼起火26死伤:官方三次更新伤亡人数,一画面信息量大

太原高层大楼起火26死伤:官方三次更新伤亡人数,一画面信息量大

博士观察
2026-03-29 14:54:04
打!倾家荡产也要打!以色列最新民调:75%民众要求死磕到底!

打!倾家荡产也要打!以色列最新民调:75%民众要求死磕到底!

老幡爆笑大聪明
2026-03-30 01:12:22
19岁全红婵哽咽回应“被人说胖”:第1次来例假后吃一点就胖,每天只吃一顿饿得不行,接受不了这么胖的自己,希望不要再骂我

19岁全红婵哽咽回应“被人说胖”:第1次来例假后吃一点就胖,每天只吃一顿饿得不行,接受不了这么胖的自己,希望不要再骂我

大风新闻
2026-03-30 11:46:07
陈奕迅现身单依纯演唱会,全程黑脸还睡着,网友:替李荣浩监场?

陈奕迅现身单依纯演唱会,全程黑脸还睡着,网友:替李荣浩监场?

潮鹿逐梦
2026-03-30 12:50:49
41岁美女老板朱明月去世,生前常熬夜,喜欢吃烧烤,身价几千万

41岁美女老板朱明月去世,生前常熬夜,喜欢吃烧烤,身价几千万

180视角
2026-03-30 08:54:24
退休党员注意!党费就按这个标准,别乱交、别多交

退休党员注意!党费就按这个标准,别乱交、别多交

娱乐的硬糖吖
2026-03-29 18:01:00
歼-20总师被除名:任央企高管,最近露面照曝出,事发全过程披露

歼-20总师被除名:任央企高管,最近露面照曝出,事发全过程披露

博士观察
2026-03-28 18:19:57
单依纯凌晨道歉!李荣浩回应:“赔偿我不需要!我要是想要钱,从第一开始就会授权给你”

单依纯凌晨道歉!李荣浩回应:“赔偿我不需要!我要是想要钱,从第一开始就会授权给你”

中国山东网
2026-03-30 08:48:10
难怪李鑫在家唯唯诺诺,豪宅不是养家的,厂同事曝更多情况

难怪李鑫在家唯唯诺诺,豪宅不是养家的,厂同事曝更多情况

潮鹿逐梦
2026-03-30 11:52:02
太阳报:哈兰德花40万镑买了一辆限量款迈巴赫,全球仅150辆

太阳报:哈兰德花40万镑买了一辆限量款迈巴赫,全球仅150辆

懂球帝
2026-03-30 11:56:04
52岁李乃文天津被偶遇,站在救护车旁神情紧张,网友纷纷表示担忧

52岁李乃文天津被偶遇,站在救护车旁神情紧张,网友纷纷表示担忧

乐悠悠娱乐
2026-03-30 11:17:49
伊能静秦昊手牵手逛迪士尼!58岁伊能静穿学院风,衣服快撑爆了!

伊能静秦昊手牵手逛迪士尼!58岁伊能静穿学院风,衣服快撑爆了!

小娱乐悠悠
2026-03-30 10:34:32
000908,18天14板

000908,18天14板

大众证券报
2026-03-30 11:35:22
孕妇做阴超下体被男医生看光,丈夫大闹医院寻死,现场画面太闹心

孕妇做阴超下体被男医生看光,丈夫大闹医院寻死,现场画面太闹心

潮鹿逐梦
2026-03-28 10:59:56
乌度卡终于悟了!被弃用后球队全胜!斯通5200万签诈骗犯坑苦火箭

乌度卡终于悟了!被弃用后球队全胜!斯通5200万签诈骗犯坑苦火箭

你的篮球频道
2026-03-30 11:48:44
比亚迪车主集体懵了!车机高德突然没了,直接换成腾讯地图

比亚迪车主集体懵了!车机高德突然没了,直接换成腾讯地图

刘哥谈体育
2026-03-30 10:37:03
2026-03-30 15:39:00
新浪财经 incentive-icons
新浪财经
新浪财经是一家创建于1999年8月的财经平台
2680349文章数 6250关注度
往期回顾 全部

科技要闻

DeepSeek性能异常问题已解决,服务恢复

头条要闻

太原高楼起火致3死23伤 居民:曾提醒烧烤店不安全

头条要闻

太原高楼起火致3死23伤 居民:曾提醒烧烤店不安全

体育要闻

想进世界杯,意大利还要过他这一关

娱乐要闻

单依纯凌晨发长文道歉!李荣浩再回应

财经要闻

油价冲击,有些亚洲货币先扛不住了!

汽车要闻

理想i9要来了!外形似小号MEGA 能冲击高端纯电市场?

态度原创

本地
亲子
数码
公开课
军事航空

本地新闻

用Color Walk的方式解锁城市春日

亲子要闻

女儿今天来找爸爸,让女儿改口叫后妈

数码要闻

一个月下跌近30% 内存条价格为什么涨不动了?

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

第三艘航母出动数千名士兵抵达 美军大举增兵中东战场

无障碍浏览 进入关怀版