网易首页 > 网易号 > 正文 申请入驻

vLLM 性能优化实战:批处理、量化与缓存配置方案

0
分享至



很多团队把它vLLM 当 demo 跑,但是其实这没把它系统能力发挥出来。这篇文章将介绍怎么让 vLLM 真正干活——持续输出高令牌/秒,哪些参数真正有用,以及怎么在延迟和成本之间做取舍。

先说 vLLM 到底好在哪

vLLM 提供 OpenAI 兼容的 API,核心是 continuous batching 加上 PagedAttention。PagedAttention 用分页管理 KV 缓存,内存复用做得很高效,能同时跑多个序列,GPU 占用率拉满,还能流式输出令牌。

并且工作流程不复杂。请求进来带着 prompt ,调度器把它们切成微批次喂给 GPU,KV 缓存存着注意力的键值对,PagedAttention 按页分配避免碎片。相似的 prompt 可以跨请求复用 KV 页,这就是前缀缓存。并行度和内存怎么分配由你定,这是性能调优的核心。

批处理大小

批处理越大吞吐量越高,但尾部延迟也跟着涨。得先想清楚场景:聊天类交互要的是低 TTFT(首令牌延迟),批次小点;批量任务或者 RAG 管道追求高吞吐,TTFT 长点能接受。

网关层得限制单请求的最大令牌数,不然一个大请求能把队列堵死。多个中等大小的 prompt 比少数巨型 prompt 效果好,continuous batching 在形状规整时效率最高。如果能按输出长度分类(短/中/长),就给每类跑独立的 vLLM worker,延迟会稳定很多。

前缀缓存算是白捡的性能

两个请求共享相同前缀时——系统提示词、few-shot 示例、检索的引导文本——vLLM 直接复用 KV 缓存。这是零成本加速。

怎么设计才能吃到这个红利?可以及逆行系统提示词跨租户标准化,few-shot 示例保持完全一致,变量放用户输入里别放示例里。RAG 场景就把模板和指令缓存起来,每个请求只追加检索到的事实。

量化可以性能倍增器

AWQ 或 RTN 做 4-bit 权重量化,内存省了不少,perplexity也几乎不掉,这是服务端点的默认选择。KV 缓存也能量化,缓存占用减少意味着能跑更多并发序列,但代价是超长生成时质量可能轻微下降。

经验如下:GPU 内存紧张、调度器塞不下足够多序列时就量化。更多并行序列带来的收益通常远超全精度权重那点质量提升。

并发参数这几个很重要

--max-num-seqs 限制并发序列数,A100 级别的卡从 64-128 起步,往上调到 TTFT 开始变差为止。

--max-model-len 别设成模型理论最大值,除非真需要那么长,限制小点意味着 KV 页小,并行度高。

--tensor-parallel-size 是把大模型切到多卡,NVLink 这种快速互连是必须的,批次得够大才能掩盖通信开销。

--gpu-memory-utilization 留 10-15% 余量,应对流量尖峰时的 OOM。

千万别把所有参数都拉满然后指望调度器自己搞定,这个一定要实测。

容量规划看令牌率而不是 QPS

两个请求 QPS 一样,令牌的预算可能天差地别。规划容量要用输入加输出的令牌/秒。设 C 是选定批处理形状下单 GPU 的持续令牌/秒,容量约等于 GPU 数量x C x 利用率。利用率保持在 70-85% 能吸收峰值,再高就该横向扩了。

有时候 90% 的利用率会莫名其妙的慢,所以尽量不要到达这个临界值。

生产配置

# pull a vLLM image with your preferred model
docker run --gpus all --rm -p 8000:8000 \
-v /models:/models \
vllm/server:latest \
--model /models/Qwen2.5-7B-Instruct-AWQ \
--dtype auto \
--tensor-parallel-size 1 \
--max-num-seqs 128 \
--max-model-len 4096 \
--gpu-memory-utilization 0.9 \
--enforce-eager \
--trust-remote-code false

AWQ 模型做了权重 4-bit 量化,部署密度高。--enforce-eager 避免混合流量下漫长的 CUDA graph 预热,流量模式统一且要 CUDA graph 优化时再关掉。--trust-remote-code=false 在多租户环境保持安全。

OpenAI 兼容的请求写法如下:

curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model":"Qwen2.5-7B-Instruct-AWQ",
"messages":[{"role":"user","content":"Write a haiku about GPUs"}],
"stream":true,
"max_tokens":128,
"temperature":0.3
}'

调度和公平性

工作负载如果混了短生成和长生成,跑两个池:短任务优先池和长任务池。TTFT 保持合理范围,批量吞吐也不损失。准入控制在网关层做,按租户限令牌速率,vLLM 专心批处理不需要管流控。背压机制也是要有的,慢消费者会拖累流式输出,所以一定要将服务器端超时和最大队列长度设好。

RAG 令牌长度

7B 模型的上下文控制在 2-3k 令牌,再长注意力成本是二次方,质量提升有限。检索后修剪也很重要,删掉近似重复的块,只留高分句子。静态前导加动态事实的结构,前缀缓存命中率最高。

监控必须要有

仪表板最少得有这些:TTFT 的 p50 和 p95,令牌/秒(输入、输出、总计),活跃序列数和 KV 缓存利用率,批处理大小分布随时间变化,调度器队列长度和准入拒绝率,OOM 和驱逐事件。

活跃序列数饱和或者 KV 缓存接近 100% 的时候 TTFT p95 飙升,说明容量到头了,横向扩或者减模型长度。

常见坑和方案

全局最大上下文设太大,KV 页巨大并行度差,解决方法是设合理的 --max-model-len,长上下文只在需要时开单独层级。

每个租户 prompt 随机没法复用前缀,解决方案是标准化样板用模板。

输出不限制单个请求霸占调度器,可以在端点层面限 max_tokens。

所有流量打一个 worker,而GPU 闲置,需要在智能网关后跑多 worker 按桶分片。

仪表板只看 QPS 属于监控的混乱,要把令牌/秒和 TTFT 提到优先级,缓存饱和加告警。

总结

vLLM 的核心价值不是 prompt 技巧,是让 GPU 一直干活。令牌当预算单位,前缀设计好复用,上下文窗口别乱开,并发上限设实际点,吞吐量自然上去而且不会突然垮。

https://avoid.overfit.cn/post/89022caa9a4346b290c212c0c9bbaa57

作者:Nexumo

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
30年营养谎言被戳穿:为什么医生们突然改口让你吃肉?

30年营养谎言被戳穿:为什么医生们突然改口让你吃肉?

富贵说
2026-01-18 20:36:47
“陈真”饰演者梁小龙去世,前一天还与好友吃火锅,曝最后露面照

“陈真”饰演者梁小龙去世,前一天还与好友吃火锅,曝最后露面照

180视角
2026-01-18 17:12:09
大米江湖的暗战:那些超市里的“陷阱米”,正在偷走你的钱和健康

大米江湖的暗战:那些超市里的“陷阱米”,正在偷走你的钱和健康

富贵说
2026-01-18 20:36:10
伊朗总统:任何对伊朗最高领袖的攻击都将引发全面战争;此前特朗普放话“是时候为伊朗寻找新领导人了”

伊朗总统:任何对伊朗最高领袖的攻击都将引发全面战争;此前特朗普放话“是时候为伊朗寻找新领导人了”

扬子晚报
2026-01-19 07:27:33
好消息要来了!中小学终于迎来新改革,学生表示:幸福回来了!

好消息要来了!中小学终于迎来新改革,学生表示:幸福回来了!

老特有话说
2026-01-18 15:46:30
杜兰特18分6板8助攻火箭击败鹈鹕2连胜,史密斯32分申京21分8篮板

杜兰特18分6板8助攻火箭击败鹈鹕2连胜,史密斯32分申京21分8篮板

湖人崛起
2026-01-19 10:15:42
美博主想不明白:为什么中国人日常做的这7件事,在美国却不能做

美博主想不明白:为什么中国人日常做的这7件事,在美国却不能做

科普100克克
2026-01-16 14:15:10
杨瀚森高开低走!首节攻守存在感拉满,次节灾难性,篮板保护太差

杨瀚森高开低走!首节攻守存在感拉满,次节灾难性,篮板保护太差

篮球资讯达人
2026-01-19 11:13:26
家属称男子三年前右脑出血被开左脑,医生发现出错又开右脑 希望认定责任、赔偿并追责

家属称男子三年前右脑出血被开左脑,医生发现出错又开右脑 希望认定责任、赔偿并追责

红星新闻
2026-01-19 11:47:22
程序员上班睡觉、吃外卖被监控拍下,两天收到4份警告被开除!该公司在办公区域装监控,专门派人盯管,法院:公司赔偿11.3万余元

程序员上班睡觉、吃外卖被监控拍下,两天收到4份警告被开除!该公司在办公区域装监控,专门派人盯管,法院:公司赔偿11.3万余元

扬子晚报
2026-01-19 07:22:35
包钢稀土钢板材厂爆炸后有附近居民称一罐装物体落在家附近:距离厂区大约两公里

包钢稀土钢板材厂爆炸后有附近居民称一罐装物体落在家附近:距离厂区大约两公里

潇湘晨报
2026-01-19 10:53:12
68死伤5失联!包钢爆炸内部画面流出,原因曝光,大量隐情披露

68死伤5失联!包钢爆炸内部画面流出,原因曝光,大量隐情披露

博士观察
2026-01-18 20:59:39
皇马3500万红星崩溃 故意勺子点球踢丢绝杀 非洲杯失冠后含泪领奖

皇马3500万红星崩溃 故意勺子点球踢丢绝杀 非洲杯失冠后含泪领奖

我爱英超
2026-01-19 07:08:25
央媒就扶起老人反被讹发声!如果要自证清白,公安机关要主动介入

央媒就扶起老人反被讹发声!如果要自证清白,公安机关要主动介入

小熊侃史
2026-01-19 07:35:08
央视怒批,人民日报点名封杀,这5位目无法纪的大网红,彻底凉凉

央视怒批,人民日报点名封杀,这5位目无法纪的大网红,彻底凉凉

一娱三分地
2025-12-04 17:00:33
惹众怒!女子在上海外滩占道直播跳舞,巡逻无人机喊话15分钟仍无动于衷!网友:不止这一处

惹众怒!女子在上海外滩占道直播跳舞,巡逻无人机喊话15分钟仍无动于衷!网友:不止这一处

新民晚报
2026-01-19 10:46:42
牢A讲述美国华裔之:活着的“清朝人”,一个颠覆认知的逆天群体

牢A讲述美国华裔之:活着的“清朝人”,一个颠覆认知的逆天群体

元爸体育
2026-01-19 01:28:27
插播一条日本新闻,弥补了国内未见报道的遗憾

插播一条日本新闻,弥补了国内未见报道的遗憾

生活时尚导刊
2026-01-18 01:02:26
西安一男子找工作时被女HR频繁骚扰:“一直打电话叫宝宝,不加微信就诅咒”,平台回应:会对其审核

西安一男子找工作时被女HR频繁骚扰:“一直打电话叫宝宝,不加微信就诅咒”,平台回应:会对其审核

极目新闻
2026-01-18 21:02:37
南非宣布进入“国家灾难状态”

南非宣布进入“国家灾难状态”

财联社
2026-01-19 01:50:47
2026-01-19 12:23:01
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1894文章数 1443关注度
往期回顾 全部

科技要闻

这一仗必须赢!马斯克死磕芯片"9个月一更"

头条要闻

李国庆向李亚鹏捐款100万 晒出银行转账和聊天截图

头条要闻

李国庆向李亚鹏捐款100万 晒出银行转账和聊天截图

体育要闻

21年后,中国男足重返亚洲四强

娱乐要闻

《狮子王》导演在家中去世,终年76岁

财经要闻

GDP增长5%!统计局正在解读

汽车要闻

2026款福特烈马上市 售价29.98-39.98万元

态度原创

家居
教育
健康
公开课
军事航空

家居要闻

隽永之章 清雅无尘

教育要闻

加州百年艺术名校将于2027年关闭,范德堡大学接管旧金山校区!

血常规3项异常,是身体警报!

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

特朗普突然转变态度"谢谢"伊朗 淡化对伊朗的军事威胁

无障碍浏览 进入关怀版