网易首页 > 网易号 > 正文 申请入驻

vLLM 性能优化实战:批处理、量化与缓存配置方案

0
分享至



很多团队把它vLLM 当 demo 跑,但是其实这没把它系统能力发挥出来。这篇文章将介绍怎么让 vLLM 真正干活——持续输出高令牌/秒,哪些参数真正有用,以及怎么在延迟和成本之间做取舍。

先说 vLLM 到底好在哪

vLLM 提供 OpenAI 兼容的 API,核心是 continuous batching 加上 PagedAttention。PagedAttention 用分页管理 KV 缓存,内存复用做得很高效,能同时跑多个序列,GPU 占用率拉满,还能流式输出令牌。

并且工作流程不复杂。请求进来带着 prompt ,调度器把它们切成微批次喂给 GPU,KV 缓存存着注意力的键值对,PagedAttention 按页分配避免碎片。相似的 prompt 可以跨请求复用 KV 页,这就是前缀缓存。并行度和内存怎么分配由你定,这是性能调优的核心。

批处理大小

批处理越大吞吐量越高,但尾部延迟也跟着涨。得先想清楚场景:聊天类交互要的是低 TTFT(首令牌延迟),批次小点;批量任务或者 RAG 管道追求高吞吐,TTFT 长点能接受。

网关层得限制单请求的最大令牌数,不然一个大请求能把队列堵死。多个中等大小的 prompt 比少数巨型 prompt 效果好,continuous batching 在形状规整时效率最高。如果能按输出长度分类(短/中/长),就给每类跑独立的 vLLM worker,延迟会稳定很多。

前缀缓存算是白捡的性能

两个请求共享相同前缀时——系统提示词、few-shot 示例、检索的引导文本——vLLM 直接复用 KV 缓存。这是零成本加速。

怎么设计才能吃到这个红利?可以及逆行系统提示词跨租户标准化,few-shot 示例保持完全一致,变量放用户输入里别放示例里。RAG 场景就把模板和指令缓存起来,每个请求只追加检索到的事实。

量化可以性能倍增器

AWQ 或 RTN 做 4-bit 权重量化,内存省了不少,perplexity也几乎不掉,这是服务端点的默认选择。KV 缓存也能量化,缓存占用减少意味着能跑更多并发序列,但代价是超长生成时质量可能轻微下降。

经验如下:GPU 内存紧张、调度器塞不下足够多序列时就量化。更多并行序列带来的收益通常远超全精度权重那点质量提升。

并发参数这几个很重要

--max-num-seqs 限制并发序列数,A100 级别的卡从 64-128 起步,往上调到 TTFT 开始变差为止。

--max-model-len 别设成模型理论最大值,除非真需要那么长,限制小点意味着 KV 页小,并行度高。

--tensor-parallel-size 是把大模型切到多卡,NVLink 这种快速互连是必须的,批次得够大才能掩盖通信开销。

--gpu-memory-utilization 留 10-15% 余量,应对流量尖峰时的 OOM。

千万别把所有参数都拉满然后指望调度器自己搞定,这个一定要实测。

容量规划看令牌率而不是 QPS

两个请求 QPS 一样,令牌的预算可能天差地别。规划容量要用输入加输出的令牌/秒。设 C 是选定批处理形状下单 GPU 的持续令牌/秒,容量约等于 GPU 数量x C x 利用率。利用率保持在 70-85% 能吸收峰值,再高就该横向扩了。

有时候 90% 的利用率会莫名其妙的慢,所以尽量不要到达这个临界值。

生产配置

# pull a vLLM image with your preferred model
docker run --gpus all --rm -p 8000:8000 \
-v /models:/models \
vllm/server:latest \
--model /models/Qwen2.5-7B-Instruct-AWQ \
--dtype auto \
--tensor-parallel-size 1 \
--max-num-seqs 128 \
--max-model-len 4096 \
--gpu-memory-utilization 0.9 \
--enforce-eager \
--trust-remote-code false

AWQ 模型做了权重 4-bit 量化,部署密度高。--enforce-eager 避免混合流量下漫长的 CUDA graph 预热,流量模式统一且要 CUDA graph 优化时再关掉。--trust-remote-code=false 在多租户环境保持安全。

OpenAI 兼容的请求写法如下:

curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model":"Qwen2.5-7B-Instruct-AWQ",
"messages":[{"role":"user","content":"Write a haiku about GPUs"}],
"stream":true,
"max_tokens":128,
"temperature":0.3
}'

调度和公平性

工作负载如果混了短生成和长生成,跑两个池:短任务优先池和长任务池。TTFT 保持合理范围,批量吞吐也不损失。准入控制在网关层做,按租户限令牌速率,vLLM 专心批处理不需要管流控。背压机制也是要有的,慢消费者会拖累流式输出,所以一定要将服务器端超时和最大队列长度设好。

RAG 令牌长度

7B 模型的上下文控制在 2-3k 令牌,再长注意力成本是二次方,质量提升有限。检索后修剪也很重要,删掉近似重复的块,只留高分句子。静态前导加动态事实的结构,前缀缓存命中率最高。

监控必须要有

仪表板最少得有这些:TTFT 的 p50 和 p95,令牌/秒(输入、输出、总计),活跃序列数和 KV 缓存利用率,批处理大小分布随时间变化,调度器队列长度和准入拒绝率,OOM 和驱逐事件。

活跃序列数饱和或者 KV 缓存接近 100% 的时候 TTFT p95 飙升,说明容量到头了,横向扩或者减模型长度。

常见坑和方案

全局最大上下文设太大,KV 页巨大并行度差,解决方法是设合理的 --max-model-len,长上下文只在需要时开单独层级。

每个租户 prompt 随机没法复用前缀,解决方案是标准化样板用模板。

输出不限制单个请求霸占调度器,可以在端点层面限 max_tokens。

所有流量打一个 worker,而GPU 闲置,需要在智能网关后跑多 worker 按桶分片。

仪表板只看 QPS 属于监控的混乱,要把令牌/秒和 TTFT 提到优先级,缓存饱和加告警。

总结

vLLM 的核心价值不是 prompt 技巧,是让 GPU 一直干活。令牌当预算单位,前缀设计好复用,上下文窗口别乱开,并发上限设实际点,吞吐量自然上去而且不会突然垮。

https://avoid.overfit.cn/post/89022caa9a4346b290c212c0c9bbaa57

作者:Nexumo

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
2025不掉头发洗发水推荐:中国口碑最好十大品牌实测

2025不掉头发洗发水推荐:中国口碑最好十大品牌实测

书虫互助会
2025-11-07 09:58:09
国科大硕士季子越,称侵华日军为英雄,开除学籍后扬言投奔美国

国科大硕士季子越,称侵华日军为英雄,开除学籍后扬言投奔美国

来科点谱
2025-11-08 09:06:42
快船彻底崩了?伦纳德申请医疗退役,哈登暂离,冠军梦成空

快船彻底崩了?伦纳德申请医疗退役,哈登暂离,冠军梦成空

体坛黑馬
2025-11-08 21:07:13
64岁的刘德华终于开始大大方方的公开自己和老婆朱丽倩的照片

64岁的刘德华终于开始大大方方的公开自己和老婆朱丽倩的照片

乡野小珥
2025-10-27 11:08:35
平台线上低价卖黄金却“延迟发货”,有人买了上百万元!要与国企混改?涉事国企:已全面停止混改工作

平台线上低价卖黄金却“延迟发货”,有人买了上百万元!要与国企混改?涉事国企:已全面停止混改工作

每日经济新闻
2025-11-08 23:16:08
美女总裁跑路美国!卷走同胞1.5亿,豪宅豪车曝光,FBI亲自出手!

美女总裁跑路美国!卷走同胞1.5亿,豪宅豪车曝光,FBI亲自出手!

青眼财经
2025-11-08 15:34:36
医院副院长与女同事不雅视频被曝光,拍摄传播者是否构成侵权?

医院副院长与女同事不雅视频被曝光,拍摄传播者是否构成侵权?

现代快报
2025-11-07 20:43:05
乌方遭大规模联合攻击!红军城告急,俄军一天拿下64座建筑!普京最新支持率出炉,特朗普:希望继续与普京会晤

乌方遭大规模联合攻击!红军城告急,俄军一天拿下64座建筑!普京最新支持率出炉,特朗普:希望继续与普京会晤

每日经济新闻
2025-11-08 18:29:09
离开火箭日子也不好过!白魔出场时间连续下降:甚至不如休城时期

离开火箭日子也不好过!白魔出场时间连续下降:甚至不如休城时期

罗说NBA
2025-11-09 07:05:31
若中日再次爆发战争,结局会如何?俄罗斯和美国看法一致​

若中日再次爆发战争,结局会如何?俄罗斯和美国看法一致​

寻途
2025-11-04 21:16:03
上海交大发现:不吃酱油和味精的人,血压马上就降低了?真的吗?

上海交大发现:不吃酱油和味精的人,血压马上就降低了?真的吗?

南权先生
2025-11-08 14:52:26
郑秀文和许志安参加聚会,“安心事件”后首同框,两人状态差距大

郑秀文和许志安参加聚会,“安心事件”后首同框,两人状态差距大

科学发掘
2025-11-09 03:27:48
谁注意,广东1人被换下后,陈海涛冲着他微笑:打四川双塔靠你了

谁注意,广东1人被换下后,陈海涛冲着他微笑:打四川双塔靠你了

南海浪花
2025-11-09 07:06:02
中医长高专家:家长用好4个方法,男孩超1米8,女孩将近1米7

中医长高专家:家长用好4个方法,男孩超1米8,女孩将近1米7

菁妈育儿
2025-11-07 11:29:57
粿粿、王子美国同游被指没边界感大咖韩星脱口:会偷吃就是会偷吃

粿粿、王子美国同游被指没边界感大咖韩星脱口:会偷吃就是会偷吃

一池春水l
2025-11-08 16:05:25
美两架坠毁南海的飞机原因已明确,非电磁攻击,也非“南海魔咒”

美两架坠毁南海的飞机原因已明确,非电磁攻击,也非“南海魔咒”

南方健哥
2025-11-05 06:42:14
毁三观!网传浙江一新生约炮教官,长相清纯,大尺度聊天记录炸裂

毁三观!网传浙江一新生约炮教官,长相清纯,大尺度聊天记录炸裂

娱乐圈的笔娱君
2025-11-09 06:36:44
早知道|阿森纳、拜仁连胜均遭终结

早知道|阿森纳、拜仁连胜均遭终结

北青网-北京青年报
2025-11-09 08:59:03
“最震惊情报之一”,外媒爆:美情报显示,以军内部有证据支持其战争罪

“最震惊情报之一”,外媒爆:美情报显示,以军内部有证据支持其战争罪

环球网资讯
2025-11-08 13:40:08
张家界荒野求生挑战赛只剩17人,有人猜测“选手提前埋食物”,赛事方:不可能,场地严格保密

张家界荒野求生挑战赛只剩17人,有人猜测“选手提前埋食物”,赛事方:不可能,场地严格保密

极目新闻
2025-11-07 21:32:42
2025-11-09 09:31:00
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1823文章数 1434关注度
往期回顾 全部

科技要闻

美股“AI八巨头”单周市值损失8000亿美元

头条要闻

诺辉健康从巅峰坠落谷底 杭州总部多处办公地人去楼空

头条要闻

诺辉健康从巅峰坠落谷底 杭州总部多处办公地人去楼空

体育要闻

马刺绞赢火箭,不靠文班亚马?

娱乐要闻

古二再度放料!秦雯王家卫吐槽出现新人物

财经要闻

小马、文远回港上市 但自动驾驶还没赢家

汽车要闻

钛7月销破2万 霜雾灰与青峦翠配色正式开启交付

态度原创

本地
时尚
亲子
艺术
公开课

本地新闻

这届干饭人,已经把博物馆吃成了食堂

五十多岁的女性秋季别瞎打扮,这3个技巧实用还时髦,快收藏

亲子要闻

小娃娃们的杀伤力有多强?网友:真得谢谢我儿的不杀之恩!

艺术要闻

Elisabeth Marsch:美国当代画家

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版