网易首页 > 网易号 > 正文 申请入驻

大模型推理引擎之:SGLang

0
分享至

大家好,我是Ai学习的老章

简单介绍一个推理引擎SGLang

它也是DeepSeek官方推荐的推理引擎之一

Why SGLang

SGLang 是适用于大型语言模型和视觉语言模型的快速服务框架。它通过共同设计后端运行时和前端语言,与模型的交互更快、更可控。

核心功能包括:

  • 快速后端运行时:使用 RadixAttention 为前缀缓存、零开销 CPU 调度程序、连续批处理、标记注意力(分页注意力)、推测解码、张量并行、分块预填充、结构化输出和量化 (FP8/INT4/AWQ/GPTQ) 提供高效服务。

  • 灵活的前端语言:为编程LLM应用程序提供直观的界面,包括链式生成调用、高级提示、控制流、多模态输入、并行性和外部交互。

  • 广泛的模型支持:支持广泛的生成模型(Llama、Gemma、Mistral、QWen、DeepSeek、LLaVA 等)、嵌入模型(e5-mistral、gte、mcdse)和奖励模型 (Skywork),并易于扩展以集成新模型。

  • 活跃的社区:SGLang 是开源的,并得到行业采用的活跃社区的支持。

SGLang目前还支持支持MLA优化、FP8 (W8A8)、FP8 KV缓存以及Torch编译,在开源框架中提供了最先进的延迟和吞吐量性能。

SGLang团队的启动说明:https://github.com/sgl-project/sglang/tree/main/benchmark/deepseek_v3

https://lmsys.org/blog/2024-12-04-sglang-v0-4/#data-parallelism-attention-for-deepseek-models


安装SGLamg

文档:https://docs.sglang.ai/start/install.html#method-2-from-source

提供了pip/uv、source、docker/docker compose、k8s等方式的安装方法

官方建议的uv我不喜欢, 用conda先安装环境,再安装sglang。

conda create -n sglang python=3.12 conda activate sglang pip install --upgrade pip pip install "sglang[all]>=0.4.4.post1"

一行命令启动模型

python3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-code

如果要在内网离线部署的话,建议还是docker吧,docker save 成tar后哪网docker load即可。

docker run --gpus all \     --shm-size 32g \     -p 30000:30000 \     -v ~/.cache/huggingface:/root/.cache/huggingface \     --env "HF_TOKEN= "  \     --ipc=host \     lmsysorg/sglang:latest \     python3 -m sglang.launch_server --model-path meta-llama/Llama-3.1-8B-Instruct --host 0.0.0.0 --port 30000

附录

-h, --help   显示帮助信息并退出   --model-path MODEL_PATH模型权重的路径。可以是本地文件夹或Hugging Face仓库ID。   --tokenizer-path TOKENIZER_PATH分词器的路径。   --host HOST   服务器的主机地址。   --port PORT   服务器的端口。   --tokenizer-mode {auto,slow}分词器模式。'auto'会使用可用的快速分词器,而'slow'总是使用慢速分词器。   --skip-tokenizer-init如果设置,跳过初始化分词器,并在生成请求时传递input_ids。   --load-format {auto,pt,safetensors,npcache,dummy,gguf,bitsandbytes,layered}要加载的模型权重格式。“auto”将尝试以safetensors格式加载权重,如果不可用则回退到pytorch bin格式。“pt”将以pytorch bin格式加载权重。“safetensors”将以safetensors格式加载权重。“npcache”将以pytorch格式加载权重并在numpy缓存中存储以加快加载速度。“dummy”将使用随机值初始化权重,主要用于性能分析。“gguf”将以gguf格式加载权重。“bitsandbytes”将使用bitsandbytes量化加载权重。“layered”逐层加载权重,以便在一个层被量化之前加载另一个层,从而减小峰值内存占用。   --trust-remote-code   是否允许Hub上自定义模型在其自己的建模文件中定义。   --dtype {auto,half,float16,bfloat16,float,float32}模型权重和激活的数据类型。* "auto"对FP32和FP16模型使用FP16精度,对BF16模型使用BF16精度。 * "half"为FP16。推荐用于AWQ量化。 * "float16"与"half"相同。 * "bfloat16"在精度和范围之间取得平衡。 * "float"是FP32精度的简写。 * "float32"为FP32精度。   --kv-cache-dtype {auto,fp8_e5m2,fp8_e4m3}KV缓存存储的数据类型。“auto”将使用模型数据类型。“fp8_e5m2”和“fp8_e4m3”支持CUDA 11.8+。   --quantization-param-path QUANTIZATION_PARAM_PATH包含KV缓存缩放因子的JSON文件的路径。当KV缓存数据类型为FP8时通常需要提供。否则,默认缩放因子为1.0,可能导致准确性问题。   --quantization {awq,fp8,gptq,marlin,gptq_marlin,awq_marlin,bitsandbytes,gguf,modelopt,w8a8_int8}量化方法。   --context-length CONTEXT_LENGTH模型的最大上下文长度。默认为None(将使用模型config.json中的值)。   --device {cuda,xpu,hpu,cpu}设备类型。   --served-model-name SERVED_MODEL_NAME覆盖OpenAI API服务器v1/models端点返回的模型名称。   --chat-template CHAT_TEMPLATE内置聊天模板名称或聊天模板文件的路径。仅用于兼容OpenAI API的服务器。   --is-embedding        是否将CausalLM用作嵌入模型。   --revision REVISION   使用的具体模型版本。可以是分支名、标签名或提交ID。未指定时,使用默认版本。   --mem-fraction-static MEM_FRACTION_STATIC用于静态分配(模型权重和KV缓存内存池)的内存比例。如果遇到内存不足错误,请使用较小的值。   --max-running-requests MAX_RUNNING_REQUESTS正在运行的最大请求数量。   --max-total-tokens MAX_TOTAL_TOKENS内存池中的最大token数量。如果未指定,将根据内存使用比例自动计算。此选项通常用于开发和调试目的。   --chunked-prefill-size CHUNKED_PREFILL_SIZE分块预填充中每个块的最大token数量。设置为-1表示禁用分块预填充。   --max-prefill-tokens MAX_PREFILL_TOKENS预填充批次中的最大token数量。实际限制将是此值和模型最大上下文长度之间的较大值。   --schedule-policy {lpm,random,fcfs,dfs-weight}请求的调度策略。   --schedule-conservativeness SCHEDULE_CONSERVATIVENESS调度策略的保守程度。较大的值意味着更保守的调度。如果经常看到请求被撤回,请使用较大的值。   --cpu-offload-gb CPU_OFFLOAD_GB为CPU卸载保留的RAM GB数。   --prefill-only-one-req PREFILL_ONLY_ONE_REQ如果为true,则每次预填充仅处理一个请求。   --tensor-parallel-size TENSOR_PARALLEL_SIZE, --tp-size TENSOR_PARALLEL_SIZE张量并行大小。   --stream-interval STREAM_INTERVAL流式传输的间隔(或缓冲区大小),按token长度计算。较小的值使流式传输更平滑,而较大的值提高吞吐量。   --stream-output       是否作为一系列不连续的段输出。   --random-seed RANDOM_SEED随机种子。   --constrained-json-whitespace-pattern CONSTRAINED_JSON_WHITESPACE_PATTERNJSON约束输出中允许的语法空白的正则表达式模式。例如,要允许模型生成连续的空格,请将模式设置为[\n\t ]*   --watchdog-timeout WATCHDOG_TIMEOUT设置看门狗超时时间(秒)。如果前向批处理花费的时间超过此值,服务器将崩溃以防止挂起。   --download-dir DOWNLOAD_DIR模型下载目录。   --base-gpu-id BASE_GPU_ID开始分配GPU的基础GPU ID。在单台机器上运行多个实例时很有用。   --log-level LOG_LEVEL所有记录器的日志级别。   --log-level-http LOG_LEVEL_HTTPHTTP服务器的日志级别。如果没有设置,默认重用--log-level。   --log-requests        记录所有请求的输入和输出。   --show-time-cost      显示自定义标记的时间成本。   --enable-metrics      启用日志Prometheus指标。   --decode-log-interval DECODE_LOG_INTERVAL解码批次的日志间隔。   --api-key API_KEY     设置服务器的API密钥。也用于兼容OpenAI API的服务器。   --file-storage-pth FILE_STORAGE_PTH后端文件存储的路径。   --enable-cache-report返回openai请求中usage.prompt_tokens_details中的缓存token数量。   --data-parallel-size DATA_PARALLEL_SIZE, --dp-size DATA_PARALLEL_SIZE数据并行大小。   --load-balance-method {round_robin,shortest_queue}数据并行性的负载均衡策略。   --expert-parallel-size EXPERT_PARALLEL_SIZE, --ep-size EXPERT_PARALLEL_SIZE专家并行大小。   --dist-init-addr DIST_INIT_ADDR, --nccl-init-addr DIST_INIT_ADDR初始化分布式后端的主机地址(例如`192.168.0.2:25000`)。   --nnodes NNODES       节点数量。   --node-rank NODE_RANK节点排名。   --json-model-override-args JSON_MODEL_OVERRIDE_ARGS用于覆盖默认模型配置的JSON字符串格式的字典。   --lora-paths [LORA_PATHS ...]LoRA适配器列表。可以提供str格式的路径列表,或{名称}={路径}的重命名路径格式。   --max-loras-per-batch MAX_LORAS_PER_BATCH运行批次中的最大适配器数量,包括仅基础模型的请求。   --lora-backend LORA_BACKEND选择多LoRA服务的内核后端。   --attention-backend {flashinfer,triton,torch_native}选择注意力层的内核。   --sampling-backend {flashinfer,pytorch}选择采样层的内核。   --grammar-backend {xgrammar,outlines}选择语法引导解码的后端。   --enable-flashinfer-mla启用FlashInfer MLA优化   --speculative-algorithm {EAGLE}推测算法。   --speculative-draft-model-path SPECULATIVE_DRAFT_MODEL_PATH草稿模型权重的路径。可以是本地文件夹或Hugging Face仓库ID。   --speculative-num-steps SPECULATIVE_NUM_STEPS在推测解码中从草稿模型采样的步骤数。   --speculative-num-draft-tokens SPECULATIVE_NUM_DRAFT_TOKENS在推测解码中从草稿模型采样的token数。   --speculative-eagle-topk {1,2,4,8}在eagle2每步中从草稿模型采样的token数。   --enable-double-sparsity启用双重稀疏性注意力   --ds-channel-config-path DS_CHANNEL_CONFIG_PATH双重稀疏性通道配置的路径   --ds-heavy-channel-num DS_HEAVY_CHANNEL_NUM双重稀疏性注意力中的重型通道数量   --ds-heavy-token-num DS_HEAVY_TOKEN_NUM双重稀疏性注意力中的重型token数量   --ds-heavy-channel-type DS_HEAVY_CHANNEL_TYPE

制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个,谢谢你看我的文章,我们下篇再见!

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
iOS 26.5 系统即将发布,全新 AI 功能真要来了!

iOS 26.5 系统即将发布,全新 AI 功能真要来了!

XCiOS俱乐部
2026-03-29 14:16:46
北京一男子花500万买法拍房,装修时却发现,屋里藏了10亿现金

北京一男子花500万买法拍房,装修时却发现,屋里藏了10亿现金

清茶浅谈
2025-02-27 00:52:18
泽连斯基:美方正施压乌克兰撤出顿巴斯

泽连斯基:美方正施压乌克兰撤出顿巴斯

界面新闻
2026-03-28 22:55:44
孕妇做阴超下体被男医生看光,丈夫大闹医院寻死,现场画面太闹心

孕妇做阴超下体被男医生看光,丈夫大闹医院寻死,现场画面太闹心

潮鹿逐梦
2026-03-28 10:59:56
联大投票结果出炉,伊朗与122国获压倒性胜利,英法德日纷纷弃权

联大投票结果出炉,伊朗与122国获压倒性胜利,英法德日纷纷弃权

史行途
2026-03-29 18:57:32
每一口都可能伤害心脏!JACC最新:过量摄入这些食品,心血管风险恐增67%

每一口都可能伤害心脏!JACC最新:过量摄入这些食品,心血管风险恐增67%

医诺维
2026-03-29 16:14:51
服务富婆只是冰山一角!张凌赫私生活谣言曝光,一个个太离谱!

服务富婆只是冰山一角!张凌赫私生活谣言曝光,一个个太离谱!

梦醉为红颜一笑
2026-03-12 18:57:38
国足vs喀麦隆!4231阵型首发浮现:韦世豪搭档张玉宁,剑指2连胜

国足vs喀麦隆!4231阵型首发浮现:韦世豪搭档张玉宁,剑指2连胜

球场没跑道
2026-03-29 14:40:20
伊朗武装部队发言人:伊朗正在制定战争结束条件

伊朗武装部队发言人:伊朗正在制定战争结束条件

财联社
2026-03-28 04:50:19
美国智库警告:一旦中美台海开战,美军将有92%几率击败解放军?

美国智库警告:一旦中美台海开战,美军将有92%几率击败解放军?

别人都叫我阿螫
2026-03-29 17:02:30
佟丽娅回老家放飞自我,啃羊排沾满脸肉汁,露虎牙一笑颜值绝美

佟丽娅回老家放飞自我,啃羊排沾满脸肉汁,露虎牙一笑颜值绝美

看尽落尘花q
2026-03-29 17:34:43
冲上热搜!今年蚊子可能迎来史诗级加强?网友:遭不住了

冲上热搜!今年蚊子可能迎来史诗级加强?网友:遭不住了

深圳晚报
2026-03-28 22:25:02
形势到底有多严峻:一边是老公失业要离婚,一边是海关公务员辞职

形势到底有多严峻:一边是老公失业要离婚,一边是海关公务员辞职

慧翔百科
2026-03-23 11:32:12
记者:库尔图瓦伤情比预期严重,很难赶上皇马与拜仁的次回合

记者:库尔图瓦伤情比预期严重,很难赶上皇马与拜仁的次回合

懂球帝
2026-03-30 00:58:53
为啥伊犁河谷中国一侧是水草丰美的绿洲,而邻国哈萨克一侧是荒漠

为啥伊犁河谷中国一侧是水草丰美的绿洲,而邻国哈萨克一侧是荒漠

向航说
2026-03-21 23:30:03
美国不许巴西将最大港口经营权交给中企,说明中国不能再韬光养晦

美国不许巴西将最大港口经营权交给中企,说明中国不能再韬光养晦

趣文说娱
2026-03-19 18:59:35
惨遭逆转!杜兰特30+8沮丧了,申京拼到流血,火箭该让乌度卡下课

惨遭逆转!杜兰特30+8沮丧了,申京拼到流血,火箭该让乌度卡下课

巴叔GO聊体育
2026-03-29 15:58:12
张雪峰骨灰将运回老家下葬:两任妻子现身追悼会,女儿痛哭惹人怜

张雪峰骨灰将运回老家下葬:两任妻子现身追悼会,女儿痛哭惹人怜

博士观察
2026-03-28 16:28:02
气质是天生的,这是我见过最美的中年女性,没有之一

气质是天生的,这是我见过最美的中年女性,没有之一

小椰的奶奶
2026-03-27 17:26:10
清明前后,碰到此菜别手软,一次囤20斤,放冰箱冻起来,特省事!

清明前后,碰到此菜别手软,一次囤20斤,放冰箱冻起来,特省事!

阿天爱旅行
2026-03-26 09:53:41
2026-03-30 03:15:00
Ai学习的老章 incentive-icons
Ai学习的老章
Ai学习的老章
3296文章数 11118关注度
往期回顾 全部

科技要闻

马斯克承认xAI"建错了",11位创始人均离职

头条要闻

伊朗议长:美航母遭受巨大损失 我们绝不接受屈辱

头条要闻

伊朗议长:美航母遭受巨大损失 我们绝不接受屈辱

体育要闻

绝杀卫冕冠军后,他单手指天把胜利献给父亲

娱乐要闻

汪峰定律再现!李荣浩喊话单依纯侵权

财经要闻

Kimi、Minimax 们的算力荒

汽车要闻

岚图泰山X8配置曝光 四激光雷达/华为新一代座舱

态度原创

亲子
本地
时尚
教育
公开课

亲子要闻

罕见五胞胎全保住,20多名医护深夜齐上阵

本地新闻

在潍坊待了三天,没遇到一个“潍坊人”

来到1980的周也,好毛利兰

教育要闻

建议给家长放春秋假,否则的话,学生放春秋假就失去意义

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版