网易首页 > 网易号 > 正文 申请入驻

字节跳动开源大模型Seed-OSS-36B,本地部署,性能实测

0
分享至


大家好,我是 Ai 学习的老章

字节跳动发布 Seed-OSS 系列大模型有段日子了,最近有空升级了 vLLM,拿出一张 H200 实际部署看看显存占用及性能情况

Seed-OSS-36B

本地字节跳动发布的大模型包括 3 个版本:

  • Seed-OSS-36B-Base(基础模型,含合成数据版本)

  • Seed-OSS-36B-Base-woSyn(基础模型的"纯净版",不含合成数据版本)

  • Seed-OSS-36B-Instruct(指令微调版本)

模型大小都是 36B。这个模型的特性是可以调整思考长度(类似 GPT-OSS 调整思考长度的 low-high). 以及 Agent 性能进行了优化。原生上下文长度为 512K。



Seed-OSS-36B 模型的主要特性如下:

  • 原生 512K 上下文窗口:端到端专为超长上下文训练,可一次性吞入海量文档、多步链路与智能体轨迹,远超常见 128K 开源上限。

  • “思考预算”灵活可控:用户可动态调节推理长度,在成本/延迟与推理深度之间权衡——便于生产级推理管理。

  • 推理与智能体性能:模型针对复杂问题求解与工具使用场景调优,同时保持均衡的通用能力。

  • 面向研究的发布策略:提供两个基础模型——一个带有合成指令数据,开箱即用性能更高;一个不带合成数据,基础更“纯粹”——同时满足应用与学术需求。

  • 现代 LLM 架构:因果解码器仅 Transformer,采用 RoPE 位置编码、GQA 注意力、RMSNorm 和 SwiGLU 激活;共 64 层、36B 参数、5120 隐藏维度、155K 词表。

原生 512K 上下文解锁了全新的应用类别:

  • 长文本分析:多文档综合(RFP、法律、研究文献)、大规模日志分析,以及端到端会议语料推理。

  • 智能体轨迹:在单会话预算内,保留多步工具调用及类似思维链的中间状态或批评。

  • 大规模 RAG:最小化分块压力、扩大检索窗口,实现更丰富的跨段推理,无需激进截断策略。

由于长上下文是原生训练(而非后期追加),模型在超长文本上应能更好保持稳定性与注意力行为,不过仍需针对具体应用做延迟与内存优化。

Seed-OSS-36B-Instruct

完成预训练的 Seed-OSS-36B-Base 模型在多数评测基准上有较好表现,效果优于不包含合成数据的 woSyn 版本。

Seed-OSS-36B-Instruct 是基于 Seed-OSS-36B-Base 进行后训练的模型版本,在数学、代码、推理、Agent 能力、长文本能力等评测中,接近或达到同级别尺寸开源模型的最好水平。

经过指令微调的变体强调指令遵循、推理、智能体任务、编程、多语言、安全性和长上下文,在多个领域都取得了 SOTA 成绩:

  • 数学与推理:Seed-OSS-36B-Instruct 在 AIME24 上取得 91.7% 的成绩,在 BeyondAIME 上取得 65,均代表开源领域的最新 SOTA 水平。

  • 代码能力:在 LiveCodeBench v6 上,Instruct 模型得分 67.4,同样刷新 SOTA 纪录。

  • 长上下文处理:在 RULER(128K 上下文长度)测试中,该模型达到 94.6,创下开源模型的最高分。

vLLM 本地部署省流:vllm 官方正式版本 0.10.1 及以内版本均部署失败

官方文档提到使用 vllm >= 0.10.0 或更高版本进行推理,还要安装支持 Seed-OSS 的 vLLM 版本:

VLLM_USE_PRECOMPILED=1 VLLM_TEST_USE_PRECOMPILED_NIGHTLY_WHEEL=1 pip install git+https://github.com/vllm-project/vllm.git

内网搞起来还是麻烦,我测试,vllm 至少要 0.10.2 版本才支持 Seed-OSS(0.10.1 和 0.10.1.1 都不行),还有最近热门模型 Qwen3-Next


https://docs.vllm.ai/en/latest/models/supported_models.html-generation

我是使用 docker 部署的 vllm 0.10.2

具体过程:

docker pull vllm/vllm-openai:v0.10.2 docker save vllm/vllm-openai:v0.10.2 > vllm102.tar # tar 包传入生产内网 docker load -i  vllm102.tar  docker run --rm --runtime nvidia   --name seed36-server --ipc=host --gpus '"device=3"'   -p 8007:8000 -v /data/ai:/models vllm/vllm-openai:v0.10.2  --model /models/seed-oss-36-instruct  --chat-template   /models/seed-oss-36-instruct/chat_template.jinja   --served-model-name seed-oss-36 --port 8000   --max-num-seqs 8 --max-model-len  65536 --gpu-memory-utilization 0.6

我的卡是 141GB 显存,刚开始设置 64K 上下文,--gpu-memory-utilization 0.6 报错了,显示空间不足


这是因为模型文件 74GB 左右,64K 的max-model-len,KV 显存需要 16GB

所以调整后顺利加载模型了


对接到 openwebui


日志显示生成速度 48Tokens/s 的样子


性能测试

跑了一下测试脚本,并发很低,总体生成速度 320 多


重新部署,将--max-num-seqs 调整到 50

docker run --rm --runtime nvidia --name seed36-server  --ipc=host --gpus '"device=3"'  -p 8007:8000  -v /data/ai:/models vllm/vllm-openai:v0.10.2  --model /models/seed-oss-36-instruct  --chat-template   /models/seed-oss-36-instruct/chat_template.jinja   --served-model-name seed-oss-36  --port 8000  --max-num-seqs 50  --max-model-len  65536 --gpu-memory-utilization 0.7

重新测试,总体平均 Tokens 1500+Tokens/s

很不错了


总结

这个模型的官方测评结果看,各个方面都领先 Qwen3-32B,尤其是长上下文处理测试中,该模型达到 94.6,创下开源模型的最高分。据我所知,很多公司级的知识库应用多是调用 Qwen3-32B,Seed-OSS-36B-Instruct 这个超长上下文还是很有优势的。

另外,它还有可控思维预算机制,用户可以根据任务复杂性灵活指定模型的推理长度,如设置为 512、1K、2K、4K、8K 或 16K 等。模型在推理过程中会定期触发自我反思,估计已消耗和剩余的预算,对于简单任务可快速响应,复杂任务则可分配更多预算进行深度思考。

但是应该是为了实现这个灵活的推理预算控制,它的思考标签是 seed:think,所以在 openwebui 中它的思考过程不会被准确识别,将会被截断输出到对话框。如果后续对接 Agent 平台不知道会不会有毛病,增加开发成本。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
村书记135万接盘集体厂,儿子资本运作套现13亿,全家狂捞17亿

村书记135万接盘集体厂,儿子资本运作套现13亿,全家狂捞17亿

复转这些年
2026-01-14 22:37:51
巴特勒右膝韧带撕裂赛季报销,既是勇士的天灾、也是人祸

巴特勒右膝韧带撕裂赛季报销,既是勇士的天灾、也是人祸

富贵体坛说
2026-01-21 00:10:41
50岁李湘的英伦生活,背后竟藏着不为人知的代价!

50岁李湘的英伦生活,背后竟藏着不为人知的代价!

特约前排观众
2026-01-21 00:05:11
好险!双色球009期:3同尾号助三等奖爆2291注,有人差点清空奖池

好险!双色球009期:3同尾号助三等奖爆2291注,有人差点清空奖池

芭比衣橱
2026-01-21 03:45:19
历史首进决赛,霸榜热搜!中国队一夜创下8大纪录,对手+时间确定

历史首进决赛,霸榜热搜!中国队一夜创下8大纪录,对手+时间确定

侃球熊弟
2026-01-21 02:56:46
记者:方昊在薪资上做出不小的牺牲,也给国安留下了转会费

记者:方昊在薪资上做出不小的牺牲,也给国安留下了转会费

懂球帝
2026-01-20 12:41:28
为什么抖音阿里美团,都动不了携程的垄断地位?

为什么抖音阿里美团,都动不了携程的垄断地位?

25号观察员
2026-01-20 17:46:59
感人!王博豪今晚5镜头太拼了:不愧U23国足唯一留洋球员

感人!王博豪今晚5镜头太拼了:不愧U23国足唯一留洋球员

邱泽云
2026-01-21 02:46:57
快船大败:前10之梦破碎,哈登纪录危矣!

快船大败:前10之梦破碎,哈登纪录危矣!

麦咪熊熊
2026-01-21 00:50:06
摩尔多瓦启动退出独联体法律程序

摩尔多瓦启动退出独联体法律程序

财联社
2026-01-20 05:14:05
1.21股市早8点丨降温容易再涨难·美股又出幺蛾子

1.21股市早8点丨降温容易再涨难·美股又出幺蛾子

沙黾农
2026-01-21 06:21:56
川普:英国“极度愚蠢”;马克龙:我不理解

川普:英国“极度愚蠢”;马克龙:我不理解

寰宇大观察
2026-01-20 16:16:27
警方通报:王某(女,35岁)冒充陕西省领导,称能办理公务员入职,受害人被骗424万元

警方通报:王某(女,35岁)冒充陕西省领导,称能办理公务员入职,受害人被骗424万元

极目新闻
2026-01-20 20:59:34
闷声干大事!汪小菲掌握实证,S妈主动示好和谈,堡垒要打破了

闷声干大事!汪小菲掌握实证,S妈主动示好和谈,堡垒要打破了

前行之路
2026-01-19 09:45:54
冬窗重磅!强援主动求投曼联,两个无解难题成死结

冬窗重磅!强援主动求投曼联,两个无解难题成死结

奶盖熊本熊
2026-01-21 04:01:16
一楼拒交电梯费被告上法庭,败诉后,这张缴费单成了整栋楼的噩梦

一楼拒交电梯费被告上法庭,败诉后,这张缴费单成了整栋楼的噩梦

垛垛糖
2026-01-17 20:25:21
蒙哥马利有多痴情?对寡妇贝蒂一见钟情,甘愿做她两个孩子的继父

蒙哥马利有多痴情?对寡妇贝蒂一见钟情,甘愿做她两个孩子的继父

饭小妹说历史
2026-01-17 09:12:37
只差1票!生涯最强的爱德华兹,全明星首发最大遗珠?

只差1票!生涯最强的爱德华兹,全明星首发最大遗珠?

篮球实录
2026-01-20 23:14:35
10秒!美国发明革命性人体三维全景成像!

10秒!美国发明革命性人体三维全景成像!

徐德文科学频道
2026-01-19 18:56:23
现场记者集体鼓掌!53岁安东尼奥站桌上怒吼:5战封神 玩弄越南队

现场记者集体鼓掌!53岁安东尼奥站桌上怒吼:5战封神 玩弄越南队

风过乡
2026-01-21 06:05:59
2026-01-21 08:12:49
机器学习与Python社区 incentive-icons
机器学习与Python社区
机器学习算法与Python
3245文章数 11082关注度
往期回顾 全部

科技要闻

走进车间,感受中国低轨卫星互联网“加速度”

头条要闻

加拿大总理:一些大国将经济一体化作为"武器"来使用

头条要闻

加拿大总理:一些大国将经济一体化作为"武器"来使用

体育要闻

勇士遭暴击!巴特勒重伤赛季报销

娱乐要闻

网红版闫学晶!600万粉博主阿爆翻车

财经要闻

李迅雷:2026买房不如租房

汽车要闻

奇瑞张贵兵:墨甲不做秀技术的企业 只做痛点终结者

态度原创

游戏
手机
家居
时尚
军事航空

1月XGP新增游戏公布!《死亡搁浅导剪版》等10款

手机要闻

2025国产手机激活量榜单出炉:vivo第一!小米力压苹果拿第二

家居要闻

隽永之章 清雅无尘

冬季不臃肿穿搭指南来了,奔五奔六照着穿,拿捏温暖与高级感

军事要闻

德军13人前脚刚走 荷兰2名军人也撤离格陵兰岛

无障碍浏览 进入关怀版