网易首页 > 网易号 > 正文 申请入驻

TensorRT-LLM: LLM API 精简指令畅享卓越性能!

0
分享至

NVIDIA TensorRT-LLM是一个专为优化大语言模型 (LLM) 推理而设计的库。它提供了多种先进的优化技术,包括自定义 Attention Kernel、Inflight Batching、Paged KV Caching、量化技术 (FP8、INT4 AWQ、INT8 SmoothQuant 等) 以及更多功能,确保您的 NVIDIA GPU 能发挥出卓越的推理性能。

我们深知您对易用性的需求,为了让您更快上手,并迅速实现流行模型的高性能推理,我们开发了 LLM API,通过简洁的指令,您可轻松体验 TensorRT-LLM 带来的卓越性能!

LLM API 是一个 high-level Python API,专为 LLM 推理工作流而设计。以下是一个展示如何使用 TinyLlama 的简单示例:

from tensorrt_llm import LLM, SamplingParams prompts = [    "Hello, my name is",    "The president of the United States is",    "The capital of France is",    "The future of AI is",]sampling_params = SamplingParams(temperature=0.8, top_p=0.95) llm = LLM(model="TinyLlama/TinyLlama-1.1B-Chat-v1.0") outputs = llm.generate(prompts, sampling_params) # Print the outputs.for output in outputs:    prompt = output.prompt    generated_text = output.outputs[0].text    print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")

希望以上示例能帮助您快速入门 NVIDIA TensorRT-LLM LLM API。

当前 TensorRT-LLM LLM API 可支持的模型

  • Llama (including variants Mistral, Mixtral, InternLM)
  • GPT (including variants Starcoder-1/2, Santacoder)
  • Gemma-1/2
  • Phi-1/2/3
  • ChatGLM (including variants glm-10b, chatglm, chatglm2, chatglm3, glm4)
  • QWen-1/1.5/2
  • Falcon
  • Baichuan-1/2
  • GPT-J
  • Mamba-1/2

一、详细介绍

1.1 模型准备

LLM class 可支持以下三种模型导入来源:

  • Hugging Face Hub:直接从 Hugging Face 模型库下载模型,例如 TinyLlama/TinyLlama-1.1B-Chat-v1.0。
  • 本地 Hugging Face 模型:使用已下载到本地的 Hugging Face 模型。
  • 本地 TensorRT-LLM 引擎:使用通过 trtllm-build 工具构建或由 Python LLM API 保存的 Engine。

您可以使用 LLM(model=) 构造函数来灵活切换这些格式。以下各节将详细介绍具体使用方法。

Hugging Face Hub

使用 Hugging Face Hub 来导入模型非常直观,只需在 LLM 构造函数中指定模型仓库名称即可:

llm = LLM(model="TinyLlama/TinyLlama-1.1B-Chat-v1.0")

本地 Hugging Face 模型

由于 Hugging Face 模型库的广泛应用,API 将 Hugging Face 格式作为主要输入来源之一。当您要使用 Llama 3.1 模型时,请通过以下命令从 Meta Llama 3.1 8B 模型页面下载模型:

git lfs installgit clone 

下载完成后,您可以通过以下方式加载模型:

llm = LLM(model=)

请注意,使用此模型需要遵守特定许可条款:

https://ai.meta.com/resources/models-and-libraries/llama-downloads/

在开始下载之前,请确保同意这些条款并在 Hugging Face 上完成身份验证:

https://huggingface.co/meta-llama/Meta-Llama-3-8B?clone=true

本地 TensorRT-LLM 引擎

LLM API 支持使用 TensorRT-LLM Engine,您可以通过以下两种方式构建 Engine:

  1. 您可使用 trtllm-build 工具从 Hugging Face 模型直接构建 TensorRT-LLM Engine,并将其保存到磁盘供后续使用。详细说明请参考 GitHub 上的README和 examples/llama 仓库。构建完成后,您可以这样加载模型:llm = LLM(model=)

  1. 或者,您可以使用 LLM instance 来创建 Engine 并保存到本地磁盘:

llm = LLM()
# Save engine to local disk
llm.save()

  1. 可以参考第一种方法使用 model 参数来加载 Engine。

1.2 使用技巧和故障排除

以下是针对熟悉 TensorRT-LLM 其他 API 的用户,在刚开始使用 LLM API 时可能遇到的常见问题及其解决方案:

  • RuntimeError: only rank 0 can start multi-node session, got 1

在使用 LLM API 进行单节点多 GPU 推理时,无需添加 mpirun 前缀。您可以直接运行 python llm_inference_distributed.py 来执行多 GPU 推理。

  • Slurm 节点上的挂起问题

在使用 Slurm 管理的节点上遇到挂起或其他问题时,请在启动脚本中添加前缀 mpirun -n 1 --oversubscribe --allow-run-as-root。

示例命令:

mpirun -n 1 --oversubscribe --allow-run-as-root python llm_inference_distributed.py

  • 在通讯器 MPI_COMM_WORLD 中,MPI_ABORT 在 rank 1 上被调用,错误代码为 1。

由于 LLM API 依赖 mpi4py 库,为避免 mpi4py 中的递归生成进程,请将 LLM 类放在函数中,并在 __main__ 命名空间下保护程序的主入口点。

注意:此限制仅适用于多 GPU 推理。

二、常见自定义操作

2.1 量化

TensorRT-LLM 可以通过在 LLM 实例中设置适当 Flags,自动对 Hugging Face 模型进行量化。例如,要执行 Int4 AWQ 量化,以下代码会触发模型量化。请参考完整的支持的标志列表和可接受的值。

from tensorrt_llm.llmapi import QuantConfig, QuantAlgoquant_config = QuantConfig(quant_algo=QuantAlgo.W4A16_AWQ)llm = LLM(, quant_config=quant_config)

2.2 采样

SamplingParams 可以自定义采样策略以控制 LLM 生成的响应,如 Beam Search、Temperature 和其他参数。

例如,要启用 Beam Size 为 4 的 Beam Search,请按如下方式设置 Sampling_Params:

from tensorrt_llm.llmapi import LLM, SamplingParams, BuildConfigbuild_config = BuildConfig()build_config.max_beam_width = 4llm = LLM(, build_config=build_config)# Let the LLM object generate text with the default sampling strategy, or# you can create a SamplingParams object as well with several fields set manuallysampling_params = SamplingParams(beam_width=4) # current limitation: beam_width should be equal to max_beam_widthfor output in llm.generate(, sampling_params=sampling_params):    print(output)

SamplingParams 管理并分发字段到 C++ classes,包括:

SamplingConfig:

https://nvidia.github.io/TensorRT-LLM/_cpp_gen/runtime.html#_CPPv4N12tensorrt_llm7runtime14SamplingConfigE

OutputConfig:

https://nvidia.github.io/TensorRT-LLM/_cpp_gen/executor.html#_CPPv4N12tensorrt_llm8executor12OutputConfigE

更多详情请参考class 文档

https://nvidia.github.io/TensorRT-LLM/llm-api/reference.html#tensorrt_llm.llmapi.SamplingParams

2.3 Build 配置

除了上述参数外,您还可以使用 build_config 类和从 trtllm-build CLI 借用的其他参数来自定义构建配置。这些构建配置选项为目标硬件和用例构建 Engine 提供了灵活性。请参考以下示例:

11m = LLM(,          build_config=Buildconfig(            max_num_tokens=4096,            max batch size=128,            max_beam_width=4))

更多详情请参考buildconfig 文档

https://github.com/NVIDIA/TensorRT-LLM/blob/main/tensorrt_llm/builder.py#L476-L509

2.4 自定义 Runtime

类似于 build_config,您也可以使用 runtime_config、peft_cache_config,或其他从 Executor API 借用的参数来自定义 Runtime 配置。这些 Runtime 配置选项在 KV cache management、GPU memory allocation 等方面提供了额外的灵活性。请参考以下示例:

from tensorrt_llm.llmapi import LLM, KvCacheConfigllm = LLM(,          kv_cache_config=KvCacheConfig(            free_gpu_memory_fraction=0.8))

2.5 自定义 Tokenizer

默认情况下,LLM API 使用 transformers 的 AutoTokenizer。您可以在创建 LLM 对象时传入自己的分词器来覆盖它。请参考以下示例:

llm=LLM(,tokenizer=)

LLM () 工作流将使用您的 tokenizer 。

也可以使用以下代码直接输入 token ID,由于未使用 Tokenizers,该代码生成的是不带文本的 token ID。

llm = LLM()for output in llm.generate([32, 12]):     ...

更多详细信息欢迎扫描下方二维码查阅以下详细文档。

TensorRT-LLM 安装指南及 LLM API 使用详细文档:https://nvidia.github.io/TensorRT-LLM/llm-api/index.html#

关于作者

严春伟

NVIDIA 性能架构师,目前主要聚焦于大模型推理架构和优化。

张国铭

NVIDIA 性能架构师,目前主要从事大模型推理架构和优化 。

Adam Zheng

NVIDIA 产品经理,负责 NVIDIA AI 平台软件产品管理,目前主要聚焦于大模型推理架构和优化。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
同样40场比赛雷霆取得33胜7负!73胜勇士和72胜公牛,战绩如何呢

同样40场比赛雷霆取得33胜7负!73胜勇士和72胜公牛,战绩如何呢

兵哥篮球故事
2026-01-13 12:44:40
分手14年,释小龙何洁境遇天差地别,一个身家过亿,一个养不起娃

分手14年,释小龙何洁境遇天差地别,一个身家过亿,一个养不起娃

查尔菲的笔记
2026-01-09 22:17:44
两个中国最“硬”的男人:一个给国家交税1400亿却家破人亡,一个喝掉2吨茅台把亏损厂干到万亿,这才是顶级狠人!

两个中国最“硬”的男人:一个给国家交税1400亿却家破人亡,一个喝掉2吨茅台把亏损厂干到万亿,这才是顶级狠人!

寄史言志
2026-01-09 18:47:15
媒体人:保利尼奥当年有大湾区退税政策,但看广州队没钱就没要

媒体人:保利尼奥当年有大湾区退税政策,但看广州队没钱就没要

懂球帝
2026-01-13 16:26:30
英媒推演美军如何夺取格陵兰岛

英媒推演美军如何夺取格陵兰岛

参考消息
2026-01-14 10:38:08
怪不得阿隆索下课!皇马内讧曝光:2亿巨星带头,跟主帅对着干

怪不得阿隆索下课!皇马内讧曝光:2亿巨星带头,跟主帅对着干

球场没跑道
2026-01-13 09:28:12
控卫盛世!美媒评本赛季五大控卫,库里仅第五,第一无争议!

控卫盛世!美媒评本赛季五大控卫,库里仅第五,第一无争议!

禾三千体育
2026-01-14 10:01:39
突传喜讯!已确认,是知名演员舒淇

突传喜讯!已确认,是知名演员舒淇

付老师种植技术团队
2026-01-13 16:55:14
冲着颜值和肉体,看完了这3部抓马的真人秀

冲着颜值和肉体,看完了这3部抓马的真人秀

来看美剧
2026-01-13 19:05:03
伊朗政府承认死了2000人,但反对派称:真正的数字是1.2万人

伊朗政府承认死了2000人,但反对派称:真正的数字是1.2万人

桂系007
2026-01-13 22:19:45
格陵兰发达到什么水平?我去了才发现,差距真的太大

格陵兰发达到什么水平?我去了才发现,差距真的太大

娱乐八卦木木子
2026-01-07 15:14:07
安德森拒绝曼联心向曼城!儿魔梦球员越来越少,新帝星或成大赢家

安德森拒绝曼联心向曼城!儿魔梦球员越来越少,新帝星或成大赢家

罗米的曼联博客
2026-01-14 10:59:00
3人缺席,2人出战成疑!祖巴茨脚踝受伤,哈登状态回暖主场战奇才

3人缺席,2人出战成疑!祖巴茨脚踝受伤,哈登状态回暖主场战奇才

一登侃球
2026-01-14 10:38:19
赖昌星发妻曾明娜现状:逃亡10年后回国,守着3000平老宅安静养老

赖昌星发妻曾明娜现状:逃亡10年后回国,守着3000平老宅安静养老

古书记史
2025-12-12 11:21:38
罗马诺:皇马告知阿韦洛亚,奖杯&和球员关系良好将会留任

罗马诺:皇马告知阿韦洛亚,奖杯&和球员关系良好将会留任

懂球帝
2026-01-14 08:10:12
中国五矿:9名干部被暂缓使用

中国五矿:9名干部被暂缓使用

南方都市报
2026-01-13 20:48:57
陪玩陪睡仅开胃菜,又一位内娱女演员曝"潜规则"原来岳云鹏没说错

陪玩陪睡仅开胃菜,又一位内娱女演员曝"潜规则"原来岳云鹏没说错

说历史的老牢
2026-01-13 10:05:03
5年,16亿!马斯克给了朱晓彤一份新合同。如果未来10年达成万亿薪酬目标,这份合同价值近100亿

5年,16亿!马斯克给了朱晓彤一份新合同。如果未来10年达成万亿薪酬目标,这份合同价值近100亿

问问马斯克AskMusk
2026-01-14 10:55:09
中国有源相控阵雷达真实水平:并非世界第一,和美差距有多大

中国有源相控阵雷达真实水平:并非世界第一,和美差距有多大

黑翼天使
2026-01-10 03:28:16
秦可卿为何不反抗公公贾珍?一个别称早已揭示了其中缘由

秦可卿为何不反抗公公贾珍?一个别称早已揭示了其中缘由

墨说古今
2025-12-24 00:17:05
2026-01-14 11:27:00
NVIDIA英伟达中国 incentive-icons
NVIDIA英伟达中国
英伟达(中国)官方账号
3362文章数 1437关注度
往期回顾 全部

科技要闻

美国批准英伟达H200卖给中国,但有条件

头条要闻

李在明谈中日韩三国合作重要性 高市早苗一句不提中国

头条要闻

李在明谈中日韩三国合作重要性 高市早苗一句不提中国

体育要闻

牛津学霸买下儿时主队,让它成为英超黑马

娱乐要闻

何晴去世30天,许亚军终于发声

财经要闻

"死了么"App爆火:流量来了 困境未解

汽车要闻

限时9.99万元起 2026款启辰大V DD-i虎鲸上市

态度原创

旅游
亲子
本地
艺术
军事航空

旅游要闻

新场景新消费丨来荣成打卡地标美食+民宿 宝藏小城配套“上新”啦!

亲子要闻

农村的孩子早当家,5岁宝宝给全家做饭,看他做得怎么样

本地新闻

云游内蒙|到巴彦淖尔去,赴一场塞上江南的邀约

艺术要闻

八大山人『山水花鸟册』

军事要闻

美再发安全警告 敦促美公民立即离开伊朗

无障碍浏览 进入关怀版