“词元崛起”系列报道
日均140万亿次的Token调用量,见证AI应用的井喷式爆发,也勾勒出中国词元经济的强劲脉动。
什么是“词元”?词元经济是什么?它正如何改变我们的工作和生活?南都大数据研究院推出“词元崛起”系列报道,从科普解码到趋势剖析,从落地实践到风险预警,更聚焦广东如何凭算力底座与生态优势抢占先机,拆解词元经济的底层逻辑,探寻其发展中的机遇与挑战,与您一同读懂这一重塑未来的新经济力量。
第一期,一文读懂AI处理信息的基本单位“词元”。
超140万亿——这是到今年3月,我国的日均Token调用量。而我们让AI翻译的每一句话,写的每一份周报,修的每一张图片,乃至向AI的每一次吐槽,都在为这个天文数字“添砖加瓦”。
国家数据局局长刘烈宏指出,词元不仅是智能时代的价值锚点,更是连接技术供给与商业需求的“结算单位”。Token(词元)到底是什么?它和AI有什么关系?又为什么被看作智能社会的重要基础资源与核心生产要素?南都大数据研究院带你读懂。
![]()
AI世界的最小“信息块”
首先需要区分的是,Token在不同领域被赋予了不同的使命,由此衍生出不一样的叫法。在区块链领域,Token常被译为“代币、通证”,强调其价值载体、流通凭证的属性;在网络安全领域,Token则常被译为“令牌、记号、标记”,指用于验证身份、传递权限的标识符号。
最近爆火的“词元”,是人工智能领域名词Token的中文名。根据由全国数据标准化技术委员会归口的《数据 基础术语》国家标准(征求意见稿),词元(Token)的定义是:人工智能领域智能设备中信息存储、处理和交换的具有一定语义的基本符号表达。在大模型中作为模型处理和交换信息的最小单位,具有可计量、可定价、可交易的特征。
如何理解这一定义?我们要先理解AI如何“读懂”人类的话。
语言文字对于人类而言,本身携带意义,但对于大模型来说,文字只是符号,要让大模型处理语言,就必须先把这些文字符号转成数字编号。词元就是这个过程中最关键的基础单位。
当我们向AI输入一段指令,大模型通过分词器(Tokenizer)将字句拆分为小块,也就是词元(Token),再赋予对应的数字编号(Token ID),AI模型内部就可以根据训练数据集和设计算法,分析理解Token的含义、Token之间的关系,进而推测我们想要表达的意思。然后,AI会生成一串新的Token,再经由分词器还原回人类能够理解的语言进行输出。
比如,当我们问AI“Token的中文名是什么”时,大模型可能会先将它拆分为[Token/的/中文名/是/什么]5个词元,再根据它们分别对应的数字编号进一步推理计算,最后给出我们“词元”的回答。
![]()
同理,我们输入的图像、音视频等多模态,在AI大模型眼里也和文字没有差别,它们都要经由分词器变成数字,都遵循着“把输入的信息切成小块→给每个词元编号→进行计算(模型推理)→生成新编号→再还原成信息输出”的流程。简而言之,技术上,词元就是将人类自然语言进行切分,变成让AI能够理解处理的“语言”的最小单元。
这也就不难理解,为什么“养龙虾”开始风靡后,Token消耗量呈几何级数增长。因为对于AI Agent(智能体)而言,“整理文档”“收发邮件”等看似简单的任务,往往都需要拆分成多个指令,调用数十次乃至上百次大模型推理,而每一次交互背后都要生成与消耗大量Token。
值得一提的是,虽然Token的中文译名是“词元”,但它并不单纯与字词(Word)一一对应,Token既可能是人类语言意义上的短语、单词,也可能是词根、词缀、子词或单个字、标点符号,又或者是图像块、语音片段,我们不能把Token简单换算成“多少个字”或者“多少个词”。
语言、上下文、大模型分词算法和训练语料的不同,可能都会对具体的“拆法”带来区别,导致算出来的Token数相差几倍。比如,“人工智能”一词可能整体被视为一个Token,但如果分词器词表中没有“人工智能”这个整体词,也可能会被拆成“人工”“智能”两个Token;而“artificial intelligence”这个英文短语,则可能被不同的大模型切分为2到4个Token。
![]()
一般而言,算法会优先将高频出现的字符组合保留为一个整体,以提高效率。例如,一个2字常用词“中国”可能只占1个Token,而一个罕见单字却可能需要两个Token。另据Open AI官网,1个Token约对应4个英文字符或0.75个英文单词,而非英文文本通常比英文文本消耗更多Token。
衡量AI算力成本的“计价器”
每一次AI服务调用都对应明确的词元消耗,处理的词元越多,就需要进行更多的计算,消耗更多算力成本,正是词元这种“可计量、可定价、可交易”的特征,使得大多数AI付费服务的费用,能够按照消耗Token数量进行计算。
也就是说,词元不仅是大模型处理信息的最小单位,更是AI算力成本计费的统一度量衡,是连接技术供给与商业需求的结算单位。词元之于AI,如同“度”之于电力,“流量(GB)”之于互联网,词元消耗量越大,意味着AI服务被使用越频繁、产业商业化程度越高。对于普通用户而言,了解Token计费规则,可以让你的“数字员工”“AI搭子”成本更可控。
目前,大多数大模型API的计费方式是:总费用=输入Token数×输入单价+输出Token数×输出单价。
不同模型的价格不同。一般来说,模型越强大、能力越强,Token单价越贵。以Open AI的GPT-5.4为例,其标准版每百万Token的输入价格是经济版nano的12.5倍,输出价格则为12倍。同一个模型输入和输出的Token单价也存在差异,一般输出价格更贵,这主要是由于输出需要更多计算资源。
当然,不同公司的大模型服务定价策略实际更为复杂,除了模型的类型、能力外,还会受到模型的成本、受众以及公司的定位与商业模式等多重影响。
就每百万Token输出价格来看,目前,中国模型普遍在0.42到3.6美元之间,性价比较高;而Open AI的GPT-5.4是15美元,Google的Gemini 3.1 Pro则根据提示词(prompt)长度不同分为12美元和18美元两个价格,Anthropic于近日发布的最新模型Claude Opus 4.7则定价为25美元。
驱动智能社会的“基础资源”
回到根本,词元不会凭空产生,它是由高性能的GPU在消耗大量电能、完成数千亿次推理运算后产生的数字资产。每一个词元的生成,都对应着算力运转和电力消耗,而这背后的物理存在形式,正是数据中心。
由此可见,词元正是串联起数据、算法(智力)、算力三大核心要素的关键枢纽,不应仅被简单看作AI算力成本的计费单位。当下,围绕词元的生产、交换、分配与消费,一套新的价值体系正在加速演进形成,并成为人工智能产业发展的重要路径。
在英伟达GTC大会的演讲中,英伟达CEO黄仁勋提出,AI行业竞争已从“大模型时代”发展到“词元产能”时代,未来的数据中心将不再是存储文件的仓库,而是“生产Token的工厂”,每瓦特电力的Token吞吐量(能效)会成为决定其竞争力与营收的核心指标。而词元则是AI时代的“新大宗商品”“硬通货”,未来将根据速度和智能程度分层定价,为推理场景打开更广阔的商业化空间。
以数字化为核心的新基建正在成为全球各国争相布局的战略高地。2026年,我国政府工作报告首次明确提出“打造智能经济新形态”,并将“超大规模智算集群、算电协同等新基建工程”纳入重点任务。而电力与算力的协同效率,正是词元生产、调用、分发的核心成本锚点。
可以说,如同水、电一样,词元正成为驱动智能时代社会运转的重要基础资源、核心生产要素,推动AI服务实现可精确计量、可持续调度、大规模交易,与我们的生活工作、企业的长远发展,乃至一个国家的竞争力都息息相关。
出品:南都大数据研究院
文字:南都研究员 唐静怡
设计:原毅 何欣
资料来源:国家数据局、中国科学院、科普中国网、艾媒咨询、公开媒体报道等
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.