![]()
4月21日至22日,以“奔赴AGI 重塑未来”为主题的2026中国生成式AI大会(北京站)圆满举行。
这场大会集结73位产学研投嘉宾,通过1场开幕式、3场专题论坛、6场技术研讨会,全景式解析AI产业的产业脉络、创新范式、Token经济与中国机会。
议题跨度很大,从大语言模型、多模态模型、世界模型、智能体、AI眼镜等前沿模型与应用,到数据、芯片、存储、通信、云服务等基础设施。
在这场信息密度超高的大会上,清程极智的联合创始人师天麾带来了题为《AI Ping:构建Agent时代的高质量Token流通网络》的主题演讲。
师天麾指出,Token行业虽火,但用户在选择服务商时却面临诸多“暗坑”:同一模型在不同服务商的效果可能天差地别。由于缓存命中率不透明,表面便宜的服务商实际用起来反而更贵。此外,各服务商的服务质量普遍下滑,中小客户毫无保障。当开发者和企业热衷于调用大模型API时,却往往忽略了服务商背后的技术黑盒。
要让Token流通网络变得高质量、高性价比,光有模型远远不够,还需要“公平的评测”与“智能路由”。基于对30多家服务商、600多个模型服务的7×24小时真实用户视角端到端评测,清程极智正式推出AI Ping平台——一个面向大模型使用者的全面、客观、真实的评测与智能路由平台。
它具备两大核心能力:多维度服务指标的透明汇总,以及基于实时评测数据的动态智能路由。
以下是演讲实录:
一、Agent时代的高质量Token流通,从打破黑盒开始
各位领导、嘉宾和开发者们,大家上午好。我是清程极智的联合创始人、产品副总裁师天麾。很荣幸今天能为大家带来分享:AI Ping——构建Agent时代的高质量Token流通网络。
![]()
Token相信无需我过多介绍了,其应用热度持续攀升,尤其是在“小龙虾”走红之后。如今,越来越多的人使用Token来辅助编写代码、撰写文案、生成图片与视频。用户的Token通常来源于模型原厂、第三方MaaS服务商或云服务商。
根据我们的调研,用户在选择从哪家服务商买Token时,主要考虑以下指标:模型效果、Token价格、服务性能和稳定性。
实际上,购买Token存在很多坑。举几个简单例子:对于同一模型,若在不同服务商处购买且价格相同,可能出现以下情况:第一,不同服务商提供的同一模型,其实际效果不尽相同;第二,尽管价格相同,最终使用成本却明显不同;第三,各服务商的服务质量可能存在巨大差异。
二、“暗坑”实测:从隐形降级到又贵又慢,Token行业乱在哪?
Token业务相较于传统云服务尚属新兴领域,但其发展速度极快,由此引发一个问题:Token行业目前相当混乱。在此仅列举两个可公开讨论的案例。
案例一:针对同一模型,部分服务商提供的模型能力明显偏弱。此前有客户计划采购一个新模型,我们接入了多家服务商进行评测,发现某些服务商的模型能力存在显著问题。经询问,对方承认使用了INT4量化。从报价表上看不出任何异常——模型名称、输出长度、上下文长度等参数均与官方完全一致,价格也极具竞争力。然而客户实际使用后,发现模型效果非常差。
案例二:同一模型的两家服务商,一家报价较高,另一家较低。但实际使用后发现,报价较高的那家总成本反而更低,其根本原因在于缓存命中率不同。然而服务商并不会提前告知客户这一信息,面对几十家服务商,客户也无法逐一测试。
AI Ping团队对国内三十多家服务商的数百个模型服务进行了测试,这些服务商涵盖模型厂商、互联网大厂、云上市公司以及MaaS厂商。以下简要展示部分匿名数据。
在模型接口支持方面,目前市面上主流接口有数种,其中使用最多的是OpenAI和Anthropic接口。各服务商对OpenAI接口的支持普遍较好,但在编程场景中广泛使用的Anthropic接口,各家支持程度差异明显,这会对客户的使用产生显著影响。
![]()
一般而言,随着行业发展,服务质量应逐步提升。然而在服务质量方面,我们观察到近期各家服务商的服务质量相比去年底明显下降。除大客户外,各服务商并不为中小客户提供质量保证。例如,一次请求正常情况下应在三到五秒内返回首Token,但实际上三十秒、一百秒甚至几百秒才返回的情况非常普遍。我们将此类服务质量异常现象称为“慢响应”。数据显示,部分服务质量较差的厂商,其20%的请求存在明显的性能问题;而服务质量较高的厂商可将该比例控制在2%以内。
![]()
缓存命中率是一项对总成本影响显著的指标。各家服务商因技术路径不同,缓存命中率差异较大。在当前Token消耗量较大的场景(如大语言模型应用、编程辅助等)中,理想情况下缓存命中率可达80%至90%。命中缓存时,其价格仅为原输入价格的10%至20%,极为低廉。
![]()
部分优质服务商的缓存命中率可超过80%,在本展示中名列前茅;而一些较差的服务商,其缓存机制几乎形同虚设。由此便会出现这样一种情况:某家服务商提供的折扣力度较大,表面价格便宜,但实际使用后总成本反而更高。然而,缓存命中率这一关键指标并未出现在服务商的报价单中,客户也无从得知,更不可能逐一测试数十家服务商的命中率。
此外,在接入服务商的过程中还存在一些常见问题。
![]()
在过去一年中,基于对数十家服务商的数百个大模型API服务的评测,以及用户对AI Ping的大量使用,我们积累了大量评测数据。今年年初,我们与华清普智AI孵化器共同撰写了《大模型API服务行业分析报告》。该报告包含了去年的评测数据,感兴趣的朋友可在我们官网下载完整报告。
![]()
我们认为,通过调用大模型API服务获取Token的这种形式非常适合中国。原因是,在供给侧,中国拥有世界上最繁荣的开源大模型生态,DeepSeek、千问、GLM、Kimi、MiniMax等众多优秀的大模型厂商将其模型开源。正是基于这些开源模型,许多云厂商得以部署并对外提供API服务,供开发者和AI企业使用。
同时,中国AI算力近年来呈现爆发式增长,为部署大模型并提供API服务提供了充足的算力基础。在需求侧,大模型API服务具备低成本、低门槛等优势,因此通过该服务使用AI的用户日益增多,涵盖企业、个人开发者、科研人员以及普通消费者(例如使用大模型辅助编程、文案创作等)。由此可见,Token在中国呈现需求旺盛、蓬勃发展的态势。
![]()
可以用几个关键词来概括中国Token行业的现状:
首先是“火”,即大模型应用的热度持续高涨。行业的火爆也引发了一系列问题,最直接的表现是Token供不应求,直观上就是又贵又慢。与此同时,由于Token服务是一个黑盒,除非服务商百分百坦诚相告,或者客户自身具备极强的评测能力,否则客户根本无法知晓服务商实际提供了何种质量的服务,比如是否使用了量化模型甚至更小的模型以次充好。总体而言,整个行业发展迅速,但同时也较为混乱。
那么,在使用Token时,该如何选择一家合适的服务商呢?
![]()
首先,在供给侧,中国拥有大量的大模型API服务商。对于同一个大模型服务而言,各服务商之间的指标可能存在巨大差异,其中服务性能指标的差异尤为显著。我们曾进行过测试,在那些大型服务商(如大型互联网云厂商、电信运营商)中,当提供相同的模型服务且价格相近时,各家的大模型服务性能可能相差五倍甚至更多。当然,并非性能越高就一定越好,也并非价格越低就一定越好。服务商各具特色,符合用户需求的服务才是好服务。
那么,用户到底需要什么样的服务?在需求侧,用户的需求也各不相同。企业要求服务稳定、性能有保证;个人开发者可能对性能要求不那么高,不严重影响使用即可,但希望价格尽量便宜;科研人员通常需要服务商提供尽可能多的模型,以便进行对比实验。服务商的大模型服务各具特色,不同用户的需求也各不相同,那么如何实现供需匹配?或者说,面对众多服务商,对于同一个模型,用户究竟该选择哪一家?
三、当模型性能相差五倍,开发者该如何选择?
总结以上这些痛点,我们团队始终在思考:开发者到底需要什么样的大模型API产品?为了简化用户的选型流程,降低AI应用的开发门槛和成本,我们规划了以下路径。
第一步,需要一个统一平台,汇聚大量模型,用户可以查看和使用不同模型。有了这些模型之后,该如何选择?不能凭感觉随意决定。第二步,以数据评测为驱动,为用户的选择提供科学标尺,用数据说话。第三步,基于评测数据提供进一步的服务,智能路由可以帮助用户选择模型和服务商,省去用户自行选型的繁琐过程。终极目标是提供统一接口,用户直接发送请求,平台根据用户需求匹配最合适的模型与服务商,用户直接获得AI生成结果。
四、AI Ping:用透明评测与智能路由打破黑盒,成本直降37%,吞吐提升90%
基于前述观察和行业痛点,我们为市场推出了AI Ping——一个面向大模型使用者的全面、客观、真实的信息汇总、AI评测及API服务智能路由平台。
![]()
AI Ping平台具备三大核心优势。第一是信息汇总,AI Ping目前已接入30家服务商和600多个大模型API服务,用户可以非常方便地选择、对比和使用不同的大模型及服务商。第二,AI Ping对这些大模型API服务进行7×24小时不间断评测,真实反映各项服务指标的长期表现。第三,AI Ping通过智能路由,根据用户需求动态调用最合适的大模型API服务。
![]()
目前,AI Ping已全面聚合主流的大模型及服务商。在模型方面,AI Ping已接入600多个大模型服务,涵盖文本、图片、视频等多种模态,以及开源与闭源模型,主流模型在AI Ping上基本均可找到。同时,平台还接入了30多家服务商,不仅包括大家熟知的头部云厂商,也囊括了一些知名度相对较低、但拥有高质量与高性价比服务的服务商。
![]()
在接入这些服务商的大模型API服务后,AI Ping对它们进行了科学的长期评测。我们的评测具有以下特点。
首先,我们从真实用户视角出发,对这些大模型API服务进行端到端测试。许多服务商在宣传时会强调自己拥有庞大的算力集群和强大的并发性能,但用户对此并不十分在意,因为这些资源并非为单一用户服务。用户真正关心的是自己实际获得了怎样的端到端服务质量。AI Ping以用户身份进行端到端评测,这样的评测结果对用户而言更具参考价值。
其次,针对同一模型的不同服务商,我们在同一轮测试中使用相同的输入prompt和参数,并在同一时间段内进行测试,以保证公平性。同时,为避免缓存带来的影响,不同轮次测试之间的输入prompt会动态变化。此外,我们并非进行一次性跑分测试,而是7×24小时持续监测,并采用北京、上海、深圳、成都等多地服务器进行分布式测试。
为了验证评测的准确性,我们还与提供后台监控数据的互联网云厂商进行了交叉验证。一些服务商也反馈认为我们的评测结果准确,并据此督促自己的Infra团队提升性能,这些都能说明我们的评测具有较高的准确性。
在我们的网站首页,会展示多个热门模型下各服务商的吞吐-延迟坐标图。该坐标图汇总了近7天的数据,并每日更新。图中每个点代表一个服务商的延迟与吞吐性能:横轴为吞吐,越靠右侧表示吞吐越高;纵轴为延迟,越靠上侧表示延迟越低。位于图中右上区域的,即是该模型下低延迟、高吞吐的服务商。
![]()
在每个模型的详情页面下方,我们还会汇总各个服务商在七天内评测指标随时间变化的波动图。数据每六小时更新一次,用户可以非常清晰地观察到不同服务商在不同时间段的服务指标表现。
![]()
针对用户关心的大模型服务指标,AI Ping进行了全面汇总。对于上下文长度、最大输入输出长度、价格等基本指标,服务商通常会提供,但有时存在误差,AI Ping对此类指标进行了全面评测并加以汇总。而对于延迟、吞吐、可靠性、模型精度等指标,服务商基本不予提供,AI Ping同样进行了全面评测和汇总。
![]()
在每个模型的详情界面,用户可以看到类似示例表格的服务指标信息汇总,内容涵盖上述各项指标,清晰展示各服务商的大模型API服务信息与评测数据。
同时,AI Ping还提供了筛选与排序功能,以满足用户的特定需求。例如,用户可以筛选指定价格范围内的所有服务商,并将其按照输出吞吐从高到低排序。借助这些评测信息,用户能够方便地选择合适的模型与服务商。
![]()
那么,如何进一步帮助用户省去繁琐的选型步骤?这就要依靠AI Ping的智能路由功能。
![]()
如果固定选择一家服务商,很难长期获得最高性价比的服务,因为任何一家服务商的服务质量都会随时间变化。它当前可能满足用户对延迟、吞吐等指标的要求,但过一段时间就可能不再满足。同时,请求失败、长时间排队、未知错误等情况也会影响用户获得的服务质量。因此,AI Ping为用户提供了服务路由功能,帮助用户将请求发送给当前最能满足其需求的、性价比最高的服务商。
![]()
AI Ping根据服务商的实时评测和指标收集进行建模,并通过路由算法,将每一条请求动态分配给稳定、高性能、高性价比的服务商,从而减少服务波动和请求失败,提升用户体验。在智能路由这一环节,我们投入了大量的工程工作,克服了诸多难题。数十家供应商、数百个API服务,接口不一致、错误表现不一致、未知错误五花八门,但这些最终都在智能路由层被屏蔽掉。我们希望将复杂的工程问题交由AI Ping解决,把稳定可靠的体验、低门槛的使用方式以及高性价比的服务,真正带给AI Ping的用户。
使用智能路由的方法也十分简便。在AI Ping网站的每个模型详情界面中,用户可以描述自己对大模型服务指标的具体需求,并选择相应的服务路由策略。例如,要求服务延迟在3秒以内、吞吐达到40TPS以上,同时选择成本优先的路由策略。网页会自动生成一段描述该指标需求及路由策略的代码,用户将代码拷贝到自己的项目中并调用AI Ping,即可便捷地使用AI Ping的服务路由功能。
以上是AI Ping智能路由在高可用性和高性价比方面的效果展示。在性价比方面,AI Ping提供了多种路由策略供用户选择,包括默认策略、成本优先策略和性能优先策略,我们最为推荐的是默认策略。使用服务路由后,相较于直接调用模型原厂的大模型API服务,用户平均成本降低37%以上,吞吐量提升90%以上,延迟降低20%以上。
以上是我们对中国Token行业现状的观察以及对AI Ping产品的介绍。欢迎大家今后在使用AI、使用Token时,来AI Ping查阅评测结果并使用路由功能。也请大家关注清程极智公众号,及时了解AI Ping及其他清程极智产品的最新进展。谢谢大家!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.