1月29日,清程极智在北京发布“AI Ping”一站式AI评测与API服务智能路由平台。未来图灵在现场获悉,该平台旨在解决大模型应用从“尝鲜”进入“深水区”后,开发者面临的海量API服务选型难、性能不稳定、成本优化复杂等核心工程挑战。
![]()
“海淀区聚集了全市八成的AI专家和全国近三成的AI2000顶尖学者。”中关村科学城管委会产业促进一处处长李楠在发布会致辞中指出。该区正在加快构建符合首都功能定位、彰显海淀特色的“1+X+1”现代化产业体系,其中首要的“1”即是建设人工智能产业高地。管委会支持像清程极智这样的企业,围绕产业共性需求开展协同探索。
中国工程院院士、清华大学教授郑纬民在演讲中明确提出了行业演进方向:“AI Infra(基础设施)的焦点正从‘智能的生产’转向‘智能的流通’。”他认为,实现智能流通的关键在于“智能路由”能力,即既能根据任务选择最合适模型的“模型路由”,也能在同一模型的多个服务商间进行优化调度的“服务路由”。
![]()
清程极智CEO汤雄超阐述了公司的产品布局逻辑。他表示,继服务于大模型训练的“八卦炉”和专注于高性价比推理部署的“赤兔”之后,面对爆发的AI应用,基础设施的“关键需求是智能路由”。“通过智能路由,我们可以为海量的业务请求找到最好、最快、最稳定、最便宜的大模型服务。”
![]()
阿里云政企行业咨询总监程晶在分享中将AI Ping的作用比喻为模型服务的“智慧红绿灯”。他认为,该平台有助于精准匹配资源、提升算力利用率并降低企业的“试错成本”。
AI Ping产品负责人师天麾博士在介绍中透露,平台已接入国内30余家主流服务商的超过500个大模型API。其核心能力是通过7x24小时持续探测,真实反映各API服务的延迟、稳定性、吞吐量等指标,并生成可视化的评测排行榜。“我们做过测试,即便是最大型的服务商,在提供相同模型、价格相近的情况下,性能差距可能高达五倍。”
平台提供的“智能路由”功能允许开发者设定对延迟、吞吐、成本等的具体需求。师天麾披露的数据显示,使用该路由服务后,相比直接调用模型原厂API,用户平均成本可降低37%以上,吞吐量提升90%以上,延迟降低20%。
发布会上,清程极智联合华清朴智AI孵化器发布了基于AI Ping真实调用数据的《2025大模型API服务行业分析报告》。报告指出,大模型API服务市场的竞争重点正从“价格差异”转向“交付质量”,响应速度已成为新的核心竞争力。一个反直觉的发现是:“官方渠道并不天然拥有性能最优”。
AI Ping的推出,标志着大模型产业链分工的进一步细化。在模型层(训练/微调)与应用层(智能体/垂直应用)之间,一个专注于“服务调度与质量保障”的中间层正在形成。该平台并不生产模型或算力,而是通过评测与路由优化模型服务的流通效率,其价值在于降低整个AI生态的交易摩擦与试错成本,成为支撑应用规模化落地的“管道”与“质检中心”。
在圆桌讨论环节,智谱首席架构师鄢兴雨、硅基流动创始人袁进辉等业界嘉宾一致认为,随着大模型应用深化,评测体系与智能路由能力正成为支撑规模化应用的新一代基础设施。郑纬民院士在早前的演讲中描绘了愿景:“用户只管说‘我要结果’,背后哪个模型、哪朵云、哪块硬件在干活,完全不用操心。AI将第一次实现电网级别的调度。”
![]()
清程极智在现场联合阿里云百炼、百度智能云、火山方舟、腾讯云、华为云、智谱AI等20余家服务商,共同启动了“智能、可持续大模型API服务生态计划”。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.