恭喜“全球大模型第一股”智谱,今天正式登录港交所。
截至收盘,上涨 13.17%,市值 578 亿港币(说实话,低了)。
![]()
看着智谱上市,有一种难以言说的感觉。就是那种好像看着自己一个熟悉的朋友,今天终于站上了更大的舞台,由衷地替他高兴。
就好像朋友@黄啊码的评论:深度参与某大模型公司业务并促成其上市。而 GLM,就是那个大模型。
![]()
因为认识智谱的很多人,知道今天这一切来之不易。
从技术积累到底层模型,从 Chat 产品到 Coding Plan,从智谱清言到 Z.ai,再到今天的资本化,每一步都走得不易。
某种程度上,智谱上市也不只是他自己的节点,更像是整个中国大模型产业的一次阶段性确认:不是 PPT,不是 AGI 口号,也不是流量,而是终于有团队把这件事,做成了一家可以被公开市场定价的公司。
也包括,明天即将登录港交所的MiniMax。
接下来会有波动,会被质疑,也会被拿放大镜反复审视。
但这,大概是一个真正长期故事的开始。
今天,智谱 Z.ai 负责人李子玄发了篇推文《Z.ai 2025: Fueling the Path to AGI》,分享了他们去年做 Z.ai 的心路历程,看完感触良多,特别想分享给大家。
![]()
全文要点有:
1、上市不是终点,甚至不是一个特别重要的节点。它只是意味着我们在通向 AGI 的路上又加了一次油。
2、很多看起来“突然”的成功,背后都是漫长的积累和无数个不被看见的夜晚。(这点深有感触)
3、与其做一个所有人都觉得“还行”的产品,不如做一个一部分人觉得“真好”的产品。
4、真诚是必杀技,在别人需要你的时候,你在那里就行。
5、模型即产品,不是套一层 UI,而是让模型能力和用户体验真正咬合。
6、API 的 To C 化是一种被低估的商业模式创新,GLM Coding Plan 首次尝试将 LLM API 推向个人用户。
7、Z.ai 坚持游客也能享用旗舰模型,哪怕这意味着无法追踪用户行为,但这能够换来信任。
8、作为一家模型公司,真正能够带来质变的,只有模型本身。
9、Z.ai 和 Coding plan 一开始都是副项目,但后来成了主业。
10、早期,智谱经历了品牌碎片化,在品牌、实验室名、开源仓库名上分散与不统一,这也是许多技术出身团队在全球化过程中经常容易出现的问题。
以下,是推文全文(AI翻译+人工校对)。
如果你英文阅读能力不错,建议优先看英文:
https://x.com/ZixuanLi_/status/2009083001716560209
中文版《Z.ai来时路》:
https://zhipu-ai.feishu.cn/wiki/V6l0wNGMZiVIlaksEs3cxykBnZg
在 Z.ai 上市之际,我想认真地写一写这一年我们经历的艰难与成长,讲述 2025 年 Z.ai 在品牌、产品和商业上的真实故事,包括那些外人看不到的挣扎,也包括我们是如何一步步走到今天的。
品牌
在很多人眼里,Z.ai 和 GLM 似乎是今年下半年突然冒出来的。但实际上,我们是世界上最早探索 LLM 的团队之一。
早在 2020 年、2021 年,我们就提出了自己的 LLM 算法架构 GLM,并开始尝试训练数十亿参数的基座模型。2022 年,这些成果登上了 ACL,影响广泛。2023 年,我们发布了几款 ChatGLM 模型,即便在 GLM-4.5、4.6 和 4.7 发布后,这些模型在 Hugging Face 上仍然保持着最多点赞和下载的记录。
![]()
但我们的全球品牌,一直没有真正建立起来。
问题出在哪里?首先是品牌的碎片化。我们的中文名在英文中翻译为 Zhipu,开源仓库叫 THUDM,实验室叫 THUKEG,社交媒体账号又叫 ChatGLM,好像哪也不挨着哪。再加上,我们有五彩斑斓的 Logo 图案和配色,缺乏统一的视觉语言。
其次,我们过去更关注学术影响力,对媒体和商业传播投入甚少。今年 4 月我接管官方 X 账号时,粉丝只有 2000 人。
Z.ai 这个名字,最初更像是一个面向全球市场的 Side Project(副项目)。
我们结合 Zhipu 首字母的 Z 和 ai,买下了 z.ai 这个域名。之所以加一个点、让 ai 小写,有两个小心思:一是它在富文本中天然会被渲染成链接;二是想激发好奇心,让人忍不住试试这是不是真的能打开。
当时我也没想好 Z.ai 会走向何方,所以开玩笑说:大部分打开 z.ai 的人,一定是从 a.ai、b.ai 这么一路试过来的。
但有一点我很确定:这个名字有更高的上限。 它足够简洁,又不失创意,能承载更大的想象空间。
去年4 月 14 日,Z.ai 域名正式上线,同一天我们发布了几款 9B 和 32B 的模型,标志着 Z.ai 计划的正式启动。那篇推文获得了 40K 的浏览量,放在今天不算什么,但对于当时只有 2000 粉丝的账号来说,已经是历史第二高了。
![]()
很少有人知道,把这个品牌真正做起来有多难。
对内,我们需要持续进行品牌收束:从多个主体代号、多条模型序列、多套 Logo,逐渐收敛到 Z.ai 和 GLM 这两个核心符号上。设计语言上,我们把偏学术的配色逐渐替换成更克制、更有高级感的极简风格。
对外,我们需要从籍籍无名,一步步登上主流牌桌。
说实话,GLM-4.5 发布那天,我们几乎是人工把 GLM 和 Z.ai 这两个品牌“一个个地送到”可能关注它的人面前。那天晚上,我从 10 点发到第二天早上 8 点。凌晨 4 点的时候,咖啡已经喝完了,我盯着屏幕上一个陌生的 ID 问"GLM 支持 function calling 吗",突然意识到,真的有人在认真看我们了。
不是什么高明的策略,就是最笨的办法。但有时候,最笨的办法就是最有效的办法。
我一直相信,真诚是必杀技。
很多人问我怎么把这些事情做成,我的回答很简单:在别人需要你的时候,你在那里就行。
但这确实不简单,尤其是做全球化业务。时差意味着你需要在别人的白天保持响应,文化差异意味着你需要理解不同市场的语境,而资源有限意味着你没有试错的余地。
所幸,一个人走得快,一群人走得远。
2025 年最让我感恩的,是我们找到了一批同行者。他们有的热爱 GLM,有的集成 GLM,有的评测 GLM。是这些合作伙伴让后续的工作变得更加顺畅,也是他们一如既往地推动着我们前进。
Z.ai 是一家模型公司,但从来不只是一家模型公司。
我们有独特的人,独特的品味,以及独特的文化。希望这些,能够在今后更多地传递给大家。
2025 年,我们为 Z.ai 和 GLM 打下了品牌基础。
2026 年,我希望我们能更多地出现在国际主流舞台,深化开源生态,并持续为社会的人工智能做出贡献。
产品
最近流行讲 Side Project 逆袭的故事。Z.ai 也始于一个Side Project。
上线当天,有超过 1 万人在 Z.ai 上对话。但随后几周,我们没有做任何动作,没有 Marketing,没有产品更新,我当时的主业也不是这个。用户数一路下滑,到 5 月 17 日跌到了 600 多。
但我始终相信,Z.ai 的上限远不止于此。
5 月底,我争取到了把更多精力投入 Z.ai 的机会。我们构建了首个引人注目的功能——AI Slides,并开始进行社区推广和 Marketing。
AI Slides 由 GLM-4.5-Air 的早期版本 GLM-Experimental 驱动。
在这个功能上,我们深度践行了“模型即产品”的理念:根据用户理想中的行为轨迹构建训练数据,再将这种轨迹以产品化的交互呈现出来。这不只是套一层 UI,而是让模型能力和用户体验真正咬合在一起。
![]()
7 月 9 日,AI Slides 正式发布(见我们)。这一尝试小获成功,以至于当时很多人以为 Z.ai 就是一个做 PPT 的工具。
![]()
凭借 AI Slides 的势能,我们在 GLM-4.5 发布前将日活恢复到 10,000 以上。
但作为一家模型公司,真正能带来质变的,只有模型本身。
GLM-4.5 发布后,Z.ai Chat 迎来全面爆发。得益于模型整体能力和多语言水平的提升,我们的留存率有了显著提高。比如:GLM-4.5 发布前,挪威用户的次日留存只有 9%;发布后,一下提升到了 27%。
到 GLM-4.7 发布时,我们已经实现了 100 倍的增长。
在这个过程中,我们始终坚持这几条原则:
极简主义:不是所有人都喜欢极简,但我们希望把交互做到干净清爽,让喜欢的人特别喜欢。与其做一个所有人都觉得“还行”的产品,不如做一个一部分人觉得“真好”的产品。
原汁原味:Z.ai Chat 代表的就是模型本身的能力。除了像 AI Slides、Full-Stack Development(全栈开发)等定制场景,默认情况下我们没有添加任何系统提示词,也没有做任何工程上的意图识别或 Workflow 处理。我们希望用户喜欢 Z.ai Chat 的体验,就能放心地使用 API 和开源版本,二者是一致的。
核心能力:经常有朋友问我:用户有 ChatGPT 和 DeepSeek,为什么还要用你们?我想,最好的回应不是解释,而是在实用场景中打造 Top 级的解决方案。我们正在把 AI Slides、Full-Stack Development、视觉理解等能力打造成有差异化、有护城河的产品。
低使用门槛:我们当然在意用户留存,但比起留下用户,我们更在意他们在平台上是否开心、是否满足了自己的需求。因此,我一直坚持 Z.ai Chat 在游客状态也能使用旗舰模型。我们或许永远不知道这些用户是谁,但我们一定是最能满足他们使用诉求的那个产品。
商业
GLM-4.5 上线前,整个 api.z.ai 站点每天的收入不到 $5。
你没看错,就这么多。当时我们的全球 API 站点几乎处于无人维护的状态,就只是放在那里。
所以当 OpenRouter 第一次收录我们模型的时候,我们内部庆祝得像过节了一样。
![]()
GLM-4.5 发布后,用量有了明显好转,但问题仍然存在:
低粘性:用户访问不稳定。经常要了很高的 Rate Limit,用一阵子就突然切走,给我们的成本管理带来很大挑战。
竞争激烈:全球有很多Inference Provider(模型服务商),即使大家认可 GLM,我们也要和其他厂商竞争。他们通常在国际市场上有更低的价格、更成熟的客户关系。
距离感:大多数 GLM API 集成来自 OpenRouter 等平台。我们无法直接与终端用户连接。
转折点,是 GLM Coding Plan。
这是一个诞生于 GLM-4.5 和 GLM-4.6 之间、承上启下的新商业模式。
在讲 Coding Plan 之前,我想先分享一个小插曲。
GLM-4.6 发布前,我们的 X 账号被攻击盗号了一次。那个黑客给账号设了一个双重验证,把我们锁在了外面。发布迫在眉睫,我们在 12 个小时内惊险召回了账号。那是一段非常紧张的经历,也让我们更加重视安全问题。
现在,回到 Coding Plan。我不会说这种商业模式是我们首创的,同一时期已经有 Cerebras Code 在做类似的尝试。但 GLM Coding Plan 确实是模型厂商第一次系统性地进行这种探索,后来也有不少同行推出了类似的产品,这让我们感到很欣慰,说明这个方向是对的。
关于命名还有个小故事。Coding Plan 原本要叫 Dev Pack,还有人提议叫 Vibe Pack。最后我说,咱们就叫 Coding Plan 吧,简单直接,用户一看就知道是干嘛的。
GLM Coding Plan 的灵感,来自一次国内的营销实验。
GLM-4.5 发布时,我们做了一个活动:大约 $7(¥49) 买一张月卡,可以无限量使用 GLM,有 1000 人参加了这个活动。
说实话,这又是一个为了乐趣而做的副项目。但如果没有它,可能不会有这么多人愿意来体验 GLM-4.5。
活动进行到一半时,我们发现大约有 500 人还在高频使用,留存率相当高。这些用户普遍希望活动能延期,能继续以订阅的方式畅用 API。
据我们统计,用量最多的用户消耗了价值 7 万美元的 tokens,是他购买金额的一万倍。我们当然负担不起这种消耗,于是快速收集用户反馈,平衡各种因素,并建立了基础设施。半个月后,也就是 9 月 1 日,我们为这批用户续上了 GLM Coding Plan,同时面向全球发售。
在 GLM Coding Plan 发布后、GLM-4.6 发布前的一个月里,api.z.ai 的每日 Token 调用量翻了 10 倍。
GLM Coding Plan 解决了上述问题,但我认为其里程碑意义仍然被低估。
在我看来,GLM Coding Plan 第一次系统性地实现了 LLM API 的 To C 化。
它并不只服务于 Coding 场景,而是可以服务于任何个人用途:
由于并发限制,它不会被用于面向公众的服务,但可以提供近乎无限量的个性化 API 使用。
场景早已超出了 Coding。每天,有大量 SillyTavern、Zotero 等应用的用户在使用 GLM Coding Plan。它与遵循 OpenAI 或 Anthropic API 协议的任何接口都兼容。只要你不滥用它,你可以做任何你想做的事。
订阅制天然降低了 API 的使用门槛,让用户更少关注 Token 计数,更多关注服务本身。
当然,我们还有很多需要在 2026 年提升的地方。我们会做更多底层的事情,也会坚持把服务层做好。
虽然这篇文章写于上市这一天,但说实话,这仅仅是一个普通的日子。
上市不是终点,甚至不是一个特别重要的节点。它只是意味着我们在通向 AGI 的路上又加了一次油,有了更多的燃料继续前行。
回顾 2025 年,我最大的感受是:很多看起来“突然”的成功,背后都是漫长的积累和无数个不被看见的夜晚。 从 2020 年的 GLM 架构,到 2025 年的品牌重塑,我们用了五年时间才让更多人看见我们。
感谢所有在这条路上陪伴我们的人,无论是团队的伙伴、合作的开发者,还是每一位使用 Z.ai 和 GLM 的用户。你们的反馈、批评和支持,都是我们前进的动力。
2026 年,我们继续。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.