全文 3,000字 | 阅读约 8 分钟
![]()
(蔡崇信在斯坦福谈阿里 AI 策略 )
前不久,在斯坦福商学院的《View From The Top》讲座上,阿里巴巴董事会主席蔡崇信坐在台上,说:
我们在 2019 年就开始做 Transformer 模型了,但没有跟上。
2019年,阿里已经将 Transformer 用于推荐系统。那是 ChatGPT 发布的三年前。技术团队看到了方向,但大语言模型的研发没能获得足够资源。直到 2023 年,通义千问正式发布,阿里才算真正进入这场战役。
三年窗口期,就这样错过了。
蔡崇信的解释是:我们当时没有分配足够的资源,因为行业内部也没有共识这是不是对的方向。
这句话说的不只是阿里。它说的是所有大公司在面对 AI 时的共同处境:一项颠覆性技术在早期阶段,看不到短期 ROI。而组织的预算流程、人事考核、业务优先级,整套系统的惯性会告诉你:别在不确定的方向上押注太多。
所以即使技术团队看到了方向,资源也未必能跟上。
但蔡崇信在 2023 年复出担任董事会主席后,给出了自己的答案。他聚焦了三个关键词:
采用、规模、开源。
这篇文章,就是围绕这三个关键词,复盘他对 AI 这场仗的思考。
第一节|采用:做出来不算,用起来才算
先说第一个关键词:采用。
蔡崇信在讲座里反复强调一个问题:AI 要在什么场景下被使用,才能真正产生价值。
1、从模型到应用:通义 App 不只是入口
在阿里的 AI 战略里,通义App是一个重要环节。蔡崇信认为:做 AI 不是只做模型就够了。消费者应用、大语言模型、基础设施,这三层都同等重要。每一层都要投入资本。
从这个角度看,通义 App 承担的不只是用户入口,更是验证整个 AI 能力能否在真实场景中落地的关键一环:
C 端用户会不会频繁打开?
B端系统能不能稳定接入?
教育、医疗、电商这些场景能不能真正用起来?
没有这一层的验证,模型再强也只是玩具。
2、国内消费市场的特殊性
蔡崇信还提到了中国市场的一个关键差异:企业级软件付费习惯在中国远不如美国成熟。在中国,让用户为 API 调用付费的接受度要低得多,推广难度也远高于美国。
这意味着:
美国 AI 公司可以靠 API 收入做模型闭环;
而中国模型厂商必须找到其他路径,靠云基础设施,或者靠应用层。
所以通义 App 是阿里探索如何让模型在中国市场真正被采用的一次关键尝试。只有模型被真实用起来,它才真正产生价值。
就在昨天(2月6日),通义千问启动“春节30亿免单”活动,上线 9 小时 AI 订单突破 1000 万单。巨大的流量让系统一度崩溃,30 多万家线下门店同时爆单。这场活动的火爆场面,恰恰验证了蔡崇信的核心观点:AI 的真正考验不在实验室,而在真实用户每一次提问、每一次下单的时候,基础设施撑不撑得住。
第二节|规模:推理撑得住,才是真本事
如果说采用决定模型能不能走出实验室,规模决定它能不能真正进入社会。
蔡崇信在讲座中提到:
今天的 AI 投资,正在从训练转向推理。所有的超大型公司都在加倍投放资金。
此前,美国大型科技公司每家每年的资本支出在 600 到 800 亿美元,如今这个数字已经涨到 1200 到 1500 亿美元。这标志着行业共识的转变:推理才是 AI 成本的真正大头。
1、推理,才是AI成本的主战场
在 ChatGPT 刚火的 2022-2023年,大家都把注意力放在训练:模型参数有多少?训练成本多高?在 benchmark 上能不能超过 GPT-4?
但蔡崇信指出:训练只发生在少数公司内部,推理才是所有人每天都会用到的功能。
用户用通义 App 提问,是推理;
企业用 Qwen 模型处理客服,是推理;
内容生成、数据分析、客户服务场景用模型协助任务,还是推理。
这些都在不断消耗 GPU、消耗电力、消耗网络资源。而且不像训练只需要一次,推理是每天都要执行的。
2、大模型不是拼速度,是拼吞吐量
一个模型能不能接入亿级用户、千种任务,取决于几个实际问题:
能不能在高并发下保持稳定?
推理速度有没有卡顿?
成本会不会失控?
这才是规模的真实定义。不是做一个最强模型,而是做一个吞吐量最高、最稳定的模型体系。
阿里为此的选择是:把模型部署在自家云上,让推理性能、吞吐量、并发处理能力全部可控。通义开源模型全球下载量达数亿次,背后靠的不只是算法,还有基础设施。
但规模化的挑战不止于此。随着 AI 走向多模态时代,语音、图像、视频都要生成,算力压力只会越来越大。蔡崇信看到的趋势是:人们不会少看短视频,只会越来越多,对算力的需求也就没有天花板。
而当推理需求进入亿级用户时代,规模拼的不是性能,是钱:
你的基础设施能不能调度这么多 GPU?
能不能在高负载下不崩?
成本控不控得住?
这就是资本支出转向推理的原因:AI 的落地,拼的不是模型能力的突破,而是基础设施能不能支撑更多人用。
第三节|开源:开源不是理想主义,是现实选择
要让更多人用得起、用得上,蔡崇信给出的答案是:开源。
开源在 2026 年已经不是新鲜概念。但中国模型公司走向开源的原因,不是技术理想主义,而是商业模式和市场环境共同作用的结果。
纯 API 订阅模式在中国难以规模化,这推动中国模型公司探索新路径。开源成为核心策略,但它的价值不只是解决盈利难题。
1、第一层价值:自主可控
蔡崇信明确表示,开源的最大价值不是便宜,而是主权。
对企业来说,能把模型部署在自家服务器上;
对政府来说,能本地运行、隔离数据;
对开发者来说,可以自定义微调、添加指令。
他在讲座中强调:
“使用开源模型,你可以部署在自己的基础设施上,可以在本地运行,也可以在私有云环境中运行。无论是后续训练还是推理,都不再依赖原模型开发者。实际上,你对这个模型拥有完全的控制权和主权。”
这句话背后,体现的是一个AI 竞争新原则:能力重要,但自主可控更重要。
2、第二层问题:开源之后,怎么盈利?
开源不能只靠下载量,也不能靠社区氛围。
真正的收入要靠模型在什么地方运行,谁掌握推理的基础设施,谁就掌握了盈利的入口。
正是基于这个逻辑,阿里的做法是:把通义千问开源,但引导用户在阿里云上训练和推理。模型免费,基础设施收费。
这个模式能成立,前提是阿里有云业务。因为有云业务托底,通义千问才能放心开源,成为全球下载量最高的中文模型之一。而用户在使用模型的过程中,自然会产生对云基础设施的需求,这就形成了商业闭环。
蔡崇信也坦言,这种路径对很多没有云基础设施的公司来说,是无法复制的。
所以,中国模型公司的开源路径,既是商业现实的选择,也是用开源模型占领市场、用云基础设施赚钱的策略。
结语|胜负不在做得早,在于闭环通不通
从 2019 年将 Transformer 用于推荐系统,到通义千问成为全球下载量最高的开源中文模型之一,阿里在 AI 上起步不算晚。
但蔡崇信复盘时没有强调自己做得早,反而点出了一个更关键的现实:起步早不是优势,能用起来才是。
采用、规模、开源,这三个关键词都在回答同一个问题:AI 模型怎么才能真正落地?
做通义 App,因为没有应用场景模型就空转。
投云基础设施,因为推理才是变现的真正入口。
选开源,因为 API 订阅在中国难以规模化。
AI 不是发布出来的,是在真实业务里用出来的。谁能把这个闭环跑通,谁就掌握了主动权。
识自AI
本文由AI深度研究院出品,内容翻译整理自蔡崇信在斯坦福商学院View From The Top访谈及世界政府峰会对话等公开素材,属翻译分析性质。内容为观点提炼与合理引述,未逐字翻译原访谈材料。未经授权,不得转载。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
https://www.youtube.com/watch?v=MEfO09kPf-w&t=598s
https://www.youtube.com/watch?v=dbV1sMfv9TQ&t=1s
https://www.alibabagroup.com/ir-financial-reports-quarterly-results?utm_source=chatgpt.com
https://www.businessinsider.com/alibaba-joe-tsai-ai-race-us-china-winner-adoption-integration-2025-10
来源:官方媒体/网络新闻,
排版:Atlas
编辑:深思
主编:图灵
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.