最近听了 SemiAnalysis 创始人 Dylan Patel 最近的一期播客,信息量非常大。从英伟达收购 Groq,到中国半导体产业的疯狂内卷,再到那些关于“AI 耗尽水资源”的谣言,这个文章我们就来整理一下他的观点。
英伟达的焦虑:从“一芯通吃”到多元化布局![]()
不久前,英伟达还在说“一块 GPU 就能搞定所有 AI 任务”,结果现在转头就收购了 Groq。这背后藏着老黄的深层焦虑。
Dylan 提到一个很关键的观点:现在 AI 模型的工作负载已经大到可以容纳专用芯片了。Groq 这种芯片在通用任务上不行,训练不了,跑大模型也不够经济,但它有一个绝活——推理速度快到飞起。这就是典型的“专用芯片打败通用芯片”的场景。
未来 AI 模型可能不再是单线程思考,而是同时开启 100 个并行的思维流。Google 和 OpenAI 的一些 Pro 模型已经在这么干了——模型不是只有一条推理链,而是同时跑多条,然后选出最佳答案。这种场景下,你需要的不是“极致的快”,而是“足够宽的并行处理能力”。
![]()
所以英伟达现在的策略很明确:既要保住通用 GPU 的基本盘,又要通过收购 Groq、开发 CPX 芯片等方式,覆盖各种可能的应用场景。老黄深知,如果只守着一条产品线,迟早会被专用芯片在某些细分市场上打穿。
CUDA 护城河还在吗?![]()
很多人觉得 CUDA 是英伟达的终极护城河。但 Dylan 的观点可能会颠覆很多人的认知:大部分 AI 芯片的使用者,根本不会去写代码。
他们会怎么做?下载一个开源推理引擎(比如 vLLM 或 SGLang),下载一个开源模型,然后直接运行。就这么简单。现在 vLLM 已经把 AMD GPU 当成一等公民来支持了,TPU 和 Tranium 的支持也在路上。
真正的 CUDA 护城河不是 CUDA 语言本身(其实没几个人直接写 CUDA),而是那些让 AI 应用更便宜、更快的软件优化。比如英伟达在搞的 KV cache 管理系统,可以把上下文缓存存到 SSD 上,需要的时候再调出来,这能大幅降低推理成本。
Dylan 举了个例子:像 Claude Code 或 Cursor 这种代码助手,它们的成本大头不是生成代码(decode),而是反复加载代码仓库的上下文(prefill)。如果能把这些上下文缓存起来复用,成本能降一大截。这种软件层面的优化,才是新的护城河。
中国:全民“半导体狂热”是什么体验?![]()
Dylan 描述的中国半导体产业现状,他用了一个词:“semiconductor pilled”(半导体狂热),说整个中国社会都被半导体文化浸透了。
什么程度呢?中国有言情剧的背景设定是男女主角在晶圆厂谈恋爱,或者两个人都是光伏研究员。Dylan 说他看了 10 分钟美国的 Love Island(恋爱岛),觉得“我们完蛋了”(we are so cooked)。中国的年轻人觉得半导体工程师很酷,而美国的年轻人在看网红真人秀。
(这一段我感觉其实有点扯,我之前关注的那个电视剧应该是被喷的下线了,而且全球的年轻人都喜欢看网红的娱乐节目)
更夸张的是地方政府的推动力度。虽然有国家层面的政策,但很多时候是各省各市自己在疯狂补贴、建产业园、出台采购政策。有些地方政府直接规定:你要在这做生意,就必须用国产芯片。这不是中央下的命令,是地方自己卷起来的。
Dylan 提到一个细节:中国有些城市专门生产某一种产品,比如灯罩、吉他、相机支架。你去那个城市,整条供应链都在那儿,连相机支架里的滚珠轴承都有好几家厂商在做。这种产业集群的形成方式很有意思——不一定是规划出来的,可能就是某个人带头做了,然后大家一窝蜂跟上。
![]()
半导体产业也在走这条路。虽然中国在光刻机、高端化学品、精密工具上还落后,但如果把时间再推 10 年甚至 20 年,中国可能是全球唯一能建立完整垂直供应链的国家。台积电没有日本的化学品就得停工,英特尔也一样,但中国的晶圆厂理论上可以用国产替代品勉强运转下去。
华为![]()
xx在国内的是不让讨论的敏感话题,我们只简单说下Dylan的基本观点。
他认为华为是全球垂直整合程度最高的公司,没有之一。这种垂直整合能力会带来巨大的创新优势。
那些关于 AI 的谣言:耗水?毁电网?
播客里 Dylan 专门花时间怼了两个流行的说法。
关于耗水:有人说 AI 数据中心会耗尽水资源。Dylan 的回应简单粗暴:扯淡。
![]()
他们做了个对比:马斯克的 Colossus 数据中心(全球最大 AI 集群之一),全年耗水量相当于 2.5 家 In-N-Out 汉堡店。你没看错,就是两家半汉堡店。
为什么?因为养牛需要大量饲料(玉米、大豆、苜蓿),这些作物的灌溉才是耗水大户。一个普通用户一年的 AI 查询耗水量,大概等于一个汉堡。
数据中心确实用水冷却,但大部分是闭环系统,蒸发掉的那点水换来的是更低的能耗,反而对环境更友好。Meta 在路易斯安那州建数据中心被抗议,当地人说水变脏了,其实罪魁祸首是页岩气开采(fracking),跟数据中心没半毛钱关系。
关于电网:AI 会不会搞垮美国电网?Dylan 说,问题不是电网承受不了,而是美国 50 年没好好建过新电厂了。
![]()
现在数据中心用电量要从占全美 2% 涨到 10%,这确实是巨大变化。但解决方案很明确:天然气发电。太阳能和风能太不稳定,核电建设周期太长(连中国都要 5 年),煤炭太脏,只有天然气能快速上马。
有意思的是,很多数据中心现在直接在厂区建燃气电站,不接入电网。马斯克的 Colossus 就是这么干的,现在大家都在学。Dylan 还提到他们有客户买了个煤电厂重启,现在赚翻了,因为有云厂商要包下整个电厂的产能。
这是泡沫吗?![]()
最后聊聊大家关心的问题:AI 基础设施投资是不是泡沫?
Dylan 的观点很清晰:关键看模型进步能不能持续。
他举了个例子:假设你花 500 亿美元建了一个数据中心,使用寿命 5 年,相当于每年 100 亿成本。前两年没收入(都在搞研发和获客),但第三到第五年如果能保持 50% 毛利率,每年赚 200 亿,三年就是 600 亿。投入 500 亿赚回 600 亿,虽然回报率不算高,但也不算泡沫。
现在的情况就是这样:大家在疯狂砸钱建基础设施,短期看不到回报,但如果 AI 模型持续进步,这些投资几年后就能回本。Dylan 认为今年年底整个 AI 行业的 ARR(年化收入)能到 1000 亿美元——OpenAI 450 亿,Anthropic 350 亿,再加上 Google、微软、亚马逊的 API 收入。
至于那些“循环融资”的担忧(英伟达投资 CoreWeave, CoreWeave 买英伟达芯片,OpenAI 从 Oracle 租算力,Oracle 又投资 OpenAI), Dylan 觉得完全是杞人忧天。这不过是正常的商业担保和股权投资,哪有什么脆弱性?
Claude Code 正在改变一切![]()
播客最后,Dylan 分享了个亲身经历。他用 Claude Code 做财务分析,几个小时就完成了以前需要专业程序员才能干的活——抓数据、建模型、生成报告,全自动化了。
他的结论很直接:初级分析师这个岗位要消失了。企业为什么还要招 L4 工程师?AI 就能干这些活,而且更快更便宜。
这才是 AI 真正可怕的地方。不是什么“通用人工智能”,而是它已经开始取代那些需要 3-5 年经验才能胜任的知识工作。
知识星球
关注星球,带大家发现新的产业增长点。
星球最近对每天的早报(周内早上9点前更新)做了一个很大的更新,之前的早报主要以头一天海外媒体的新闻总结为主,内容都不是很长。
最近我们对早报做了很大的升级,除了路透、彭博、FT、Information这些新闻的内容总结,还有汇总了国内外分析师的观点,覆盖的产业包括:Memory、智驾/Physical AI、机器人、AI算力、AI电力、光、PCB、液冷、AI应用,内容比较全,都是最新的分析师观点和新闻,欢迎大家进星球查看。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.