作者|Yara
山姆·奥特曼(Sam Altman) 最近出现在2026年贝莱德峰会(BlackRock Infrastructure Summit 2026),参与了一场对话,大聊AI基础设施与经济影响。对话一开始就挺有意思,主持人开场就申明,Altman是他的朋友,他本人也在OpenAI董事会里,但他保证不会只抛软问题。这种开场调子其实很重要,因为它提前定义了这场访谈,不是犀利审问,但也不是纯公关活动。
Altman的身份无需多言。作为OpenAI联合创始人兼CEO,他曾担任Y Combinator总裁,帮助孵化了一批重新定义行业格局的公司。而他的OpenAI,两周前刚刚宣布了1100亿美元融资,这个数字是史上最大规模公开市场发行(沙特阿美约250亿美元IPO)的4倍多。战略合作伙伴包括亚马逊、英伟达和软银。与此同时,Stargate(那个被反复提及的超大规模数据中心项目)已经在德克萨斯州阿比林开始了首轮训练运算。OpenAI还在同一天宣布了与北美建筑工会联盟的合作协议。访谈中还透露一个数字,OpenAI的产品已经触达全球约9亿用户和企业,这个数字本身就构成了这场讨论的前提:AI已经被大规模使用。
这也是这场对话最值得关注的地方。Altman反复强调一个现实:AI的下一阶段,核心不只是模型更强,而是人类能否建起足够多的数据中心、电力系统、传输网络、芯片供应链和工程人才队伍,让智能像水和电一样被稳定、低成本、广泛地分发出去。换言之,世界有没有能力承接AI释放出来的变化?
以下是这场35分钟对话的完整梳理。
![]()
一、AI的经济实用性拐点,不用就落伍了
主持人开门见山,问了在场所有人最关心的问题:AI现在到底发展到哪一步了?
Altman的语气里带着释然。他觉得,就在过去几个月的某个节点,AI模型真正迈过了一道坎——它们开始实实在在地创造经济价值了。
其实模型的能力可能更早就够了,拐点可能早就发生了,但问题是中间隔着一条鸿沟:模型够聪明了,人们却还没搞明白怎么用。OpenAI不光要让模型更强,还得把各种配套的“管道”搭好,让普通人也能顺畅地用起来。而现在,模型的表现正在让用户大吃一惊。
“这一点在编程领域最为明显,但在科学领域、在很多知识工作领域也在发生。速度快得让人头晕目眩——大家在说:‘天哪,我以为这些事情还要好几年才会发生,结果现在就发生了。我的工作已经从亲自做技术工作或法律工作,变成了管理一群做这些工作的AI智能体。’”Altman说。
接着他说了一条时间线:眼下,你大概可以放心让一个AI软件工程师去干几个小时的活儿,很快这会变成几天的活儿,再往后是几周的,再之后,整个用法会再变一次——AI不再是你想起来才去调用的工具,而更像是一个始终在线、主动思考、了解你所有情况的高级员工,持续嵌入你的生活和公司运转当中。“你会信任它们去做的那些事情,就像你信任资深员工一样。”
主持人追问:企业真的想明白AI能怎么帮它们重新设计业务了吗?
Altman的回答很实在——有些想明白了,有些还没有。新一代创业公司和以前任何一代都不一样。过去创业者来聊,张口就是“我需要招多少人”。现在他们普遍不想大量招人,觉得人多了反而拖慢速度,取而代之的问题变成了“我能拿到多少算力”“能预留多少容量?能签多大的云计算合同?能拿到多少token?”这种思维转变在大公司里慢一些,但也已经开始了。一个看得见的信号是:工程团队和产品团队开始说,今年计划交付的东西是原来的两到三倍。“这在以前是没有发生过的。”
二、AGI何时到来:一个正在失去意义的词,和两个更值得关注的门槛
主持人提到,Altman一直公开说通用人工智能(AGI)会比多数人预期的更快到来,请他说说最新看法。
Altman的回应出乎意料地冷静,或者说,他对AGI这个词本身的态度已经变了。“到了这个阶段,AGI的定义真的很重要了。”有些人觉得我们已经到了,有些人觉得非常接近,有些人说大概还要一年。“但无论如何,这个词已经不太有什么讨论意义了。”
他转而抛出了两个他觉得更值得讨论的具体门槛。
第一个门槛是:全世界数据中心里面的“认知总量”,什么时候会超过数据中心外面——也就是全人类所有大脑加在一起的认知总量?Altman坦言误差范围很大,自己完全可能判断错,但还是给了一个猜测:大约在2028年底。“这是世界的一个非同寻常的转折点。”
第二个门槛更具体:一家大型公司的CEO、一个大国的总统、一位诺贝尔奖级别的科学家,什么时候会发现如果不大量依赖AI,自己就干不好本职工作了?Altman特别说明,这不是说会出现AI CEO或AI总统,而是说这些人的工作方式会彻底改变。
“你仍然需要一个人为决策承担责任,运用人类的判断力,以及我们对一个重要组织的领导者所期待的一切理解力,但我的工作中那些实际的操作部分,我将越来越不得不依赖AI来完成。因为没有任何一个人类CEO能和公司里的每一个员工交谈,和每一个客户交谈,出席每一个会议,成为每一个领域的专家。”在他看来,这些岗位会越来越像是在“带一群AI干活”——监督它们、提供人类判断、决定什么时候信它们的输出、什么时候纠正方向。这第二个门槛可能比第一个稍晚,“但大概也不会晚太多”。
聊到他自己日常工作对AI的依赖程度,Altman说增长速度非常快。“如果我有一个关于商业模式的新想法、一个战略转向、一个我们应该做的新产品,我做的第一件事,就是去问我们的工具。”他认为下一个真正的大飞跃,会发生在AI能拿到一家公司几乎所有内部信息的时候——文档、聊天记录、代码、客户数据,全部。一旦有了这种深度的上下文,AI回答的质量和思考的深度会再上一个台阶。
三、1100亿美元与智能公用事业:为什么OpenAI像个疯狂烧钱的电力公司
话题自然转到了两周前那笔破纪录的1100亿美元融资。主持人透露他还特意用ChatGPT查了一下:这笔钱是有史以来最大规模公开市场发行的四倍,此前的纪录是沙特阿美几年前大约250亿美元的IPO。三个战略合作伙伴分别是亚马逊、英伟达和软银。
主持人替在场的投资者直接问了:这些钱都花到哪儿去了?
Altman从这个行业的特殊性说起。“这个行业有很多困难的部分,但最困难的部分之一,是基础设施极其昂贵。你需要海量的基础设施,而且必须提前很长时间做出承诺。我从未见过任何其他行业像这样。”他承认历史上确实有过很多烧钱的行业,但如果AI的需求增长继续保持现在这种陡峭程度,就必须做一些非同寻常的事情。
接着他做了一番自我剖析。OpenAI干了很多看起来“奇怪”的事:收入还没到位就疯狂砸基础设施;推出广告这种看起来“可能不是最赚钱”的商业模式;还有一长串别的动作。但所有这些背后都指向一个根本信念——让智能变得极度充裕。
“我们未来最重要的事情之一,是让智能(借用能源行业一句没能兑现的老话)‘便宜到不值得计量’。我们要用智能淹没整个世界,我们要让人们把它用在所有事情上,我们要让未来的一代人根本不去想这件事——他们会理所当然地认为智能无处不在,每个人都能随时随地获取他们需要的任何领域的天才级助手,要多少有多少。”
这个原则是OpenAI的指导方针之一,也确实导致了很多对其他公司来说不太正常的行为。其中最核心的一条是:OpenAI真的很想摆脱长期以来“永远算力不够用”的困境。
主持人点出了一个他常听Altman说的观点:算力就是收入。Altman展开解释,他认为OpenAI的业务——包括所有模型供应商的业务——说到底就是卖token。这些token可能来自大大小小不同的模型,所以价格不同;可能用了多少不等的推理过程,成本也不一样;可能全天候在后台帮你干活,也可能只在你需要时才启动以省钱;还可能为了解一个特别难的问题,投入价值数千万、数亿、甚至未来某天数十亿美元的计算资源去深度求解。
“我们看到的未来是:智能像电力或自来水一样成为一种公用事业,人们按量从我们这里购买,用于他们想用的任何用途。”
然后他指出了供给不足会导致的三种后果——每一种都不好。要么有钱也买不到(因为没货),要么价格飙升导致只有富人用得起,要么社会开始搞“中央计划式”的分配——决定有限的算力该给谁用、不该给谁用,而这类决策“在历史上几乎总是以糟糕的方式收场”。所以在Altman看来,纵观资本主义和创新的全部历史,最好的策略就是一个字:灌。让市场被充分供给。
四、Stargate的真实面貌
讨论焦点自然落到了Stargate——OpenAI数月前宣布的超大规模数据中心项目,也是应对算力需求的核心基础设施。主持人提到这毕竟是一场基础设施投资会议,顺势问起了美国和阿布扎比两地的进展。
Altman说这份工作最酷的部分之一,就是能去亲眼看看这些正在建设中的超级数据中心。“那种规模,那些吉瓦级的园区,真的很难用语言描述。你看照片会觉得,嗯,确实看起来挺大的。但当你真正走到现场,在一栋栋建筑之间穿行,看到上万人在那里、各种不同的专业工种在做各种不同的事情,走进去之后发现里面看起来就像太空飞船的内部,真的非常震撼。”
他透露了具体进展:OpenAI目前正在阿比林的第一个站点上训练他们认为“将会是世界上最好的模型”。Altman回忆了多次在施工期间去现场的经历,以及当你真正消化了整个项目的规模和复杂性之后,终于迎来那一天的感觉——一个OpenAI的研究员输入一条命令,按下回车键,数量惊人的GPU同时旋转起来,开始协同执行一个巨大的计算任务。“非常酷。”
主持人追问,最大的惊喜和最大的困难分别是什么?
困难方面,Altman说既有预料之中的挑战,也有完全没想到的“未知的未知”。比如阿比林遭遇了一场超出规划预案的极端天气,导致系统停机了一段时间。还有各种供应链问题,在这种规模下就是有太多东西会出错。很多事情进展顺利,但试图全天候建造如此复杂的东西,就是会不断冒出各种状况。
最大的正面惊喜则是,有那么多不同的组织需要在极短时间内走到一起协同工作,而最终他们真的做到了,在巨大的压力下像一个团队一样合作。
五、能源困局与千倍效率跃升:在“祈祷奇迹”和“工程突破”之间
电力需求,是所有大规模AI基础设施最受关注的瓶颈。主持人问Altman,是否乐观地认为美国能解决这个问题。
Altman的回答分了两层。“长期来看,我是乐观的。我毫不怀疑我们最终会想出办法来建造大量的发电设施。AI本身也会帮上忙。我觉得世界的能源组合——天然气、太阳能、核裂变、核聚变等,让我对我们最终的能力和行动感到安心。”
但紧接着他话锋一转,说了句大实话:“但鉴于我们目前看到的需求增长速度,我在某种程度上是在祈祷一个奇迹,希望我们能在每瓦特的能效上实现巨大的提升,以便争取到足够的时间来建设所有这些基础设施。”
然后他给出了一个让在场听众精神一振的数据。OpenAI的第一个推理模型叫o1,大约16个月前发布。他们最新的集成了推理能力的模型是GPT-5.4,要让最新模型达到和o1相同的答题准确度,成本降低了大约1000倍。
“一千倍!”Altman强调,“在一个相对较短的时间内。”然后他从两个角度解读了这个数字。
第一,这说明我们还处在这项技术非常早期的阶段。关于怎么开发、训练和高效运行这些模型,还有太多太多东西要学。“我们当时在做、现在也仍然在做很多愚蠢的事情,而且会越做越好。”
第二,人类在资源有限时爆发出的创造力,几乎总是会给你超出预期的惊喜。效率提升不只来自模型本身变强,写底层计算代码的内核工程师想出了更高效的写法,电力工程师和数据中心设计者找到了更省电的方案。“远不止是模型团队的人在优化,整个生态系统中的各方都在响应号召,让这一切变得更高效。”
六、自研推理芯片:一个有态度的赌注
主持人提到,OpenAI虽然是英伟达和AMD的大客户,也刚和亚马逊签了大单,但同时还在自己做芯片。为什么?
Altman先做了澄清,OpenAI正在做的芯片只用于推理,不涉及训练。
然后他做了一段科普。AI的工作负载分两个主要阶段,虽然未来它们会逐渐融为一体,但目前还是分开的。
第一步是训练:海量的GPU花上好几周甚至好几个月处理大量数据。Altman打了个比方:“你可以把训练想象成人生前22年的教育过程,从婴儿开始,你扔东西发现它会掉下去,最后在大学物理课上以极其详细的层次理解这背后的原理。”训练完成后,当你向模型问一个物理问题,它给出答案的过程就叫推理——这个过程的效率高得多。
他还特别纠正了一个人们讨论AI能效时常犯的错误:“当大家说‘这些AI模型效率太低了’的时候,他们通常是在拿一个人类22年的训练过程去和一个成年人用1秒钟解一道物理题来比较。如果你拿模型解题去和人类解同一道题来比较,模型很可能已经比人类更节能了。”不过训练阶段确实要消耗海量算力,最终产出的本质上就是一个数字文件,你可以向这个文件提问,它会给你回答。
回到自研芯片的逻辑,OpenAI的目标不是做最快的推理芯片,而是做最便宜的、每瓦特效率最高的推理芯片。“这是一个有态度的赌注,它是一个功能有限的芯片,但在一个我们受能源约束的世界里,它所做的那件事将非常重要。”这个设计直接对准了他们预见到的未来海量智能体需求。
进展方面,他透露第一批芯片将在几个月内回片,预计年底前可以大规模部署,“而且看起来效果会非常好。”
七、万人工地与技能工人的瓶颈:为什么AI基础设施最终是个“人”的问题
访谈当天上午,OpenAI宣布了与北美建筑工会联盟(North American Building Trades Unions)的合作,目的是扩大数据中心建设所需的各类技能工人的培训通道。主持人请Altman介绍这项合作,还打趣说工会主席Sean McGarvey稍后也会上台,“让我们先听你的版本,再看看他的版本是不是一样。”
Altman从一个他反复强调的观察说起:每当人们谈论AI基础设施建设的各种瓶颈——涡轮机不够、变压器不够、内存晶圆厂产能不够、数据中心大厅建不够快、冷却系统跟不上,当然还有机架和GPU本身,所有这些看似不同的瓶颈,都有一个共同点:它们都是极其复杂的物理基础设施,需要大量技能工人来建造。
“我真希望每个人都能去参观一次这些超大规模数据中心,”Altman说,“因为当你向ChatGPT问一个问题并得到答案时,真的很难想象让这个回答成为可能的背后需要多大规模的物理设施。”
他说,无论瓶颈在某个时间点卡在哪里,当他和人们讨论“怎样才能加速”时,答案几乎总是一样的:更多的技能工人来建设这一切。“我认为这些将是非常棒的工作岗位,不仅如此,我相信它们将为美国下一代的基础设施和经济繁荣奠定基础,我们非常激动能与工会合作来加速推动这件事。”
主持人代表贝莱德表示认同,称他们完全赞同这个判断,并认为这项合作的宣布令人振奋。
八、中美AI竞赛:深度学习更像发现了一种新元素,而非发明了一项秘密技术
接下来聊到了一个所有人都关心的话题:中美之间的AI竞争。主持人直接问Altman:美国现在是不是领先?要怎么才能保持领先?
Altman没有直接回答“是”或“不是”,而是先抛出了一个很多人没想到的观点。他说:“我认为深度学习的发现,更接近于发现了一种化学元素或一条物理基本性质,而不是发明了一项秘密技术。”
这话什么意思呢?就是说,深度学习不是某家公司关起门来搞出的独门绝活,而更像是人类发现了一条本来就存在的自然规律。既然是自然规律,那它迟早会被所有人搞明白。就像今天我们都能理解物理学是怎么回事一样,未来大家也都会理解AI到底是怎么运作的。
Altman回忆了他们是什么时候开始有这个感觉的。“我们是从OpenAI大约七年前发表的模速定律(scaling laws)开始真正意识到这一点的,简单来说就是:给模型喂的资源越多,它就越聪明,而且这个关系精确得像一条数学曲线。这不像是工程上碰巧调对了参数,更像是碰到了一条自然法则。从那以后,人们又发现了很多新的细节,将来还会有更多。但和其他科学领域一样,这些原理会随着时间变得越来越简洁、越来越清晰,最终不再是什么商业秘密。
接着Altman打了一个他特别喜欢的比方——晶体管。晶体管当年也是一个重大的科学发现,一开始很难搞懂,但一旦原理被弄清楚,全世界都知道了。不过关键来了——虽然原理大家都懂,但真正能把芯片造好,那是另一回事。芯片的原理写在教科书里谁都能看,但台积电能做到的事情,至今全世界没有第二家公司能做到。
AI也是同样的道理。Altman认为,未来AI领域的竞争优势不在于谁懂原理,原理大家都会懂,而在于谁能把AI更好地融入实际工作、谁有更好的训练数据、谁的产品更好用。
而他觉得最大的差距来源,可能是谁手里握着更多的基础设施——算力、机房、电力这些硬东西才是最难复制的护城河。“至于那些基本科学原理,我认为它们将被广泛知晓,并且可以印在一件T恤上。”
说到中美之间具体谁强谁弱,Altman拆开来一项一项比。最顶尖的AI模型,美国领先。但如果比的是谁能用更便宜的价格跑AI,哪怕用的是落后两代的模型,中国做得更好。基础设施方面,美国暂时领先,但中国建东西的速度快得多。闭源模型美国领先,开源模型中国领先。总的来说,Altman觉得美国“可能”还是占优。
九、印度的AI加速度:“零人创业公司”与比美国还要激进的采纳速度
主持人提到Altman最近刚去了一趟印度,看起来非常兴奋。
兴奋都说轻了,Altman简直是被震到了。“我到了那里,有人递给我一份关于印度的简报,上面写着Codex在印度的使用量在很短的时间内翻了10倍。我当时的反应是,这数据肯定有bug,不可能是真的。”结果一查,是真的。
更让他意外的是跟印度创业者聊天时听到的东西。我们都知道硅谷流行一个说法叫“一人创业公司”,就是一个人借助AI干一整个团队的活。但印度人玩得更狠。“我在印度听到的是:‘我在尝试建一家零人创业公司,我想写一个prompt,让它运行我的整个公司,写我的软件、做我的客服、处理我的法务。然后我出去度假。’”
不光是创业者,印度的大公司也让Altman印象极深。他们抢AI资源的那股劲儿,简直像打仗一样。“他们说:‘你们能卖给我们多少算力?能给我们预留多长时间?我们能现在就谈好吗?在你同意之前我们不会让你离开这个房间。’”这种“AI一定会改变一切”的坚定信念,以及说干就干的行动力,让Altman非常感慨。
主持人追问,这跟美国客户有什么不一样吗?
Altman说得很直接:”方向是一样的,但他们(印度AI公司)似乎走得更前面一些。或者说移动得更快。”
十、美国的三大脆弱性:供应链、采纳速度与全球扩散
主持人将话题拉回全球AI竞赛,直接问Altman:你觉得美国最薄弱的地方在哪?
Altman列了三个。
第一个是全球供应链的依赖性。他说自己在这个话题上没什么新鲜观点,但怎么强调都不为过。“如果我们在基础设施上落后而且追不回来,如果全球化以它可能出现的种种方式崩塌,如果我们无法相对独立地持续建设AI基础设施——这就是一个巨大的脆弱性。”他用了一个措辞极其谨慎的双重否定来表达他对美国当前全球定位的不安——“我不讨厌我们目前的全球位置,但我也不喜欢它。”
第二个是经济采纳速度。如果美国不能像其他国家那样快速地在各行各业全面用上AI,那么美国的经济优势就会被削弱。这不光是企业的事,科学家和政府也得跟上。
Altman在这里展现了他对当前社会情绪的清醒判断。“AI目前在美国并不太受欢迎。数据中心正在被指责导致电价上涨。几乎每家裁员的公司都在拿AI当替罪羊,不管实际上是不是AI的原因。很多方向上有很多很多的逆风。”
但他也看到了硬币的另一面。“从正面来看,我认为这是一个跨代际的重大机遇,可以真正改善经济,真正用这个不可思议的新财富喷泉来重新书写那些不再适用的社会规则。所以我能看到一个世界——在那个世界里,这不仅不是劣势,反而成为我们最大的竞争优势。但他对当前的节奏并不完全放心。“我再说一次,我不讨厌它,但我觉得它可以更快。”
第三个是全球扩散。全世界会不会主要建立在美国的AI技术栈之上——芯片、模型、应用,还是说美国自己会出台一系列政策,反而让这件事变得更难?这是一个关乎美国技术标准能否成为全球默认选择的战略问题。
十一、永久通缩、GDP悖论与资本主义的“丰裕管理”难题
访谈的最后一个大议题,上升到了更宏观的经济和社会层面。主持人问Altman:AI能不能成为一场巨大的生产力繁荣的基础?
Altman的回答是肯定的,“毫无疑问”。但他紧接着加了一个重要的“但是”,我们衡量生产力的方式本身得跟着变。
“我能看到一个世界:生产力繁荣令人难以置信,生活质量持续攀升,我们号称在乎的那些指标,大多数都在变好。然而与此同时,GDP持续下降。”
他描绘的是一个长期通缩的世界。“我不知道生活在一个永久通缩的世界里意味着什么,我不知道当数据中心内部的智力总量超过外部时,GDP及其与生活质量的关联应该怎么理解。但也许我们即将亲身经历这一切。未来几年关于‘到底该衡量什么’这个问题,将会有大量的辩论。”
主持人问,我们现在思考这些挑战的方式对吗?Altman觉得讨论已经开始了,但如果存在一个简单的共识答案,我们早就找到了,说明确实没人真正知道该怎么办。
然后他引用了一段最近在网上看到的、一直在他脑子里转的话:“几个世纪,也许几千年来,我们学到了大量关于如何组织社会来管理稀缺的知识,但其中几乎没有什么能帮助我们去快速学会管理丰裕。”
这句话戳到了资本主义的根基。Altman指出,资本主义一直依赖于劳动和资本之间某种程度的权力平衡。“但如果在我们当前的很多工作中,人类很难比一块GPU干得更多,那这种平衡就改变了。”
他说自己手头还有一张列着大约十条类似的结构性变化的清单,所有这些变化都在同时发生,但时间已经不够一一展开了。不过他做了一个重要表态:“我不是一个长期的‘就业末日论者’,我相信我们会找到新的事情去做。我也绝对不是一个长期的‘资本主义末日论者’,我对资本主义的信仰非常深。”
“但我认为接下来几年将是一个痛苦的调整期,在我们到达那个‘我们都有权参与重新定义的未来,那个关于新体系和前所未有的繁荣究竟长什么样的未来’之前,将会有一些非常激烈和令人不适的辩论。”
主持人以一个约定作为结尾:“五年后,我们会回到这里,看看我们走到了哪里,看看我们如何穿越了这一切。”
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.