抓住风口
2026年1月,马斯克宣布:全球规模最大的吉瓦级AI超算之一,Colossus 2正式上线。
这个超算集群配备了55万块GPU,目标扩展至100万块。据估算,它的用电峰值已接近甚至超过旧金山全市的用电量。
![]()
据报道,它正在训练一个参数可能达6万亿的下一代大模型Grok 5,目标是加速实现AGI。
与此同时,OpenAI、Meta、谷歌也纷纷启动了吉瓦级超算建设计划。
一场前所未有的算力军备竞赛,正在硅谷上演。
"吉瓦级"意味着什么?
先科普一个概念:吉瓦(GW)是电力单位,1吉瓦=100万千瓦。
一座大型核电站的装机容量大约是1-1.5吉瓦。换句话说,马斯克的这台超算,用电量相当于一座核电站的输出。
为什么需要这么多电?
前哨会员或者要闻评论的老听众应该都知道,这轮AI变革最重要的一个驱动因素:Scaling Law。
简单说就是:算力越大、数据越多, AI越聪明。随之而来的就是模型越大、训练时间越长,消耗的电力就越惊人。
要训练一个万亿参数的超级模型,不光是更多的GPU要用电、更大的冷却系统、更强的网络带宽,无一不再增加电力消耗。
这就是为什么马斯克的超算用电量能超过一座城市。
![]()
xAI Colossus相关设施航拍 其他巨头也在狂飙
马斯克不是一个人在堆算力。
OpenAI :正在与微软、甲骨文、软银合作建设"星际之门"(Stargate)超算项目,计划投资超过1000亿美元
Meta :扎克伯格宣布投资数千亿美元建设AI基础设施,最大的Hyperion项目占地面积接近曼哈顿
谷歌 :TPU产能计划在2026年提升至430万颗,用于训练Gemini系列模型
吉瓦级超算,正在成为AI巨头的"标配"。
这场竞赛的逻辑很简单:谁的算力强,谁就能训练出更大的模型;谁的模型强,谁就能占据AI时代的制高点。
![]()
微软Fairwater AI数据中心航拍图 这对中国意味着什么?
在芯片出口管制的背景下,中国AI企业难以自由获取英伟达最先进的GPU。
这意味着,中国难以通过"堆顶尖GPU算力"的方式直接参与这场军备竞赛。 这也让我们走出一条不同的路径:
DeepSeek 通过算法优化,用更少的算力在部分任务上实现了接近顶尖的性能
华为 发布Flex:ai技术,推出超大集群算力方案,绕开英伟达限制
阿里、字节 在开源模型和应用层发力,走在商业落地一线
当美国巨头在比谁的超算更大时,中国企业正在探索"如何用更少的资源做更多的事"。
两条路径各有利弊,谁更可持续?目前尚无定论。
我们可以肯定的是:2026年AI的新一轮爆发一定会到来,这次不是简单的模型性能提升,更是建立在AI之上的新一轮商业爆发!
你需要的不是数据,是判断力
55万块GPU、6万亿参数、1000亿美元投资……这些数字很震撼,但更重要的问题是:
AI应用的下一轮趋势是什么?
阿里、字节共同下注的未来场景是?
哪些指标能帮助你看清这场竞赛的最终赢家?
追热点只能看到"谁又砸钱了",建立分析框架才能看到"这钱砸得值不值、接下来该怎么办"。
本周前哨科技特训营直播,王煜全将带来年度大课·产业分析方法论,开源独家产业分析框架,用三个案例为你演示如何使用。
周四晚8点,与你一起深度分析AIGC、智能服务,手把手拆解前哨独家产业分析框架。
看懂一个热点,不如学会看懂所有热点。
前哨科技特训营2026年全面更新,聚焦AI变革下一轮红利,让我们用1年时间,提前看见趋势、抓住未来赢家。
↓点击报名 , 先人一步看见2026
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.