老冯的朋友蒋老板最近迷上了在群里炫耀自己一天烧了几亿 Token。经常截个图往群里一甩,“完蛋了,我又有了一个新 Idea” 。做了什么呢?一会搞个本体论数据库,一会整个 Bigsty 用 Go 复刻 Pigsty。那神情就跟在朋友圈晒跑步公里数一样,让老冯看着不禁莞尔。
硅谷新运动:Tokenmaxxing
上周,Meta 内部一个叫“Claudeonomics”的排行榜被曝光了。这名字本身就很搞笑,用竞品 Anthropic 的 Claude 来命名自家排行榜,也算是一种行为艺术。
这个排行榜覆盖了 Meta 的 8.5 万名员工,30 天内总消耗超过 60 万亿 Token。排名第一的选手,一个人平均烧了 2810 亿 Token。系统还设计了一套徽章体系:从青铜到翡翠,头衔从“Cache Wizard”到“Session Immortal”,最高级的叫“Token Legend”。
![]()
多少有点传奇。
怎么刷上去的呢?有员工让 AI Agent 空转好几个小时跑“研究任务”来攒量。消息泄露两天后,Meta 就把这个排行榜关了,留下一行通知:“本来是好玩的,但数据被外传了,所以先关了哈。”
Meta 不是唯一一家。OpenAI 内部也有类似的排行榜,有人一周烧了 2100 亿 Token。硅谷给这个现象起了个名字:Tokenmaxxing,“Token 最大化”。
各路大佬纷纷下场站台。黄仁勋在 GTC 上说,未来每个工程师都应该有年度 Token 预算,大约是底薪的一半;如果一个年薪 50 万美元的工程师一年连 25 万美元的 Token 都没烧掉,他会“深感不安”。Shopify 的 CEO 更直接:不用 AI 就别干了。有匿名员工爆料,他们公司每周有 AI 使用量门槛,达不到就走人。
一项新的办公室政治运动,就这么轰轰烈烈地展开了。
古德哈特永不缺席
这种事在管理学上有个经典的名字,叫 古德哈特定律(Goodhart's Law):
一个指标一旦成为考核目标,它就不再是一个好指标。
Token 消耗量,作为一个中间过程指标,被拿来当作衡量“AI 使用深度”和“生产力提升”的代理变量。这件事从提出到腐败,大概用了不到一个季度。可能是管理学史上腐败速度最快的 KPI 之一。
沃顿商学院教授 Ethan Mollick 在评论这件事时,引用了一篇更老的论文:Steven Kerr 1975 年的经典《论奖励 A 行为却期望 B 结果的愚蠢》。公司想要的是 生产力提升,奖励的却是 Token 消耗量。这两者之间有因果关系吗?没有人验证过。大家默认“用得多 = 用得好”,就开始搞排行榜了。
烧 Token 是一件非常容易的事。你让 Agent 去干一件不可能完成的任务,“给我写个操作系统,写不出来不要停”,开几个并行跑着,一天之内多少 Token 都能烧完。我敢说,如果比赛规则是“谁烧 Token 多谁赢”,一个实习生都能赢过 Linus Torvalds。
这跟用 代码行数 衡量程序员水平有什么区别?老冯用 npm install 装一个脚手架,几百万行代码瞬间到项目里, 提交到 GitHub 上,是不是看起来特别能干,吊打才 170 万行代码量的 PostgreSQL 项目?
体面一点的软件公司都不会用代码行数考核工程师。这种事让内行看了笑掉大牙,但外行管理者偏偏就吃这套。如果非要打个比方,这就是 用油耗衡量司机水平。老司机开得省油还到得快,新手油门踩到底还走错路。谁油耗高?
谁在鼓励你多烧?
想清楚一个问题:Tokenmaxxing 对谁最有利?
对 AI 厂商和云厂商最有利。
Ramp 的数据显示,企业 Token 支出自 2025 年 1 月以来增长了 13 倍。黄仁勋鼓吹 Token 预算,本质上是在说“多买我的 GPU”。Sam Altman 畅想“全民基本算力”(Universal Basic Compute),本质上也是在说“以后每个人都要给我交电费”。
这就是卖铲子的人鼓励大家拼命挖矿。每一个 Token 都对应着真实的 GPU 算力和电力消耗。空转的 Agent 不生产任何价值,但电费是实实在在的。把 Token 烧在无意义的任务上,跟打开水龙头看水流就觉得“我在用水”一样荒谬。
当然,这种表演性消费确实在一定程度上放大了 AI 需求的泡沫信号。CNBC 专门讨论过:如果硅谷公司的 AI 用量中有相当比例是刷排行榜刷出来的,那华尔街看到的需求增长数据有多少是真的?
不过老冯的判断是:这仍然是一场实实在在的生产力革命,tokenmaxxing 虽然注了点水,但底层的价值创造是真实的。泡沫会挤掉,但趋势不会逆转。
Token 花在哪才值?
。我基本不会去看自己烧了多少 Token,烧完订阅拉倒。之前倒是考虑要不要再去开俩订阅,不过最近 Codex 有翻倍活动,差不多够用了。
最近老冯用这些 Token 干了不少事儿。比如最近两天,我收录了 40 多个新的 PG 扩展,修复移植了一些老扩展,将 Pigsty 里的可用扩展数量扩充到了 503 个。
![]()
同时我还将,过千 Star,过万下载,。,,,翻译成英文。我觉得这些都是实打实的价值与产出。这个 Token 订阅费花得太值了。
这里面有个共同点:每件事都有 明确的、可验证的交付物。扩展收录了多少个,数字摆在那里;文档翻译得好不好,读者一眼就能看出来;代码能不能跑,CI 说了算。影响力多大,可以看 Star、PV、UV。
![]()
老冯的文档站月 PV 6000 万了…(当然大部分是 Agent 请求)
反过来看那些 Tokenmaxxing 选手们在干什么呢?让 Agent“写个操作系统”,跑一晚上产出一堆垃圾代码;或者让它“做个深度研究”,空转几小时刷出一份没人会看的报告。Token 计数器转得飞快,rm -rf 也用得飞快。这不叫使用 AI,这叫浪费能源。
带着目标在用工具,还是为了用工具而用工具?前者是生产力,后者是行为艺术。
个体 vs. 组织:一道结构性的鸿沟
道理谁都懂,但为什么 Tokenmaxxing 还是在大公司里蔚然成风?
因为 OPC 自己用 AI,是按 产出 驱动的。翻了几篇文章、写了多少可用代码、解决了什么问题,心里清清楚楚。不需要任何代理指标,你骗不了自己。
而组织就不行了。平庸的管理者无法直接感知每个人的产出质量,必须依赖可量化的中间指标进行考核与激励。 而可量化的中间指标恰恰是最容易被操纵的,这是科层制的结构性缺陷。 代码行数、PR 数量、会议时长,现在轮到 Token 消耗量了,本质上都是同一出戏的不同演员。
公平地说,从 0 到 1 的阶段,公司强推 AI 使用,初衷是可以理解的。很多人确实有惰性,不推一把不会动。但一旦变成排行榜和考核指标,就必然滑向荒诞。
最终,这种管理上的无能只是过渡阶段。正如体面的软件公司很快抛弃了代码行数考核,未来衡量 AI 使用效果的方式也会回归到产出本身: 你用这些 Token 带来了什么,交付了什么,节省了多少时间和成本。
至于到处晒 Token 消耗的朋友,老冯只想说一句:
别晒油耗了,不如晒晒你到哪了。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.