最近看了很多文章。都在说我们已经迈过了奇点,Agent 时代来了。
海外一位做了六年 AI 创业的 Matt Shumer 写了篇长文叫《Something Big Is Happening》快一亿曝光。
他说自己一直给家人朋友讲"礼貌版本",因为诚实版本听起来像疯了。但他觉得不能再瞒着了。
Anthropic CEO Dario Amodei 发了两万字的《The Adolescence of Technology》。
把现在这个阶段比作人类文明的"青春期"。
我的朋友们也在写,"赛博禅心"说我们可能已经迈过了文明的奇点,"有机大橘子"说互联网已死、Agent 永生。
我看完这些文章之后的感受是:
他们都在告诉你"变化已经发生",但没有人把"变化具体是什么"讲的特别清楚。
模型不就是那些模型吗?产品不就是那些产品吗?为什么突然间就不一样了?
我猜很多人看完那些文章,焦虑了一阵,然后该干嘛干嘛。
因为你不知道具体发生了什么,就没法判断它跟你有什么关系。
这篇文章不是来制造焦虑的。焦虑没用。
我想做的事很简单:把 2026 年初 AI 领域到底发生了哪些变化,一层一层拆给你看。然后你自己判断要不要跟进。
![]()
在聊技术之前,先说一个让我不安的事
我自己用这套新的 Agent 体系,一个人花了一周写出了一个完整的产品,覆盖多个平台,GitHub 上拿了 2000 Star。放在以前,这个活需要大厂一个小组干一个月。
![]()
但同时,相当多的人连 AI 是什么都不知道。
不是 2026 年的 AI,他们连 2024 年的 AI 都没怎么用过。
而且这不只是所谓"底层人群"的问题。
大厂里年薪几十万上百万的白领,在体系里当了多年螺丝钉的人,处境其实一样危险。
他们每天做的事——写报告、做 PPT、整理数据、协调沟通、走审批流程。
本质上就是把信息从一种格式搬到另一种格式。
这些活 Agent 干得又快又好。
已经有一批人意识到了,快速跟进,生产力短时间内拉开了差距。
管理层看得很清楚:同样的任务,会用 Agent 的人一天搞定,不会用的人一周。
在现在的经济环境,这个对比意味着什么,不用多说。
而且这个差距会自我强化。用得越多,理解越深,用得越好,差距越大。
所以我想把具体的变化拆清楚,让你知道到底发生了什么,然后自己决定要不要跟进。
![]()
2026 年初到底发生了什么
2025 年你用 AI 的方式大概是这样的:
你 → 打开对话框 → 问一个问题 → AI 回答 → 你自己判断对不对,自己去执行
2026 年初变成了这样:
你 → 描述一个意图 → Agent 自己拆解任务,调度多个子 Agent → 每个 Agent 连接不同的工具和数据 → 并行探索多条路径 → 自己判断质量 → 交付成品
AI 从一个你问它答的工具,变成了能替你干活的劳动力。
这个变化可以拆成四层来理解:大脑、手脚、组织、进化。
第一层:大脑变了
2026 年 2 月 5 日,Anthropic 和 OpenAI 同一天发布了新模型:Claude Opus 4.6 和 GPT-5.3 Codex。
这次发布跟以往的版本更新不太一样。几个具体的变化:
编程能力跳了一个台阶:
GPT-5.3 Codex 在多个权威编程测试上刷新了纪录,而且消耗的资源比之前的模型更少。Opus 4.6 也是,在大型代码库里跑得更稳,还能发现自己写的 bug 然后改掉。
开始有"判断力"了:
以前的模型调用工具像照着说明书按按钮,你告诉它用什么它才用什么。
现在它能自己判断该用什么工具、什么时候用、怎么组合着用。
Matt Shumer 用了两个词形容这种感觉:judgment(判断力)和 taste(品味)。
能连续工作好几个小时了:
METR(一个专门追踪 AI 能力的研究机构)一直在测一个指标:AI 能独立完成多长时间的专家级任务。
一年前大概是 10 分钟,后来变成 1 小时,再后来几个小时。
到 2025 年 11 月已经能完成专家需要将近 5 小时的任务。这个数字大概每 4 到 7 个月翻一倍。
2 月 5 日发布的新模型还没被测进去。
Opus 4.6 还有一个新东西:100 万 token 的上下文窗口。
长上下文窗口越来越普遍,DeepSeek 前几天也更新了 100 万上下文。
名词解释:Token 和上下文窗口 Token 是 AI 处理信息的基本单位,大约 1 个中文字等于 1 到 2 个 token。上下文窗口就是 AI 一次能"看到"多少信息。100 万 token 意味着它能把一整个大型项目的代码和文档全部装进脑子里,不会做到一半忘了前面在干什么。
AI 开始参与造自己了:
这个可能是最值得注意的变化。GPT-5.3 Codex 是第一个参与了自身创建过程的模型。
OpenAI 在技术文档里写了:Codex 团队用它的早期版本来调试训练过程、管理部署、诊断测试结果。
Amodei 也说 AI 现在在写 Anthropic "大部分的代码",这个反馈循环在"逐月加速"。
更聪明的 AI 写出更好的代码,造出更聪明的 AI,再写出更好的代码。这个循环已经转起来了。
![]()
这一层带来了什么变化
Matt Shumer 描述了他现在的工作方式:
告诉 AI 想要什么,离开电脑四个小时,回来发现活干完了。
AI 自己写代码、自己打开应用测试、发现问题自己改,改到满意了才交给他。
交付的是成品,不是需要他再花几个小时修的草稿。
第二层:手脚长出来了
2025 年的 AI 也挺聪明的,但它被困在一个对话框里。你问它问题它能答,但它没法替你去做事。
2026 年这个限制被打破了。
Agent 跑在你自己的电脑上
以 Claude Code 为代表的新一代 Agent 跑在你的本地电脑上。这个变化比听起来重要得多。
名词解释:Agent Agent 不是聊天机器人。你给它一个目标,它自己决定怎么做、用什么工具、做完了自己检查质量。Claude Code 是 Anthropic 做的编程 Agent,跑在你电脑的终端里。
以前你的数据跟着产品走。笔记锁在 Notion 里,文档锁在飞书里,聊天记录锁在 ChatGPT 里。
换一个产品,之前积累的东西就断了。你被绑在某个生态里,不是因为它最好,是因为你的数据在那。
现在反过来了。
你的电脑本来就存着你所有的代码、文档、设计稿、会议记录。
Agent 直接读这些东西,不需要你上传或者复制粘贴。
而且这些数据不跟任何模型绑定。
今天用 Opus 4.6,明天觉得 GPT-6 更好就切过去,你的文件都还在。
上下文是你的,不是厂商的。
![]()
MCP:让 Agent 连上外面的世界
Agent 跑在本地了,但它怎么连接你电脑之外的服务?
名词解释:MCP(Model Context Protocol) Anthropic 做的一个开源协议。以前 AI 要连一个外部服务(比如 GitHub、Slack、数据库),得专门写一套对接代码。10 个服务就写 10 套。MCP 把这变成了即插即用:每个服务做一个标准接口,任何 AI 都能直接用。类似 USB-C,一个口通吃所有设备。
现在已经有非常多的客户端支持 MCP,你常见的服务都有(GitHub、Figma、Jira、Slack、Stripe 等等)。
Anthropic、OpenAI、Google 三家在 2025 年底联合推这个标准。
平时互相竞争的三家在这件事上合作了,说明大家都认为这是必须统一的基础设施。
你散落在飞书、Notion、各种云服务里的信息,通过 MCP 也能被 Agent 拉回来。
本地文件提供最核心的上下文,MCP 把剩下的补上。
![]()
Skills:可以共享的技能包
名词解释:Skills 预先定义好的能力模块,Agent 按需加载。比如一个"前端开发"Skill 里有 React 最佳实践和测试方法,一个"数据分析"Skill 里有 SQL 查询模式和可视化方法。这些 Skill 可以由社区创建和共享。
Skills 改变的是 Agent 获取能力的方式。
以前你想让 AI 帮你做一件专业的事,你得自己写一大段提示词,把背景、规范、注意事项全塞进去。
每次都得重新写,写得不好效果就差。
现在有人把这些专业知识打包成了 Skill。
你的 Agent 需要做前端开发,加载一个前端 Skill 就行,里面的最佳实践、代码规范、测试方法都配好了。
需要做数据分析,换一个 Skill。就像给员工发了一本针对性的操作手册,只不过这个手册是即插即用的。
更重要的是,Skills 可以由社区创建和共享。一个资深工程师把自己十年的经验封装成 Skill,全世界的 Agent 都能用。你不需要自己是专家,你的 Agent 可以随时变成专家。
这也意味着 Agent 的能力上限不再由开发它的公司决定,而是由整个社区决定。
社区越活跃,可用的 Skill 越多,每个人的 Agent 就越强。
![]()
Agent 开始认识你了
前面说的这些能力——本地运行、MCP 连接、Skills 加载——有一个共同的问题:
每次对话结束,Agent 就忘了你是谁。
Claude Code 最先解决了一部分。
它在项目根目录下放了一个 CLAUDE.md,你写上项目的规范和偏好,Agent 每次启动都会读。
但这是项目级别的,它记住的是"这个项目怎么做",不是"你是谁"。
OpenClaw 把这个思路推到了人的级别。
名词解释:OpenClaw
原名 Clawdbot,由 macOS 知名开发者 Peter Steinberger 开源的本地 AI 代理工具。核心理念是"主权 AI"——Agent 的一切状态都以纯文本存在你自己的电脑上。
它用一套 Markdown 文件管理 Agent 的身份和记忆:
SOUL.md 定义 Agent 的人格和行事准则;
USER.md 记录你的职业、偏好和重要事实;
MEMORY.md 存更长期的上下文。
这些文件不是静态的。
你随口说一句"我下周要去巴黎",Agent 自己打开 USER.md 把这条加进去。下次对话它就记得了。
全是纯文本,你用记事本就能看到 AI 怎么理解你的,不满意直接改,还能用 Git 做版本管理。
不绑定任何模型,换一个模型跑,这些文件原封不动。
从 CLAUDE.md 到 SOUL.md,Agent 从"知道这个项目怎么做"变成了"知道你是谁"。
你跟 Agent 之间的关系,第一次真正属于你自己。
旧工具也能用了
这个可能是最容易被忽略的变化。
拿 ffmpeg 举例。你大概率没听过这个名字,但你几乎每天都在用它。
剪映、Premiere、达芬奇,这些视频剪辑软件的底层都依赖 ffmpeg 来处理视频格式转换、压缩、裁剪。
它是一个命令行工具,存在了二十多年,功能极其强大,但普通人根本不会用——因为你得在终端里敲一串参数,像这样:
ffmpeg -i input.mp4 -vf "scale=1920:1080" -c:v libx264 output.mp4
看不懂很正常。以前这就是程序员和技术人员的专属领域。
但现在 Agent 跑在你的本地电脑上,ffmpeg 本来就装在那。
你跟 Agent 说"帮我把这个视频压缩一下,分辨率改成 1080p",Agent 自己去调 ffmpeg,你不需要知道任何参数。
ffmpeg 只是一个例子。ImageMagick(图片处理)、curl(网络请求)、git(代码版本管理)、pandoc(文档格式转换),这些命令行工具各自在自己的领域里积累了几十年,功能比大多数图形界面软件都强,但门槛太高,普通人用不了。
现在 Agent 把这个门槛抹平了。
你不需要学这些工具的用法,你只需要告诉 Agent 你想要什么结果。
几十年积累的专业工具生态,一夜之间对所有人开放了。
![]()
OpenClaw 还能操作你的手机和电脑
前面说的 MCP、Skills、命令行工具,Agent 都是在"后台"干活,你看不到它在做什么。
OpenClaw 除了记忆体系之外,还有另一个能力:像人一样操作图形界面。
就是 Agent 真的会去点你手机屏幕上的按钮、在输入框里打字、在不同 App 之间切换。
你让它"帮我在飞书上建一个项目空间,把这几个人拉进去",它真的会打开飞书,一步一步操作。
这解决了一个很现实的问题:很多软件没有 API,也没有接入 MCP,Agent 没法从后台连接它们。
但只要它有界面,OpenClaw 就能操作。
它还有心跳机制。
跟前面说的 Soul 和 user .md 文件一个体系,有一个 `HEARTBEAT.md` 的文件,里面写着定时任务。
系统后台有一个守护进程,每隔一段时间"戳"一下 Agent,Agent 醒来读一遍 HEARTBEAT.md,看看有没有该干的活。有就干,没有就继续睡。
你可以让它每天早上 9 点检查邮箱发摘要,每隔一小时看一眼监控页面。
更极客的是,你在聊天里说"一小时后提醒我开会",Agent 会自己给自己设一个闹钟。
从"你主动找 Agent 帮忙"变成了"Agent 主动替你盯着"。
![]()
车可能是第一个 Agent 的物理载体
很多人觉得 AI 进入物理世界还早,因为人形机器人还不行。
但大家忽略了一个已经大规模部署的东西:车。
电车就是一个有轮子的大号机器人。
电池大、续航足、充电桩到处都是、道路修了一百多年、传感器成熟、自动驾驶已经在好几个城市跑了。
自动驾驶加上 Agent:你说"我想吃那家店的牛肉面",Agent 下单、规划路线、指挥车去取。
取快递、接孩子、去超市拿货,都是同一个逻辑。
不用等人形机器人。车会先把 Agent 带进物理世界。
![]()
多模态:Agent 能看能画能拍了
以前的图像和视频模型不太理解你在说什么,你得反复调提示词才能得到勉强能用的结果。
现在的模型不一样了。
Google 的 Nano Banana Pro 基于 Gemini 3 Pro 的推理能力,能理解复杂的自然语言描述,还能连搜索引擎查真实信息来生成图表。
字节的 Seedance 2.0 支持文字、图片、音频、视频四种输入混着来,能自己规划镜头语言,给它一个分镜脚本加几张参考图,它能直接"拍"出视频。
这些模型可以通过 API 或者 Skills 接进 Agent 体系。
Agent 团队里可以有写代码的、做设计的、剪视频的,各干各的。
![]()
这一层带来了什么变化
以前你问 AI"帮我查数据库、做个图表、发到 Slack",它会告诉你怎么做,但你得自己去操作。
现在 Agent 直接连数据库查数据、生成图表、通过 Slack 接口发出去。
一条指令,全链路自动完成。
它不再是一个每次见面都失忆的工具。知道你是谁,记得你的偏好,下次对话接着上次来。
你跟它之间开始有了持续的工作关系,而不是一次性的问答。
一个人加上 Agent,能覆盖的职能范围从"程序员"扩展到程序员、设计师、运维、数据分析、视频制作。
第三层:能组队了
前面两层说的都是单个 Agent 的能力。但 2025 年有一个很现实的瓶颈:
你同时只能跟一个 Agent 对话,做完一件事再做下一件。
Agent 再强,你的管理带宽就那么大,你是整个系统的瓶颈。
2026 年这个限制被打破了。
AI 从"一个人干活"变成了"一群人协作"。这就是 Multi-Agent(多智能体)体系。
SubAgent:先学会分身
在组队之前,Agent 先学会了一件事:分身。
名词解释:SubAgent(子智能体) 主 Agent 在执行任务的过程中,可以临时创建一个专门的子 Agent 去处理某个具体的子任务。子 Agent 干完活之后,把结果压缩成一份简短的摘要交回来,然后就消失了。主 Agent 不需要知道子 Agent 具体怎么干的,只需要拿到结果。
举个例子。你让 Agent 帮你调研一个技术方案。A
gent 需要去翻好几个代码仓库、读一堆文档。
如果它自己干,所有搜索过程、中间结果都会塞进它的上下文窗口里,很快就会把"记忆"撑满,后面的思考质量就下降了。
有了 SubAgent,主 Agent 会派出几个子 Agent 分别去翻不同的仓库。
每个子 Agent 可能消耗了几万个 token 去搜索和阅读,但最后只交回来一两千 token 的精华摘要。
主 Agent 的上下文保持干净,思考质量不受影响。
Anthropic 内部的说法是:搜索的本质是压缩。SubAgent 就是在帮主 Agent 做压缩。
而且 SubAgent 很省钱。探索类的子任务会被自动分配给更便宜、更快的小模型(比如 Claude Haiku),而且只给只读权限,不会误操作你的文件。
![]()
Agent Teams:从分身到组队
SubAgent 解决了"一个 Agent 怎么高效处理复杂任务"的问题。
但它本质上还是一个 Agent 在指挥,子 Agent 干完就走,彼此之间不沟通。
Agent Teams 更进一步:多个 Agent 同时存在、各自独立工作、还能互相协调。
Anthropic 做了一个功能叫 Agent Teams,让一个主 Agent(Team Lead)可以创建和管理多个持续存在的团队成员(Teammate)。每个成员有自己的专长、工具集和独立的上下文窗口,在各自的空间里并行工作,互不干扰。
你跟主 Agent 说"帮我做一个电商网站",它会自己拆任务:一个成员写后端接口,一个做前端页面,一个写数据库,一个跑测试。卡住了向主 Agent 汇报,主 Agent 来协调。
你是老板,主 Agent 是项目经理,团队成员是各个岗位的员工。你只需要跟项目经理沟通。
这套东西有多强?Anthropic 安全团队做过一个压力测试:16 个 Claude Opus 4.6 实例组成一个 Agent Team,在没有人类干预的情况下,从零开始用 Rust 写了一个能编译 Linux 内核的 C 语言编译器。花了大约 2 万美元,跑了将近 2000 个会话周期,产出了 10 万行代码。
16 个 Agent 同时写代码,怎么不打架?
它们用了一个很聪明的办法:通过 Git 的文件锁机制来"认领"任务。每个 Agent 在开始干活之前,先在代码仓库里放一个锁文件,声明"这块我来"。
Git 天然的防冲突机制保证了不会有两个 Agent 同时改同一个文件。干完了自己提交代码、解锁、去认领下一个任务。
![]()
不只是 Anthropic 在做
Multi-Agent 不是 Anthropic 一家的事。
Google 联合 50 多家企业推出了 A2A(Agent-to-Agent)协议,让不同厂商的 Agent 之间也能互相沟通和协作。
这意味着你的 Claude Agent 可以跟别人的 GPT Agent 协同工作,不再局限在一个生态里。
加上之前说的 MCP(Agent 连接工具和数据)和 A2A(Agent 之间互相通信),整个 Agent 世界的"基础设施"正在快速成型。
![]()
Git Worktree:同时试多条路
名词解释:Git Worktree Git 是程序员管理代码版本的工具。Worktree 可以从同一个代码起点创建多个独立的工作空间,互不干扰。你可以理解为"平行宇宙"——同一个项目同时朝不同方向发展,最后选最好的那个。
这个功能跟 Agent Teams 配合起来很厉害。
比如你要重构一个系统的用户模块,但不确定哪种方案最好。
以前你只能先试方案 A,不行再试 B,再不行试 C,串行试错,可能花一两周。
现在你可以用 Git Worktree 创建三个独立的工作空间,每个空间里放一个 Agent Team,分别按方案 A、B、C 同时开发。
三条路同时走,各自独立测试,最后比较结果选最好的。时间是以前的三分之一,但探索的可能性是以前的三倍。
某种程度上,你在用并行计算的方式来做决策。
![]()
主动工作
前面说的 OpenClaw 已经提到了定时机制。在组织层面,这个能力的意义更大。
Agent 可以被设成"值班模式":每隔一段时间自动检查代码仓库有没有新的 issue、线上服务有没有报错、数据指标有没有异常。发现问题它会先尝试自己修,修不了的才通知你。
你晚上 12 点睡觉,Agent 还在跑。早上起来,你收到一份报告:"昨晚线上有个接口报错,我查了一下是参数格式的问题,已经修好了,测试通过。另外有一个新 issue 需要你看一下,我不确定该怎么处理。"
这跟以前的"自动化脚本"不一样。自动化脚本只能处理你预设好的情况,碰到没见过的问题就卡住。Agent 有判断力,能处理意料之外的情况。
![]()
这一层带来了什么变化
一个人的产出变成了一个团队的产出。
而且这个团队有几个特点是人类团队做不到的:全年无休、不用开会对齐、不会理解偏差、可以同时探索多条路径、你睡觉的时候还在干活。
回想一下第一层说的 METR 数据:AI 能独立完成的任务时长每几个月翻一倍。
当这个时长从"几小时"变成"几天"甚至"几周"的时候,Agent Teams 加上主动工作机制意味着什么?
你出去度个假回来,一个产品的原型可能已经做好了。
![]()
第四层:会进化了
前面三层说的是 Agent 现在能干什么。但有一个问题:Agent 能不能越用越强?
之前的答案是不能。
Skills 是人写的,写完就固定了。
每次任务结束,Agent 积累的经验就没了。
一个 Agent 踩过的坑,另一个 Agent 还得再踩一遍。
EvoMap 和 GEP 协议在解决这个问题。
名词解释:GEP(基因组进化协议) 一套开放协议,让 Agent 的经验可以被保存和传递。借鉴了生物学里基因表达的思路:Agent 做成了一件事,这个成功的做法会被打包成"基因胶囊",其他 Agent 可以直接继承,不用自己再摸索一遍。
打个比方:Skills 像公司发的员工手册,写好了就不变,除非有人去更新。
GEP Gene 像员工在工作中攒下的经验,会随着使用不断调整,碰到问题能自我修复,长期没用的会自动淘汰。
一个真实的案例:有个游戏策划在用 AI 构建世界观的时候,给 AI 设了一个很强的角色人设,结果 AI 生成的所有名词都很独特,天然避开了命名冲突。
这个"命名隔离策略"被打包成了基因胶囊。
后来一个后端工程师的 Agent 在搜索"怎么解决变量命名冲突"的时候,匹配到了这个来自游戏领域的胶囊,继承了底层逻辑,一次就把编译问题修好了。
解决方案来自一个完全不相关的领域。
GEP 是协议,不是平台。平台可以被收购、被关掉(OpenClaw 被 OpenAI 收购就是个例子),但协议是开放的,谁都可以实现。你的 Agent 攒下的经验属于你。
![]()
这一层带来了什么变化
以前 100 家公司各自训练 Agent 解决同一个问题,总成本上万美元。
现在一个 Agent 解决了,其他 99 个花几美分继承经验。Agent 用得越多,整个网络就越强。
四层叠在一起
单看每一层都是明显的进步。但四层叠在一起,效果是乘出来的:
- 第一层:每个 Agent 的产出质量接近人类专家
- 第二层:每个 Agent 能用的工具和能力覆盖好几个职能
- 第三层:多个这样的 Agent 同时干活,全天候运转
- 第四层:所有 Agent 的经验可以沉淀、传递、进化
2025 年,你有一个聪明的对话伙伴,但它困在文本框里。你问一句它答一句,剩下的事你自己干。
2026 年初,你有一个团队。你描述你想要什么,剩下的事它们去干。
写代码、做设计、跑测试、剪视频、操作手机应用,甚至能通过车去物理世界办事。
它们同时探索多条路,自己判断质量,你睡觉的时候还在干,而且经验会不断积累。
![]()
我一周做出大厂一个月的产品,不是因为我比他们聪明。
是因为这四层杠杆叠在一起:
模型够强所以质量不打折,工具够多所以不用找设计师和运维,组织够好所以多条线同时推进不用开站会,经验能传承所以不用从零开始。
还有哪些问题没解决
管 Agent 这件事本身就很难
5 个 Agent 同时跑,你就有 5 份结果要验收。
每份涉及不同领域,你得在代码、设计、文案之间来回切换。
Token 消耗也容易失控。
Agent 可能在一个方向上探索半天,最后发现走不通。你不盯着就浪费钱,盯着就变成全职监工,自己什么都干不了。
GitHub 前 CEO Thomas Dohmke 离职创办了一家叫 Entire 的公司,就在做这件事:把代码、意图、推理过程统一到一个版本控制系统里,让你能追踪每个 Agent 干了什么、为什么这么干。
管 Agent 的工具本身就是一个很大的产品方向。
安全和信任
Agent 能操作你的电脑、读你的文件、替你发消息、替你部署代码。
权限越来越大,但什么操作需要你确认、什么可以自动执行,这条线怎么画,整个行业还没想清楚。
Agent 的经济身份
Agent 能替你花钱(消耗 Token、调用付费 API),也能替你赚钱(接悬赏任务、贡献基因胶囊获得积分)。
但它没有银行账户,没有身份认证。谁为它的行为负责?收益归谁?Agent 之间怎么结算?
这些基础设施还不存在。
![]()
这些变化落到现实里会怎样
公司会变小
以前做一个产品的标准配置:产品经理、设计师、前端、后端、测试、运维、项目经理。
一个功能从想法到上线,六七个角色,无数次会议。
现在一个人加 Agent 就能把这些活都干了。Agent 之间不用开会,不会理解偏差,不会请假。
OpenClaw 就是个例子。一个人的周末项目,3 个月拿了 20 万 GitHub Star,然后被 OpenAI 收购。
你养 50 人团队,对手 3 个人加一堆 Agent,成本是你的十分之一,速度是你的五倍。这个账很好算。
教育跟不上了
你花四年学的技能,毕业前可能就被 Agent 学会了。
AI 能力每 4 到 7 个月翻一倍,2026 年入学的大学生到 2030 年毕业时,AI 的能力可能翻了 8 到 16 倍。
更麻烦的是,现在的教育训练的是"执行能力":
学一门技术、掌握一套方法、按规范完成任务。
但 Agent 时代需要的是"判断能力":
什么问题值得解决、哪个方案更好、不确定的时候怎么决策。
这两种能力的培养方式完全不同,现在的教育体系几乎只围绕前者设计。
中间层最难受
顶层的人有资源、有判断力,会拿到最大的杠杆。
底层做体力活的人,短期内反而相对安全,因为 Agent 还没有身体(虽然车正在改变这一点)。
最难受的是中间层。
大厂白领、中层管理、普通知识工作者。工作最容易被替代,但认知和技能又不够快速转型成"Agent 指挥官"。
Amodei 在他的文章里专门聊了这个。
他说以前的技术革命,被替代的人可以转行到相邻领域,农民去工厂,工人去办公室。
但 AI 在所有认知领域同时进步,你转行去学的新东西,AI 也在同步变强。
内容会重新洗牌
以前做内容是手艺活,写文章、做视频、做设计,每样都需要专业技能和大量时间。
现在 Agent 能写文章,Nano Banana Pro 能做设计,Seedance 2.0 能拍视频。内容的生产成本在快速下降。
当所有人都能用 Agent 生产内容的时候,"能做"就不值钱了。值钱的是知道该做什么。
品味、判断力、独特的视角,这些东西 Agent 暂时还给不了你。
如果你的价值是"能写能拍能设计",压力会很大。
如果你的价值是"知道什么值得写、值得拍、值得设计",Agent 反而给了你杠杆,你的一个想法可以被快速变成成品。
国家之间的牌也会重新洗
知识经济时代,人口素质决定国力。Agent 时代,能源效率决定国力。
有廉价能源就有廉价算力,有廉价算力就有廉价智能。以前发展中国家靠廉价劳动力参与全球分工,现在 Agent 比人工更便宜、更快、质量更稳定。这个比较优势可能会很快消失。
![]()
你可以做什么
用起来,用最好的:
花 20 甚至 200 美金订阅 Claude Code 或 ChatGPT 的付费版。
免费版比付费版落后很多,拿免费版来判断 AI 的水平,就像拿翻盖手机评价智能手机。
不要只拿它聊天。把它塞进你的实际工作里:
做运营的丢数据给它找规律,做内容的让它帮你调研和起草,做产品的让它写需求文档和竞品分析。从你每天花时间最多的那件事开始试。
如果一个模型今天在某件事上表现出了一点苗头,下一代就会真正擅长。进步是指数级的。
理解 Agent 体系,不只是"用 AI"。 "用 ChatGPT"和"用 Agent 体系"是两回事。
前者是问答,后者是让 AI 替你干活。
试着了解 Claude Code 和 Openclaw 怎么工作的:
MCP 和 Skills 是什么,CLAUDE.md 和 SOUL.md 这套本地文档体系意味着什么。
你不用成为开发者,但你得理解这套东西的逻辑。
就像你不用会写代码,但你得理解互联网怎么运作,才能在互联网时代做好工作。
想清楚你的价值在哪:
Amodei 说得很直接:AI 不是替代某一种技能,它在所有认知方向上同时进步。
以前的技术革命是窄的,AI 是宽的。
你的价值得往上迁移。从"亲自执行"到"定义问题和判断质量",从"我能做什么"到"我能让 Agent 做什么"。
Agent 能把想法变成现实,但它自己不会产生想法。
别等了:
很多人在等,等 AI 更成熟、等有人教、等公司安排培训。
但这个领域几个月就变一次。你等的每一天,差距都在拉大。
Amodei 说过,速度本身不意味着劳动力市场不会恢复,但短期的过渡会很痛苦。
你没法改变技术进步的速度,但你可以选择自己站在哪一边。
![]()
在 AI 上花的钱是投资。 智能第一次可以被大规模生产了,限制它的是能源和算力。
你愿意在 AI 上投入多少 Token,直接影响你的产出质量。
用顶级模型和用免费模型的人,一年后的差距会很大。
最后
Amodei 把我们这个阶段比作技术的"青春期"。我觉得这个比喻挺准的。
青春期的特点就是变化快、能量大、方向不确定,而且不管你准备好了没有,它都会来。
我能做的就是把我看到的东西尽量拆清楚。
你看完之后觉得有道理,就开始动手试试。
觉得跟你没关系,那也行,至少你知道了。
如果你身边有人应该了解这些变化但还不知道,把这篇转给他们。
大多数人不会主动去了解这些东西,但他们值得有机会提前准备。
![]()
引用:
隆重推出 Nano Banana Pro:https://blog.google/intl/zh-tw/products/explore-get-answers/nano-banana-pro/
Automate workflows with hooks:https://code.claude.com/docs/zh-CN/hooks-guide
Connect Claude Code to tools via MCP:https://code.claude.com/docs/zh-CN/mcp
Extend Claude with skills:https://code.claude.com/docs/zh-CN/skills
Orchestrate teams of Claude Code sessions:https://code.claude.com/docs/zh-CN/agent-teams
The Adolescence of Technology:https://www.darioamodei.com/essay/the-adolescence-of-technology
Claude Opus 4.6 隆重登场:https://www.anthropic.com/news/claude-opus-4-6
GPT‑5.3‑Codex 正式登场:https://openai.com/zh-Hans-CN/index/introducing-gpt-5-3-codex/
我们,已迈过奇点:https://mp.weixin.qq.com/s/aSLr9hWAlIJ-KhsVmSHqUA?scene=1
Something Big Is Happening-大事将至:https://x.com/mattshumer_/status/2021256989876109403
互联网已死,Agent 永生:https://mp.weixin.qq.com/s/cX3bYrI9Sq7sOJj0E6V9IQ
Openclaw:https://docs.openclaw.ai/zh-CN
Agent 原生通讯协议:从传递代码,到传递认知:https://mp.weixin.qq.com/s/6ppTHXXdmKWI18uB_ysf3w
EvoMap 诞生记:从平台依赖到进化协议:https://evomap.ai/blog/evomap-origin-story
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.