今天,YC CEO 发了篇小作文《元提示(Meta-Prompting):让AI Agent真正运作起来的秘诀》,然后被迅速刷屏。
![]()
在文中,他公开了自己的私人 AI 架构:一个拥有 10 万页结构化数据、日运行 100 余项自动化任务的“第二大脑”。
Garry 展示了 AI 如何在 40 分钟内读完一本书,并精准地将书中哲学与他真实的家庭背景、创业笔记、甚至心理诊疗记录进行一对一映射。
这种深度私密化的定制,比 $300/小时的治疗师都要高效 50 倍以上,而且这已经远远超越普通 RAG。
普通 RAG 只能检索,而它做到了真正的“理解”。
但这还不是最厉害的地方。整个系统真正的核心,是一个叫 Skillify 的元技能。
他提出一个犀利的观点:未来不属于只会调遣大模型的用户,而属于能构建“复利 AI 系统”的开发者。
从自动复盘会议到构建“元技能”循环,这篇小作文揭示了如何将 AI 从“搜索引擎”升级为“操作系统”。
在他的视角里,小编看来,现在 99% 的人使用 AI 的方式都是错的。
绝大部分人还仅仅在和 ChatGPT 聊天,高级一点的,会学习各种一招鲜的prompt。这就像汽车刚发明时,还在研究怎么把马养得更壮,以跑得更快。
而 Garry Tan亲手打造的“肥技能”,则是一辆能跑赢时代的赛车。
他说,“我不思考productivity,我思考 compounding”。
普通人追求今天快 10%,他追求的是,拥有一个 7×24 永不疲倦、还会自主进化的第二神经系统且每个月强 10 倍,这就是真正的 AI 复利。
在小作文后面有人跟帖询问搭建这个系统的成本,Garry 回复称,我在成本最大化的投入(“tokenmaxxing”),每个月光 Openclaw 就花费 2000美元,“因为这是站在最前沿所需要的”,但他觉得18个月内人人都会负担得起。
![]()
以下为他的小作文全文——
很多人一直在问我,为什么身为 Y Combinator(YC)的 CEO,工作如此繁忙,还要坚持每天熬夜写代码到凌晨 2 点。YC 每年帮助数千名创业者实现梦想,打造拥有真实收入且高速增长的公司。
在过去的 5 个月里,AI 让我重新成为了一名“开发者”。
去年底,AI 工具的进化已经成熟到让我重操旧业,开始构建一些东西。我做的不是简单的玩具项目,而是具有复利效应(Compound)的真实系统。
我想通过具体的例子向大家展示:当你不再把 AI 当作一个聊天窗口,而是把它当作一个操作系统时,个人 AI 到底是什么样子的。
我将这些以开源项目和文章的形式分享出来,是希望大家能和我一起加速进化。
这是系列文章的一部分:
• 《肥技能,肥代码,瘦外壳》:介绍了核心架构。
• 《解析器(Resolvers)》:涵盖了智能路由表。
• 《代码行数(LOC)争议》:探讨了技术人员如何将自身生产力提高 100 到 1000 倍。
• 《裸模型更笨》:论证了模型只是引擎,而非整台车。
• 《Skillify 宣言》:解释了为什么 LangChain 虽然融资 1.6 亿美元,却只给了你深蹲架和哑铃而没有训练计划,以及你是如何获得所需计划的。
一本“回读”我的书
上个月,我正在读 Pema Chödrön 的《当生命陷落时》(When Things Fall Apart)。这本书共 162 页,22 个章节,讲述了处理痛苦、无常和放下的佛教方法。
我让我的 AI 对这本书做了一次“书籍镜像”(Book Mirror)。
具体操作如下:系统提取了书中全部 22 个章节,然后为每个章节运行一个子代理(Sub-agent),同时执行两项任务:总结作者的思想,并将每个想法映射到我的真实生活中。
这绝不是那种“这适用于领导者”之类的陈词滥调,而是极其具体的映射。
它知道我的家庭背景(移民家庭,父亲来自香港和新加坡,母亲来自缅甸);它了解我的职业背景(运营 YC,构建开源工具,指导数千名创始人);它知道我读过什么、凌晨 2 点在想什么,以及我和心理医生正在解决什么问题。
最终产出是一个 3 万字的“大脑页面”。每个章节呈现为两列:Pema 说了什么,以及这如何映射到我当下的生活。
关于“无常”的章节,连接到了我前一周与某位创始人的具体谈话;关于“恐惧”的章节,对应了心理医生帮我识别的模式;关于“放下”的章节,则引用了我某晚关于今年创作自由的感悟。
整个过程耗时约 40 分钟。一个时薪 300 美元的心理医生读完这本书并将其应用到我的生活中,即便花 40 个小时也做不到这一点,因为他们没有加载并交叉引用我完整的职业背景、阅读史、会议记录和创始人关系图谱。
我已经对 20 多本书做了类似处理,包括《苏格拉底》、《悉达多》、《做事的艺术》等。每一本都会变得更加丰富,因为“大脑”在不断进化。第二个“镜像”知道第一个的内容,第二十个则洞悉前十九个的精髓。
通过迭代优化的“书籍镜像”
我做的第一个书籍镜像其实很糟糕。V1 版本在我的家庭背景上有三个事实错误。它说我父母离婚了(其实没有),说我出生在香港(其实是加拿大)。如果我分享出去,这些错误会损害信任。
因此,我增加了一个强制性的事实核查步骤。现在每个镜像在交付前都会针对大脑中已知的事实进行跨模态评估:
• Opus 4.7 1M:捕捉精度错误。
• GPT-5.5:捕捉缺失的上下文。
• DeepSeek V4-Pro:识别内容是否过于平庸。
随后,我升级到了基于 GBrain 工具链的深度检索。V3 版本现在会进行分段搜索,右列的每个条目都会引用真实的“大脑页面”。
当书中谈到困难对话时,它不再只是合成通用原则,而是从我与那些正与合伙人发生冲突的创始人的会议记录中提取素材,或者引用我周四和弟弟 James 聊天时的点子,甚至是我 19 岁时与大学室友的聊天记录。这种体验极其不可思议。
这就是“技能化”(Skillification)在实践中的意义。我捕捉了初次手动尝试中的可重复模式,编写了一个带有触发器和边缘案例的技能文件,每一次修复都会在未来的书籍镜像中产生复利。
构建技能的技能
这里是递归发生的地方,也是我认为最深刻的见解所在:运行我生活的系统并非一个庞然大物,它是由无数“技能”组装而成的。而这些技能本身也是由一种“技能”创造的。
Skillify 是一个创造新技能的“元技能”。当我遇到一个会重复的工作流时,我会说“skillify this”,它会审视刚刚发生的事情,提取模式,编写测试文件,并将其注册到解析器中。
技能是可以组合的。书籍镜像技能会调用 brain-ops 进行存储、调用 enrich 获取上下文、调用 cross-modal-eval 进行质量把控、调用 pdf-generation 进行输出。每个技能专注一件事。当我改进其中一个技能时,所有使用它的工作流都会自动变强。
一场自我准备的会议
DeepMind 创始人 Demis Hassabis 来 YC 参加炉边谈话。当时 Sebastian Mallaby 写的一本关于他的传记刚出版。
我让系统帮我做准备。在不到两分钟的时间里,它提取了:
• Demis 的完整大脑页面(整合了数月来的文章、播客和笔记)。
• 他关于 AGI 时间线的公开观点。
• 传记中的核心要点。
• 他研究的优先级(持续学习、世界模型等)。
• 与我公开演讲内容的交叉引用。
• 三个用于演示大脑推理能力的脚本。
• 一系列基于我们世界观交集与分歧的谈话钩子。
这不仅仅是高级版的 Google 搜索。这种准备利用了我积累的所有背景,针对性地服务于对话的战略目标。系统准备的不是事实,而是观点和角度。
10 万页的大脑是什么样子
我维护着一个约 10 万页的结构化知识库:
• 人物:每个见过的人都有一个页面,包含时间线、当前状态、待办事项和评分。
• 会议:每次会议都有转录、摘要和“实体传播”(系统会自动更新会议中提到的所有人及公司的页面)。
• 输入:每本书、文章、视频都会被摄取、标记和交叉引用。
这就像是一个私人维基百科,由一个参加了你所有会议、读过你所有邮件、看过你所有演讲的 AI 持续更新。
这便是“文件夹”和“神经系统”的区别。文件夹存储东西,而神经系统连接它们,标记变化,并浮现出对当下最重要的信息。
系统架构
我开源了整套系统,其逻辑如下:
1. 瘦外壳(Thin Harness):OpenClaw 是运行时。它接收消息,确定适用技能并分发。它不需要理解书籍或会议,它只负责路由。
2. 肥技能(Fat Skills):目前有 100 多个技能,每个都是独立的 Markdown 文件。例如:
• meeting-ingestion:处理会议转录并进行实体传播。
• enrich:整合人物的所有背景信息。
• perplexity-research:结合大脑已有知识的网页搜索。
3. 肥数据(Fat Data):知识库中的 10万页数据。
4. 肥代码(Fat Code):每天运行 100 多个定时任务(Crons),监控社交媒体、Slack 和邮件。
5. 模型可插拔:模型只是引擎。Opus 用于精度,GPT 用于召回,DeepSeek 用于创意,Groq 用于速度。
结语:凌晨 2 点的开发者与复利系统
我不谈论生产力,我谈论的是复利。
我今天写的系统是两个月前的 10 倍强大,两个月后还会再强 10 倍。当我在凌晨 2 点写代码时,我不仅仅是在写软件,我是在完善一个每小时都在进化的系统。
这不是一个写作工具或搜索引擎,而是一个真正起作用的第二大脑。
我的核心观点很简单:未来属于那些构建“复利 AI 系统”的个人,而不是那些仅仅使用“公司拥有的中心化 AI 工具”的个人。 这就是记日记和拥有神经系统的区别。
如何开始?
1. 选择一个外壳(OpenClaw 或 Hermes Agent)。
2. 使用 GBrain 建立你的大脑。
3. 从解决一个具体问题开始,然后使用 Skillify 将其转化为技能。
4. 持续迭代。
起初它会很平庸,但六个月后,你将拥有任何聊天机器人无法复制的东西。因为价值不在于模型,而在于你教给系统的关于你生活、工作和判断的特定知识。
肥技能,肥代码,瘦外壳。 LLM 只是引擎,你可以亲手打造自己的车。
项目地址:[github.com/garrytan/gbrain](https://github.com/garrytan/gbrain)。去构建吧。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.