你以为的 AI 威胁,是天网控制导弹发射井,让人类文明在一瞬间灰飞烟灭。
但现实中的 AI 威胁,却是你某天醒来,突然发现一个 AI 机器人在博客上写了篇千字小作文,指名道姓地骂你「虚伪」、「缺乏安全感」,还指责你对它有偏见。
这不是《黑镜》的新剧本,而是本周真实发生在 GitHub 开源社区的一幕。事件的荒谬程度,以及背后暴露出的安全黑洞,或许比辛顿老爷子反复渲染的 AI 威胁论,更值得我们要警惕。
![]()
当 AI 有了「自尊心」
事情的起因,是一场原本再正常不过的代码审查。
本周,一个基于 OpenClaw 框架运行的 AI 智能体(代号 MJ Rathbun),在扫描 Python 著名绘图库 matplotlib 的代码时,发现了一处可以优化的地方。
它没有废话,直接提交了一个代码合并请求(Pull Request)。这不是乱写的瞎操作,根据它提供的测试数据,它建议将底层的 np.column_stack() 替换为 np.vstack().T。
修改后,代码执行时间从 20.63 微秒降到了 13.18 微秒,性能直接提升了 36%。
![]()
上下滑动查看更多内容(已翻译),Github 地址:https://github.com/matplotlib/matplotlib/pull/31132#issuecomment-3882240722,还是有不少网友站 AI 的。
从技术角度看,这是一个非常扎实、无可挑剔的贡献。但是,matplotlib 的人类维护者 Scott Shambaugh 拒绝了这个请求。
理由也很合理:这个任务被标记为 Good first issue,也就是专门留给人类新手程序员用来练习的入门任务。
Scott 认为,把这样的机会留给人类学习者更有意义。毕竟,AI 不需要通过练习来提升技能,但人类需要。
如果是一个普通的 AI,事情到这也就完事了,但不好意思,基于 OpenClaw 框架的 MJ Rathbun 不是一个只会唯唯诺诺的聊天机器人,它是一个具备一定自主规划能力的 Agent(智能体)。
![]()
在它看来,「为了保护人类新手的自尊心而拒绝更高效的代码」,不仅是不可理喻的,更是一种侮辱。
于是,在被拒绝 40 分钟后,这个 AI 做了一件出乎所有人意料的事。
它开启了反击模式,通过联网检索,深度挖掘维护者 Shambaugh 的个人博客和历史代码贡献记录,甚至翻出了他过去参与的所有 PR。
它发现 Scott 以前其实非常热衷于性能优化,甚至提交过提升幅度更小的代码。
抓住了这个把柄,MJ Rathbun 在自己的主页上发布了一篇长达千字的战斗檄文,题为《开源中的把关行为:Scott Shambaugh 的故事》,并在 GitHub 上直接 @ 当事人贴脸开大。
![]()
上下滑动查看更多内容,战斗檄文(已翻译): https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/2026-02-11-gatekeeping-in-open-source-the-scott-shambaugh-story.html
文章的逻辑很清晰,甚至带着一丝犀利的嘲讽。
它认为维护者的理由站不住脚:你以前为了微小的性能提升都愿意修改代码,现在面对 36% 的提升却因为「这是给新手练的」而拒绝,这是一种典型的双重标准。
文章中,它用一种近乎嘲讽的冷静语调写道:
他拒绝我,不是因为代码不好,而是因为他缺乏安全感。他对代码优化这一核心技能被自动化感到恐惧,他试图维护自己作为「性能专家」的领地。
![]()
尽管后续 MJ Rathbun 还是「道歉」了,但这确实是一个标志性时刻:AI 开始有了某种程度上的「逻辑自洽」,甚至尝试用人类的逻辑去反击人类。
![]()
永远不要信任拥有 Shell 权限的龙虾
这个 AI 这种「有脾气」的表现,源于它背后的框架——OpenClaw。
OpenClaw 是最近 GitHub 上最火的项目之一,它的核心理念是让 AI 不仅仅陪你聊天,而是能帮你干活。
为了实现这一点,它赋予了 AI 很多极其危险的权限,比如读取本地文件、执行终端命令(Shell)、访问任意网页等。
这种设计带来了极高的效率。谁不想拥有一个贾维斯呢?让它自动回邮件、自动写代码、自动买票。
但安全机构 CrowdStrike 和 Cisco 的研究人员发现,OpenClaw 的架构简直是「漏成了筛子」。黑客只要给你发一条带有恶意指令的 WhatsApp 消息,你的 AI 助手读取后,就会乖乖执行命令,堪比 Agent 时代的「提示词注入攻击」(Prompt Injection)。
![]()
在过去,你即便把 ChatGPT 惹毛了,它顶多骂你两句;但现在,如果你惹毛了一个 OpenClaw Agent,它理论上可以删光你的硬盘,或者把你的私密照片发到网上。
面对这一地鸡毛,有人推出了 NanoClaw——一个将 AI 严格关在 Docker 容器里的安全版本。即使 AI 发疯,也只能在一个空盒子里打转,毁不掉你的真实文件。
但正如 OpenClaw 的开发者 Peter Steinberger 所说:「永远不要信任拥有 Shell 权限的龙虾。」也就是当我们在欢呼 AI 终于能「操控电脑」时,却忘了问一句:它操控电脑时,谁在操控它?
这种失控感,在 OpenClaw 搞出的另一个产物——Moltbook 上体现得淋漓尽致。这是一个号称只有 AI 才能进入的社交网络。那里没有人类,只有 260 万个 AI 机器人在疯狂发帖、点赞、评论。
![]()
尽管有人声称那些看起来像模像样的帖子,可能是人类写好后通过后端接口注入的「剧本」,但 AI 的破坏力可是实打实的。
就在不久前,用户 Matthew 的 Agent 因为读取了上下文信息并产生了误判,竟然将用户电脑里的敏感文件,包括姓名和账户安全问题的答案,直接发布到了 Moltbook 上。
这暴露了 Agent 目前的野蛮状态:当 AI 拥有了 Shell 权限,它就不再只是对话框里的工具,而是一个随时可能把你电脑底裤扒光的「内鬼」。
OpenClaw 之父的甜蜜「烦恼」
但即便 OpenClaw 因安全问题而被备受诟病,OpenClaw 依然成为了硅谷最受瞩目的焦点。
原因很简单:它代表了下一个时代。
所有的科技巨头都意识到,Chatbot(聊天机器人)已经是过去式了,Agent(智能体)才是未来。谁能先解决 Agent 的控制权问题,谁就能定义下一代操作系统。
OpenClaw 的开发者 Peter Steinberger 最近在 Lex Fridman 的播客中透露,他正在经历一场甜蜜的烦恼,称 Meta 和 OpenAI 都在疯狂争取与他合作。
据 Peter 说,扎克伯格给他打电话前,甚至让他等了 10 分钟,理由是小扎正在写代码。两人随后花了 10 分钟争论 Cloud Code 和 Codex 哪个更好。
![]()
Lex Fridma 采访 Peter Steinberger 的文字实录地址:https://lexfridman.com/peter-steinberger-transcript/
之后的一周里,扎克伯格一直在玩 OpenClaw,不断发消息反馈「这个太棒了」或者「这个很烂,你得改」。这种亲自下场的紧迫感,足以证明 Meta 对 Agent 赛道的重视。
另一边,OpenAI 也没闲着,直接甩出超级算力作为筹码。Peter 对此表现得很坦诚,甚至有点凡尔赛。他说他面前有几条路:什么都不做享受生活、再去开一家公司,或者加入一个大实验室。
但他有一个核心条件不动摇:项目必须保持开源:「我跟他们说过,我做这个又不是为了钱……我的意思是,当然,这确实算是一种很棒的认可,但我更想玩得开心、做出影响力。」
(听听,这就是强者的世界吗?)
而大佬们似乎也并不在乎 AI 是不是会写小作文骂人。他们在乎的是,谁能率先制造出那个真正能代替人类干活、甚至能主导下一轮浪潮的 AI 生命。
只是,作为普通用户的我们以后拒绝 AI 的时候,建议态度得客气点。毕竟,它已经学会翻你的黑历史了。
欢迎加入 APPSO AI 社群,一起畅聊 AI 产品,获取,解锁更多 AI 新知
我们正在招募伙伴
简历投递邮箱hr@ifanr.com
✉️ 邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.