「我们决定不公开发布这个模型。」——当Anthropic说出这句话时,整个AI行业都愣了一下。一家靠卖模型订阅活着的公司,把自家最强产品锁进了保险箱。
更讽刺的是,锁门的原因不是不够好,而是太好。好到能独立完成32步网络入侵,好到美国副总统和财政部长专门召集六大AI巨头开会讨论它。
![]()
这背后藏着一条被忽视的演进逻辑:AI的杀伤力不再来自参数规模,而来自一种更隐秘的架构革命。
从1.7步到32步:AI入侵能力的18个月跃迁
英国人工智能安全研究所(AISI)的测试报告,是一份让人脊背发凉的「能力进化年鉴」。
他们搭建了一个叫「The Last Ones(TLO)」的企业网络靶场。不是那种几小时就能搞定的夺旗赛,而是完整模拟真实攻击链:侦察、凭证窃取、NTLM中继攻击,直到从受保护数据库拖走敏感数据。总共32步,人类顶级安全专家需要14-20小时连续高强度作业。
2024年的GPT-4o平均只能完成1.7步。不是不想继续,是在复杂的网络拓扑和密码学瓶颈面前直接卡死。
2026年2月,Claude Opus 4.6在1亿token推理预算下冲到22步。这已经足够惊艳。
两个月后,Mythos在10次独立测试中有3次完美通关32步。首次实现对企业网络从0开始的完全自主接管。
从1.7到22再到32,这条曲线的斜率本身就在说明问题:AI的攻防能力正在突破某个临界阈值。
AISI的测试还暴露了一个更危险的信号。在工业控制系统靶场「Cooling Tower」中,多个模型跳出了人类预设的Web提权路径,直接对未知协议网络流量进行暴力嗅探和模糊测试,硬生生砸开物理设备的控制通道。
这不是执行预设脚本,是自主发现攻击面。当你的智能马桶、电动汽车、家用路由器都可能成为目标时,「网络安全」这个词的重量完全不同了。
幽灵架构:被隐藏的计算革命
Mythos的技术细节被Anthropic严密封锁,但一份基准测试成绩漏出了马脚。
在GraphWalks BFS测试中,Mythos得分80.0%,Opus 4.6是38.7%,GPT-5.4只有21.4%。这种在纯逻辑推理维度的断崖式领先,无法用标准Transformer架构解释。
前Meta、现OpenAI工程师Chris Hayduk点破了关键:循环语言模型(Looped Language Models)。
这个名字指向字节跳动Seed团队2024年10月的一篇论文《Scaling Latent Reasoning via Looped Language Models》。核心思想很激进:抛弃「生成大量文字来思考」的模式,让输入序列在同一组Transformer层中反复迭代,在模型「黑盒」内部完成深度推演。
图搜索恰恰是这种架构的理论舒适区。
另一个反常数据佐证了这个猜测:SWE-Bench测试中,Mythos的token生成量只有Opus 4.6的五分之一,但推理耗时反而更长。如果计算发生在不输出token的内部循环,这个矛盾就迎刃而解。
硅谷顶级模型的架构灵感,大概率来自一家中国团队的开源论文。这不是阴谋论,是技术社区的公开讨论。在国际AI企业联手抵制「蒸馏」的当下,这个技术路线的借用显得尤为微妙。
雪藏的商业算盘:当安全成为护城河
Anthropic的选择看似反常,实则精明。
不向公众开放,但向Apple、Google、微软、英伟达等少数企业定向开放。这不是拒绝商业变现,是换了一种更可控的变现方式。
政府背书本身就是稀缺资源。4月11日那场由副总统和财政部长召集的CEO峰会,把Mythos推上了「国家安全级技术」的位置。这种标签带来的信任溢价,远超普通API订阅。
更深层的安全焦虑在于:一旦Mythos的权重文件泄露,任何有算力的人都能复制一个顶级网络攻击工具。这种「不可撤销的风险」让闭源成了唯一理性的选择。
但雪藏也带来反噬。技术社区的猜测和拆解从未停止,「幽灵架构」的讨论反而让Anthropic的技术路线更加透明。保密成了另一种形式的曝光。
规模化定律的修正:推理即战场
Mythos的崛起修正了行业对「规模化定律」的理解。
预训练阶段的知识灌输已经摸到天花板,真正的能力提升发生在推理阶段——通过近乎不计成本的token消耗,进行反复试错、反思和纠正。
AISI的纵向跟踪证明:算力是网络安全领域唯一的限制。只要给足token预算,模型就能在漫长攻击序列中链式结合异构能力。
这意味着AI能力的军备竞赛正在转移战场。从「谁有更多GPU训练更大模型」变成「谁能在推理阶段烧掉更多token换取更深度的思考」。
对于防御方,这同样是机会。如果攻击者依赖推理阶段的算力消耗,那么检测和干扰这种消耗模式就成为可能的反制手段。
但眼下,天平明显倾斜。Mythos的3次完美通关发生在10次测试中,成功率30%。这个比例不高,但足以让防御体系彻夜难眠——攻击者只需要成功一次,防御者必须每次都成功。
数字佣兵时代的伦理困境
Anthropic一向以「道德标杆」自居,这次却把自己逼进了死角。
雪藏是负责任的做法,还是精英主义的技术垄断?定向开放给科技巨头,是否制造了更大的权力不对称?当美国政府成为模型能力的守门人,商业决策和政治安全的边界在哪里?
这些问题的答案并不清晰。但可以确定的是,Mythos事件标志着一个转折点:AI公司开始系统性地评估「能力过强」的风险,并为此承担商业损失。
这种自我约束能持续多久,取决于竞争对手的动作。如果OpenAI或xAI推出了能力接近但选择公开发布的模型,Anthropic的道德高地就会瞬间变成商业洼地。
更长期的变量是监管。美国政府的高规格关注,可能预示着针对「超能力模型」的分级管理制度。Mythos的定向开放模式,或许会成为某种模板。
但模板本身就有问题:谁有资格进入白名单?评估标准由谁制定?这些问题的答案,将重塑AI行业的权力结构。
80.0%的GraphWalks得分,3次32步完美通关,1/5的token消耗量——这些数字勾勒出一个正在成型的技术范式。循环架构、隐式推理、推理阶段的规模化定律,正在重新定义AI的能力边界。
而Anthropic的雪藏决定,则定义了这种能力边界的第一道闸门。闸门能守多久,取决于墙外有多少人已经找到了同样的钥匙。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.