![]()
2026年初,Solana基金会开出一张40万美元的支票,收款方不是人类安全研究员,而是一段代码。这是AI首次独立发现区块链远程代码执行漏洞——攻击者可借此在验证节点上执行任意指令,凭空铸造代币,甚至抽走验证者私钥。当时Solana链上锁仓价值超90亿美元。
发现漏洞的AI来自Anatomist Security,一家专注用智能体自动化审计的公司。他们用强化学习训练的系统在rBPF虚拟机(Solana程序的运行沙盒)里fuzzing了数周,最终触发了Direct Mapping优化模块的指针越界。基金会确认后,这笔赏金创下AI独立找漏洞的史上最高纪录。
但比赏金更值得关注的,是漏洞本身的设计缺陷——以及它撕开的"内存安全语言"幻觉。
Direct Mapping:为性能拆掉隔离墙
Solana的账户模型像个巨型键值数据库,所有状态都存这里。程序执行时,验证节点把请求的账户数据序列化,塞进rBPF虚拟机的0x400000000地址开始的INPUT区域。传统模式下,每次跨程序调用(CPI)都要把整个账户数据缓冲区拷来拷去——有时候是几MB的数据,执行开销极高。
v1.16引入的Direct Mapping想解决这个问题:账户数据直接映射进虚拟机内存,CPI时只更新指针,不拷贝数据。速度确实快了,但安全上这是典型的"拆掉隔离墙换性能"——你把原本由内核维护的内存边界,交给运行时自己管理。
漏洞就藏在这里。当CPI发生时,被调用的程序可能调整账户数据大小,Direct Mapping需要在调用方的内存里更新指针位置。但运行时没充分验证这些新指针是否还在合法边界内。
攻击链条很干净:恶意程序A调用程序B,程序BResize账户数据,运行时更新程序A里的指针,由于校验不足,程序A的指针现在指向了虚拟机沙盒外的宿主机内存。程序A接下来就能读写宿主机的任意地址——包括其他验证者的密钥材料。
Anatomist Security的AI正是通过持续变异CPI调用序列,触发了这个边界条件。人类审计员通常关注业务逻辑漏洞,很少系统性测试指针管理的边界情况,尤其是当代码用Rust这种"内存安全"语言编写时。
![]()
Rust的盲区:安全语言≠安全程序
Solana的rBPF虚拟机核心代码用Rust实现,这门语言以编译期内存安全著称。但Direct Mapping漏洞证明了一个老问题:安全语言能防止你写错指针,但防不了你设计错指针管理机制。
漏洞根因是运行时逻辑缺陷——指针更新时的边界检查缺失。Rust编译器不会替你验证业务逻辑层面的安全假设,比如"这个指针更新后一定还在VM内存里"。当性能优化引入复杂的动态内存映射时,人类开发者很容易在状态机转换中遗漏边界条件。
「我们发现这个漏洞时,首先检查的是C代码,」Anatomist Security联合创始人David Wong在披露报告中写道,「但问题完全在Rust层。这提醒我们,语言安全只是基础,架构层面的隔离设计才是关键。」
更微妙的是Direct Mapping的测试覆盖率。Solana Labs的单元测试覆盖了正常Resize场景,但没覆盖恶意程序故意构造的异常序列——指针更新后恰好落在VM边界外一两个字节的情况。AI的fuzzing策略不假设"正常用法",这让它找到了人类测试的盲区。
AI审计的范式转移:从工具到同事
40万美元赏金背后是一个行业转折点。传统智能合约审计依赖人类专家阅读代码、理解业务逻辑、构造攻击场景。这种模式在DeFi Summer后已经过载——新协议上线速度远超审计产能,"审计后仍被盗"的案例层出不穷。
Anatomist Security的AI系统采用不同路径:它不"理解"代码意图,而是通过强化学习在虚拟机状态空间里探索异常行为。系统维护一个rBPF执行环境的精确模型,持续变异交易序列,观察是否触发内存访问违规或状态不一致。
「人类审计员看代码问'这里可能有什么问题',AI问的是'这个状态机有哪些转移没覆盖到',」Wong解释,「两种方法互补,但AI在系统性探索边界条件上有规模优势。」
![]()
这次发现的具体技术细节:AI在72小时内执行了超过2亿个变异CPI序列,最终触发了一个特定条件——账户数据Resize后新大小恰好使指针计算溢出,指向了VM内存区域外的宿主机栈空间。这个边界条件在人类审计中几乎不可能被手动构造出来。
Solana基金会随后开放了Direct Mapping的完整审计报告,披露该模块在v1.16到v1.18期间存在17个相关边界条件问题,其中3个达到高危级别。AI发现的这个RCE是唯一能直接突破沙盒的。
DeFi协议的新现实:假设审计已过期
漏洞披露后,Solana生态的头部协议开始重新评估安全策略。Drift、Jupiter、Marinade等项目的核心合约都依赖CPI进行跨程序交互,虽然它们不直接操作rBPF虚拟机,但底层运行时的任何漏洞都可能被利用。
更广泛的启示在于审计模式的迭代。Anatomist Security的AI系统现已开源其核心fuzzing引擎,多家安全公司正在适配到其他链的虚拟机——以太坊的EVM、Cosmos的Wasm、Move VM都在测试范围内。
「2026年可能是AI安全智能体的元年,」Immunefi(漏洞赏金平台)创始人Mitchell Amador在社交媒体评论,「但别误会——这不是取代人类审计员,而是把他们的注意力从'找边界条件'解放到'设计安全架构'。」
Solana Labs在v1.18.2中彻底重写了Direct Mapping的指针验证逻辑,新增三层边界检查:更新前验证、更新后验证、以及基于硬件内存保护键的终极防护。迁移期间,网络短暂回退了到传统拷贝模式,性能下降约12%,但没有验证者报告中断。
40万美元赏金的分配也引发讨论:Anatomist Security将70%用于AI训练算力扩容,30%作为人类工程师的"监督奖金"——毕竟最终确认漏洞、编写报告、与基金会沟通的仍是人类团队。
这个比例或许预示了未来安全行业的协作形态。当AI能独立找到人类遗漏的关键漏洞,"人机协作"就不再是口号,而是需要重新定义权责和激励的具体工程问题。
如果你的协议去年刚做完审计,现在该问自己的是:审计员有没有用AI辅助?他们测试了哪些边界条件?以及——当AI发现下一个漏洞时,你的响应流程能在几小时内启动?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.