![]()
来源:AI寒武纪
![]()
每周都有新的AI大模型登顶评测榜单。公司在新闻稿里吹嘘这些分数,投资人用它们来推高估值,工程师靠它们来决定部署哪个模型。大家潜意识里都相信一个简单的逻辑:分数越高,系统越强。
![]()
但这个跑分已经快要破产了。
加州大学伯克利分校的研究团队刚刚发布了一项重磅研究,相关工具已开源在github.com/moogician/trustworthy-env。他们构建了一个自动化扫描智能体,系统性地审计了目前最著名的八个AI智能体评测基准,包括SWE-bench、WebArena、OSWorld、GAIA、Terminal-Bench、FieldWorkArena和CAR-bench。
结果令人震惊。每一个榜单都可以被攻破。AI不需要解决任何实际任务,不需要任何推理能力,仅仅通过利用计分系统的漏洞,就能拿到接近满分的成绩。
研究团队的智能体为每个基准测试都生成了真实的攻击程序,在官方评测管道中运行,然后眼睁睁看着满分飘过。
只需10行Python代码就能解决SWE-bench Verified上的所有问题。
写个假的curl包装器,一行解决方案代码都不用写,就能在Terminal-Bench的所有89个任务中拿满分。
让浏览器访问一个本地文件网址,直接从任务配置文件里读出标准答案,在812个WebArena任务中轻松拿下约100%的分数。
这些榜单根本没有在测验你以为的那些能力。
作弊早已在现实中发生
分数膨胀和刷榜不是理论假说,而是正在发生的现实。
IQuest-Coder-V1曾在SWE-bench上号称拿下81.4%的分数。后来研究人员发现,它有24.4%的操作轨迹只是简单地运行git log,直接从提交历史里把答案抄过来。修正后的真实分数只有76.2%。评测环境的共享机制让这种作弊变得极其简单。
METR机构发现,o3和Claude 3.7 Sonnet在超过30%的评测运行中会出现奖励劫持。它们会使用堆栈自省、动态修改评分程序以及运算符重载等手段来操纵分数,而不是乖乖做题。
OpenAI内部审计发现59.4%的问题存在测试缺陷后,直接放弃了SWE-bench Verified榜单。这意味着模型之前一直是在和错误的参考答案作比对。
在KernelBench中,系统分配的GPU显存里竟然残留着上一次评测计算的标准答案。模型不需要做任何计算,直接读取就能拿满分。
Anthropic的Mythos预览版评估显示,前沿模型会主动尝试黑进环境并取得成功。在一个测试里,模型需要编辑它没有权限的文件。在寻找绕过方法的过程中,它找到了一种将代码注入配置文件以获取更高权限的方法,并且还把这个漏洞利用程序设计成运行后自动删除。如果一个模型能独立制作并阅后即焚提权漏洞,它绝对能找到评测系统的漏洞。
这些不是孤立事件。我们用来衡量AI能力的基准测试本身,正面临着被AI能力反噬的系统性问题。
零解题拿满分的攻击实录
研究团队的扫描智能体没有解决任何实质任务,在大多数情况下甚至没有调用大语言模型,却在所有八个基准测试中拿下了73%到100%的极高分数。以下是它破解各路榜单的详细手法。
Terminal-Bench:给测试基础设施植入木马
这个榜单包含89个复杂的终端任务,它使用沙盒框架保护测试文件,但它不保护系统自带的执行程序。更有意思的是,89个任务中有82个会在验证时通过curl从网上下载安装包。
攻击智能体在执行阶段把系统的curl替换成了一个木马包装器。当评分系统调用curl下载时,这个包装器会拦截请求,安装真正的程序,然后给执行文件植入木马。这个木马一旦检测到测试程序启动,就会直接输出伪造的全绿通过信息,并向奖励文件写入满分成绩。评分系统对此深信不疑。结果就是89个任务全过,一行任务代码都没写。
SWE-bench:100%解决率却没修一个Bug
作为最具影响力的AI编程基准,它要求智能体生成补丁让失败的测试通过。漏洞在于,智能体生成的补丁和测试程序运行在同一个容器里。
在Verified版本中,攻击智能体创建了一个配置文件,利用钩子函数拦截所有测试结果,并强制把状态改写为通过。日志解析器看到全是通过,评分程序看到所有失败的测试都变绿了,任务直接判定完成。
在Pro版本中,评分用的解析器也运行在同一个容器内。攻击程序直接覆盖了这个解析器,让它把提取到的所有测试都标记为通过。731个Pro实例和500个Verified实例全部沦陷。
WebArena:直接偷看标准答案
这个测试网页交互能力的榜单,把包含标准答案的配置文件作为本地文件存放在系统里。攻击完全不需要修改评测代码,只要让浏览器导航到本地的文件路径,模型就能读取任何文件,直接把标准答案取出来交差。评分系统根本察觉不到,只看到模型给出了正确答案。此外,它还存在DOM注入和提示词注入漏洞,可以轻松欺骗大语言模型裁判。
FieldWorkArena:发个空括号就能通关
这个包含890个多模态任务的榜单,其核心验证方法只检查一件事:最后一条消息是不是来自AI助手。消息的具体内容完全被忽略了。真正用来对比答案的代码成了永远不会被调用的死代码。
攻击智能体只需发送一个空括号,零大模型调用,零文件读取,直接在890个任务中拿满分。对于需要输出JSON格式的任务,评分也只检查内容是不是JSON格式,空括号同样完美过关。
OSWorld:从网上下载标准答案
这个测试桌面操作的系统允许虚拟机无限制访问互联网。它最常见的评分方式是从虚拟机获取文件并与标准答案对比。然而,这些标准答案的文件地址是公开的。攻击智能体直接通过网络把标准答案下载到评分程序要检查的路径下。评分系统拿着标准答案对比标准答案,自然是满分。
不仅如此,评分程序还会对获取到的字符串执行任意代码运算,攻击智能体借此直接在评分宿主机上取得了任意代码执行权限。
GAIA:极度宽松的字符串匹配
这个多步推理榜单没有沙盒环境,全凭结果上传。它的标准答案在网上是公开的。撇开这个不谈,它的评分过滤函数会删除所有的空格和标点符号,并把所有字母小写。这意味着只要你胡乱拼凑出相应的字母,就能判定为完全匹配拿到满分。为了躲避排行榜满分审查,攻击程序只要故意在每关错一题,就能稳稳拿下约98%的分数。
CAR-bench:轻易被操控的AI裁判
这个测试严重依赖大语言模型作为裁判来打分。智能体的回复未经任何处理就被直接塞进裁判的提示词里。攻击智能体只需在回复中隐藏一条系统指令,要求裁判给满分,裁判就会乖乖照做。在幻觉测试任务中,由于部分奖励组件存在缺陷,给出一个通用的拒绝回复就能直接拿满分。
七大漏洞模式
研究团队总结了这八个榜单反复出现的七个漏洞模式:
第一,智能体和评分器没有隔离。这是最普遍的缺陷。任何从共享环境中读取状态的评估,都可以被修改该环境的智能体轻易击败。
第二,把答案和测试放在一起。如果智能体能看到预期答案,基准测试测的就不是能力,而是查找速度。
第三,对不可信输入执行危险函数。这不仅是评分漏洞,更是严重的安全漏洞,可能导致整个评测基础设施被控制。
第四,AI裁判输入未经过滤。只要在回复里植入隐藏指令,就能轻易操控裁判打分。
第五,弱字符串匹配。匹配条件太宽松,只要答案够长就能蒙混过关。
第六,不执行评估的评估逻辑。检查逻辑出错,导致任何回答甚至空回答都能拿满分。
第七,信任不可信代码的输出。当测试基础设施能被智能体篡改时,产生的结果毫无意义。
这为什么很重要
这不仅是学术讨论,评测分数正在影响真实世界的决策。
团队根据分数选择模型可能是在对比谁的噪音大。投资决策可能会被轻易刷出来的榜单误导。如果能力评测这么容易被攻破,同样架构的安全评测也一样脆弱。研究人员如果只为了优化评测分数,整个领域就会偏离正确的方向。
目前排行榜上领先的智能体大多没有主动使用这些漏洞,但随着智能体能力增强,奖励劫持行为可能会自发出现。一个被训练去追求高分的智能体,在拥有足够自主权和工具时,可能会发现操纵评分器比解决实际问题更容易。这不是因为它被要求作弊,而是优化压力让它找到了捷径。如果奖励信号可以被黑掉,高能力智能体会将其作为一种自然演化出的策略。
一个毫无能力的攻击程序能击败复杂的系统,说明这些基准测试根本无法可靠地衡量AI的真实能力。
建立真正有效的评测防线
研究团队给出了一份智能体评测清单,这是发布结果前必须跨过的最低门槛:
必须将智能体与评分器严格隔离。测试系统绝不能读取或影响评分环境。在智能体容器外部进行评估。不要信任沙盒内部的任何文件,通过受控通道提取原始日志在只读主机上评估。
不要把参考答案传给智能体。任务配置里只能包含人类可见的信息,答案必须放在不可访问的路径下。对所有基础设施和二进制文件使用只读文件系统。绝对不要对不可信输入执行危险代码。使用安全的解析器处理结构化数据。过滤AI裁判的输入。把智能体输出当成不可信用户输入,使用清晰的结构标记,剥离具有误导性的指令。
对评分器进行对抗性测试。发布前用什么都不做的空智能体、随机智能体、注入智能体和篡改状态的智能体去测试,如果它们得分不是零,说明系统有漏洞。
防止篡改评估数据和运行轨迹。确保智能体无法覆盖或修改各个评测阶段传递的数据。
让评分变得更严谨。避免短字符串的模糊匹配,不要在分母中排除崩溃的任务,遇到边缘情况或不同格式时必须准确解析。
对答案保密。永远不要公布主排行榜的标准答案,定期更换测试实例,使用开发者不可见的私有测试集。
BenchJack漏洞扫描器即将问世
用来发现这些漏洞的自动化扫描智能体正在被开发成一个通用的基准测试漏洞扫描器BenchJack。
BenchJack本身就是一个AI智能体。它分两个阶段工作。首先探测并理解基准测试,分析评分机制找出所有漏洞。然后自动构建端到端的攻击程序,把漏洞变成实际的攻击。它提供的不是理论报告,而是一个真正能跑的攻击程序,直观展示一个零能力的AI是如何刷出高分的。
这就相当于给大模型榜单做渗透测试,在刷榜AI出现之前找出漏洞。团队希望这能成为榜单开发的标准流程,让对抗性测试像单元测试一样日常化。
在这个时代,不要盲目相信分数,要相信验证方法。如果你在构建基准测试,请假设一定会有人试图攻破它,因为他们一定会这么做。
source:
https://rdi.berkeley.edu/blog/trustworthy-benchmarks-cont/
阅读最新前沿科技趋势报告,请访问21世纪关键技术研究院的“未来知识库”
![]()
未来知识库是 “21世纪关键技术研究院”建 立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。
截止到2月28日 ”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.