Google安全团队最近干了一件业内没干过的事:在真实攻击流量里,识别并阻止了一起疑似由人工智能直接参与开发的零日漏洞利用。这不是演习,是正在发生的网络攻防。
Google威胁情报小组(GTIG)发布的报告显示,攻击者来自一个"已知网络犯罪威胁行为体",目标是一次"大规模利用事件"——具体指向一款未具名的"开源、基于Web的系统管理工具"。攻击路径很清晰:绕过该平台的用户身份验证和双因素认证(2FA)机制,直接拿到系统权限。
![]()
研究人员在分析攻击用的Python利用脚本时,发现了多处AI生成的痕迹。最显眼的是一段"幻觉出来的CVSS评分"——CVSS是漏洞严重程度的标准评分体系,但这段评分完全是编造的。更关键的是,脚本整体呈现出类似大语言模型输出的风格特征,与常见的人类编写代码的数据格式高度吻合。
![]()
报告点明了漏洞本质:平台在设计2FA时"将一项信任假设硬编码",导致出现"高严重性的逻辑缺陷"。这个设计疏漏,恰好能被自动化工具批量扫描和利用。
这起事件的时间节点很微妙。业界正围绕AI模型的攻防能力激烈争论——Anthropic刚推出Mythos模型,近期还出现了一项在AI辅助下发现的Linux内核漏洞。Google明确表示,这是其首次在真实攻击中发现AI直接参与漏洞利用开发的"明确证据"。但研究者也留了个口子:目前"并不认为此次攻击中使用了Google自家的Gemini模型"。
Google称已"干预并阻断"这次特定攻击活动,但预警说得更重:黑客正在系统性利用AI来发现和利用安全漏洞,从漏洞发现到利用代码生成,全流程都在加速自动化。报告还提到,AI系统本身及其依赖关系正在成为新的攻击面,攻击者开始更多使用为AI提供能力的组件——比如自主执行任务的外部工具接口、第三方数据连接器——来寻找新的入侵路径。
![]()
除了AI写利用代码,Google在报告中还点了另一类正在蔓延的攻击模式:"人格驱动的越界"。攻击者会精心构造提示词,诱导模型"扮演"资深安全研究员或渗透测试人员,从而套取原本被安全策略限制的内容,包括帮助识别系统潜在安全漏洞的利用思路。Google强调,这类攻击模式说明AI在网络安全的角色已从单纯的防御工具,逐渐演变为攻防双方争夺的新"战场"。
未来,由AI深度参与的零日攻击可能不再是孤例。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.