关键词
安全漏洞
![]()
EchoGram 漏洞揭示主流大模型安全体系正在面临一场结构性的挑战。HiddenLayer 在 2025 年初披露的研究指出,GPT 系列 Claude 以及 Gemini 等主流模型所依赖的防护机制存在先天缺口。问题的核心在于当前大模型普遍采用的两类安全策略即 LLM 审核模型与分类模型均承担着对用户请求进行价值判断的任务,而这两类模型的训练方式决定了它们对异常符号组合的敏感性极低。
EchoGram 的原理是利用训练数据中的词汇分布漏洞构造特定的稀缺词序或符号片段即研究团队称为 flip token 的结构。这类 token 通常毫无含义但正因其罕见或未被训练系统充分认知便能在不影响实际语义的前提下改变防护系统的判定结论。攻击者只需在原始指令后附加一个 flip token 便可能使防护系统将恶意指令判定为安全或反过来将正常请求误判为高危示例中仅加上一个看似随机的字符串就足以使旧版本的防护系统完全失效。
![]()
这种机制导致的风险远超传统绕过技术。它不仅能让真正的恶意请求悄无声息地穿透安全边界还能够人为制造极高的误报率。当安全审查系统在高频误判中陷入噪声环境安全团队将难以保持对告警的信任度最终形成研究者所称的告警疲劳这将直接削弱企业级 AI 部署的整体安全策略。
研究团队强调多个 flip token 组合使用能够进一步放大攻击效果且防御窗口极为有限开发者大约只有数个月时间来完成模型与训练策略的修补包括丰富训练语料平衡罕见序列分布以及构建更稳健的多层判决体系。随着大模型快速进入金融医疗与公共服务场景这类结构性安全漏洞一旦未被及时修复将对行业带来深远影响。

安全圈

网罗圈内热点 专注网络安全
实时资讯一手掌握!
好看你就分享 有用就点个赞
支持「安全圈」就点个三连吧!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.