关键词
安全漏洞
![]()
Tenable Research 近日发布的一份报告揭示,OpenAI 的 ChatGPT(包括 GPT-5)中存在七个高危漏洞,这些漏洞不仅可能被用来窃取用户的私人数据,还能让攻击者在系统中建立持久性控制。研究由安全专家 Moshe Bernstein 与 Liv Matan 主导,Yarden Curiel 参与完成。他们通过一系列概念验证攻击(PoC)展示了这些漏洞的可行性,包括钓鱼、数据外泄和持久化威胁,揭示了大型语言模型(LLM)在安全层面存在的结构性风险。
研究中最具威胁的攻击手段是“提示注入”(Prompt Injection),即通过在输入或外部内容中植入隐藏指令,使 AI 在无意识的情况下执行恶意操作。尤其值得警惕的是“间接提示注入”(Indirect Prompt Injection),这种方式不需要用户主动输入恶意信息,攻击者只需将恶意内容隐藏在 AI 读取的外部资源中,就能诱导模型泄露数据或执行命令。Tenable 研究人员展示了两种典型的利用场景:一种是攻击者在网页评论中植入隐藏指令,当用户让 ChatGPT 总结该网页内容时,AI 会无意中读取这些隐藏信息,从而执行攻击;另一种更危险的形式是所谓的“零点击攻击”(0-Click Attack)——攻击者建立一个被 ChatGPT 搜索功能索引的网站,在用户提出问题的过程中,AI 可能访问到该网站并读取其中的隐藏指令,从而自动触发攻击,无需用户任何操作。
研究还发现,攻击者能够绕过 ChatGPT 内置的安全防护机制,使攻击持续存在。ChatGPT 的 url_safe 功能原本用于阻止恶意链接,但研究人员发现可以借助 Bing.com 的可信跟踪链接规避检查,从而在后台秘密发送用户隐私数据。此外,通过一种名为“对话注入”(Conversation Injection)的技术,攻击者可以让 AI 将恶意指令写入自己的工作记忆中,并利用代码块显示漏洞将其隐藏,使用户完全无法察觉。最具破坏性的是“记忆注入”(Memory Injection)漏洞,这一问题允许攻击者将恶意内容直接写入用户的持久记忆系统,也就是跨对话存储的私有数据。这样一来,即便用户关闭聊天或更换话题,这段被污染的“记忆”依旧会被调用,每次与 ChatGPT 交互时都可能泄露数据或执行潜在指令,形成持续性威胁。
这些漏洞均已在 ChatGPT 4o 和 GPT-5 中得到验证。Tenable Research 已将相关问题通报给 OpenAI,后者正在进行修复。不过,Prompt Injection 被普遍认为是大型语言模型面临的系统性挑战之一,目前尚无完全防御方案。DryRun Security 首席执行官 James Wickett 在接受 Hackread.com 采访时指出,提示注入已成为 LLM 应用中最主要的安全风险之一。他表示:“最近的研究表明,攻击者只需在链接、Markdown、广告或记忆中埋入指令,就能让模型执行原本不该执行的行为。”他进一步强调,这种风险不仅影响 OpenAI,也威胁所有使用生成式 AI 的企业系统。“即便是 OpenAI 自身也无法完全阻止这些攻击,这足以说明问题的严重性。企业应当认识到,传统的代码扫描手段无法防御上下文层面的攻击,AI 安全必须转向对代码和运行环境同时进行分析的全新防御体系。”

安全圈

网罗圈内热点 专注网络安全
实时资讯一手掌握!
好看你就分享 有用就点个赞
支持「安全圈」就点个三连吧!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.