您与 AI 助手(如 ChatGPT 和 Google Gemini)的对话可能并不像您想的那样私密。微软揭示了驱动这些 AI 服务的大型语言模型(LLMs)中的一个严重缺陷,可能会暴露您与它们对话的内容。研究人员把这个漏洞称为“低语泄露”,并发现它影响几乎所有他们测试的模型。
当您与内置于主要搜索引擎或应用程序中的 AI 助手聊天时,信息是通过 TLS(传输层安全协议)保护的,这和在线银行使用的加密是一样的。这些安全连接阻止潜在的窃听者看到您输入的内容。然而,微软发现元数据(您的消息在互联网上传输的方式)仍然可以被看到。低语泄露并没有破解加密,但它利用了加密无法隐藏的信息。
测试大型语言模型
在发布于arXiv预印本服务器的研究中,微软研究人员解释了他们如何测试28个大型语言模型以寻找这种脆弱性。首先,他们创建了两组问题。一组是关于一个敏感话题(如洗钱)的多种提问方式,另一组则是成千上万的随机日常查询。然后,他们秘密记录了每个网络的数据传输节奏。这指的是数据包的大小(发送的数据块)和时机(一个数据包发送与另一个数据包到达之间的延迟)。
接下来,他们训练了一个AI程序,仅通过数据传输节奏来区分敏感话题和日常查询。如果AI能够在不读取加密文本的情况下成功识别敏感话题,这将表明存在隐私问题。
在大多数模型中,AI的对话主题猜测准确率超过了98%。即使在每10,000次对话中只有1次敏感对话,该攻击也能100%识别出来。研究人员测试了三种不同的防御方法,但没有一种能完全阻止这些攻击。
防止泄漏
根据团队的说法,问题不在于加密本身,而在于如何传输响应。“这不是TLS本身的加密漏洞,而是对TLS固有揭示的加密流量结构和时序的元数据的利用。”
鉴于泄漏的严重性以及攻击的执行难度低,研究人员在他们的论文中明确指出,行业必须保障未来系统的安全。“我们的发现强调了大型语言模型提供者必须解决元数据泄漏的问题,因为人工智能系统处理的信息变得越来越敏感。”
本文由我们的作者 保罗·阿诺德 撰写,加比·克拉克 编辑,罗伯特·伊根 进行事实核查和审阅——这篇文章是经过认真编辑和审核的结果。我们依靠像您这样的读者来支持独立的科学新闻报道。如果您觉得这篇报道重要,请考虑进行 捐赠(特别是每月捐赠)。
了解更多信息: Geoff McDonald 等人,Whisper Leak:对大型语言模型的侧信道攻击方式,arXiv(2025)。 数字对象标识符(DOI):10.48550/arxiv.2511.03675
微软博客:链接为 www.microsoft.com/zh-cn/securi … ote-language-models/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.