网易首页 > 网易号 > 正文 申请入驻

最具争议性研究:大模型中间层输出可 100% 反推原始输入

0
分享至


大数据文摘受权转载自AI科技评论

作者丨郑佳美

编辑丨马晓宁

最近,一篇名为《Language Models are Injective and Hence Invertible》的论文在学术界和科技圈引起了广泛讨论,甚至连老马的 Grok 官方也下场转发。


这篇论文出自意大利罗马第一大学(Sapienza University of Rome)的GLADIA Research Lab,文中提出了一个颇有争议却又耐人寻味的观点:主流的 Transformer 语言模型在信息处理过程中几乎不会丢失任何输入内容,从数学意义上看,它们是可逆的。

换句话说,模型的隐藏状态并不是模糊的语义压缩,而是一种能够完整保留输入信息的精确重编码。这一发现不仅挑战了人们对语言模型“理解”机制的传统认识,也让研究者开始思考一个更具体的问题:这种理论上的信息保持,在实际模型中是否真的存在?

为了回答这一问题,作者设计并实施了一系列大规模实验,试图从实证角度验证 Transformer 的可逆性与单射特性。


01

Transformer 几乎不会丢失信息

这篇论文的核心实验结果指出:主流 Transformer 语言模型在实际应用中几乎总是单射的(injective),即不同的输入文本会被映射到完全不同的隐藏状态表示,没有发生任何“碰撞”现象。


研究者在六个主流模型(GPT-2、Gemma-3、LLaMA-3.1、Mistral、Phi-4 和 TinyStories)上进行了超过50 亿次输入对比测试,在所有模型的各个层中都未发现两条不同输入对应相同隐藏表示的情况,验证了模型在理论上所具备的单射性在实践中同样成立。


此外,作者提出的SIPIT(Sequential Inverse Prompt via Iterative Updates)算法成功地从模型的隐藏状态中以 100% 准确率重建了原始输入文本,并且在运行效率上显著优于传统方法。

无论是自然语言文本还是代码样本,SIPIT 都能在理论保证的线性时间内完成精确恢复。这一结果表明,Transformer 模型不仅在数学上是信息保持的系统,在实际训练与推理中也确实保留了输入的全部信息,验证了语言模型的可逆性与结构性无损特征。


02

Transformer 的自我验证

这项研究的实验经过分为两个主要阶段:首先通过大规模实验验证 Transformer 模型在实践中是否真的具备单射性,其次通过新的算法验证模型是否能够被完全反演。整个实验设计严密、层层递进,目的是从理论和实证两个层面证明语言模型不会丢失输入信息。


在实验准备阶段,研究团队选择了六种具有代表性的语言模型,包括 GPT-2、Gemma-3、LLaMA-3.1、Mistral、Phi-4-mini 和 TinyStories。这些模型涵盖了不同规模与训练方式的 Transformer 架构。

为了保证实验的全面性,研究者从多个语料库中抽取样本数据,包括 Wikipedia、C4、The Pile 以及 GitHub 上的 Python 代码数据,共计十万条输入样本,内容既包含自然语言文本,也包含编程语言代码。所有模型均在统一的硬件和软件环境下运行,确保实验结果可复现且无外部干扰。


实验的第一部分旨在检验模型是否真的对不同输入保持区分能力。研究者将每一条输入依次输入模型,提取各层中最后一个 token 的隐藏状态,并计算所有样本两两之间的欧氏距离。

如果出现距离小于 10⁻⁶ 的情况,就意味着模型把两个不同输入映射到了几乎相同的表示上,即发生“碰撞”。经过超过五十亿次样本对比,结果显示无论模型规模或层数,所有隐藏状态之间的最小距离都远高于这一阈值,没有出现任何碰撞现象。

进一步的测试中,研究者挑选出十条语义最相近的样本,针对这些样本生成全部可能的组合输入,并计算了超过三千亿对比样本的结果。即便在这样极端的条件下,模型仍未出现任何隐藏状态重合的情况。

这表明,Transformer 模型在实际运行中确实能保持输入信息的唯一性。


第二部分实验验证模型是否具有可逆性,即能否从隐藏状态恢复出原始输入文本。研究者提出了一种名为 SIPIT 的新算法,其思想基于 Transformer 的因果结构:第 t 个隐藏状态仅依赖前 t−1 个 token 和当前 token,因此可以从隐藏状态逐步推理出输入序列。

为了验证算法的有效性,研究者仅将隐藏状态作为输入,不提供任何原始文本,让算法从中反推出完整输入。实验结果显示,SIPIT 能在理论保证的线性时间复杂度内,以百分之百的准确率恢复出所有原始输入,并且运行速度显著快于传统的暴力枚举方法。

无论是自然语言文本还是代码数据,算法都能高效、准确地完成输入重建。


在验证模型结构特性的同时,研究团队还分析了训练过程对单射性的影响。他们从数学上证明,梯度下降和随机梯度下降都是可逆的连续变换,每一次参数更新都会保持模型参数分布的绝对连续性,不会让模型坍缩到非单射状态。

也就是说,Transformer 模型从初始化到训练完成的整个过程中,都能保持这种“信息不丢失”的特征。


总体而言,这一系列实验以严格的理论推导为基础,通过海量数据验证和可逆算法的实践检验,完整地证明了 Transformer 模型在结构上和行为上都是单射的,并且能够被完全反演。实验的全过程充分体现了这一结论的普适性与稳健性,表明语言模型在训练和推理中并不会丢失任何输入信息。

03

突破与质疑并存的「可逆性」研究

更进一步地,这些结果不仅回答了“模型能否保持信息”的问题,也为理解 Transformer 的工作原理提供了新的视角。

从理论上看,这项研究打破了人们长期以来的假设 —— 语言模型在内部会压缩信息,只保留语义层面的抽象特征。研究团队证明,Transformer 实际上是一个信息保持的系统:模型在处理输入时并不会丢失信息,而是以不同的方式对原始内容进行重编码,而非降维或压缩。

换句话说,模型的“理解”不是模糊的抽象,而是一种高度精确的重参数化。这为解释 Transformer 的内部机制提供了新的数学框架,也为研究模型的表示空间结构和上下文依赖关系开辟了方向。

在实践层面,这一发现带来了重要的隐私与安全启示。由于隐藏状态在理论上可以反推出输入文本,模型的中间层输出在性质上几乎等同于原始数据。如果这些表示被存储、传输或共享,可能会导致用户输入信息被间接暴露。

由此,开发者需要更加谨慎地处理模型内部的激活值,重新审视安全接口设计,并在模型压缩或蒸馏过程中考虑可逆性带来的潜在风险。与此同时,该研究也为模型可解释性提供了新的研究思路:通过分析隐藏层信息的重构方式,可以更清晰地理解模型语义抽象的形成过程。

然而,这一结论也在学术界和业界引发了讨论。部分研究者指出,“可逆性”的数学证明并不意味着现实中的模型可以直接恢复输入或提取训练数据。实际的大规模模型受到数值近似、量化误差和随机性等因素影响,难以实现严格意义上的单射性,不同输入仍可能产生相似的内部表示。

因此,即使掌握了中间层激活值,也并不意味着能准确还原原文或绕过安全机制。

研究团队在后续说明中也强调,他们的研究主要旨在从理论角度理解信息流动特征,而非提供可被滥用的攻击途径。其核心目标是加深对语言模型内部机制的认识,并提醒业界在模型开发与部署中加强数据安全和隐私保护。


04

GLADIA Research Lab 是谁

这个 2025 年 5 月份才注册 的神秘机构 GLADIA Research Lab 是意大利罗马第一大学计算机科学系下的一个前沿人工智能研究团队。

官方信息显示,GLADIA Research Lab 目前共有 39 名研究人员,成员来自计算机科学、物理学、工程学和数学等多个学科。实验室专注于探索人工智能系统的结构创新与高效复用,其核心研究方向涵盖模型合并与操控、无需额外训练的模型拼接、多模态学习,以及神经网络的重用与组合性。


而 GLADIA Research Lab 的研究愿景,是让人工智能模型的开发与组合变得更加高效与灵活,他们希望把“构建一个新模型”的周期,从过去的几个月缩短到几秒钟。

这个团队近段时间也在国际顶级学术会议上频频亮相,例如在ICML 2025CVPR 2025上展示了关于模型合并与任务干扰优化的研究成果,展现出他们在模型融合和生成式人工智能领域的创新实力与前沿地位。

除了模型结构方面的研究,GLADIA 还在探索生成模型的更广泛应用。他们尝试将 AI 的能力延伸到音乐创作、多模态内容生成等更具创造性的方向,希望推动人工智能从“计算工具”迈向“创意伙伴”,在艺术与认知交汇处开拓新的可能性。

GPU 训练特惠!

H100/H200 GPU算力按秒计费,平均节省开支30%以上!

扫码了解详情☝

点「赞」的人都变好看了哦!

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
违反“限高令”25次乘机出国高消费,被执行人因拒执罪入刑

违反“限高令”25次乘机出国高消费,被执行人因拒执罪入刑

南方都市报
2026-01-26 11:17:15
为何欧盟接受了乌克兰的所有要求?

为何欧盟接受了乌克兰的所有要求?

高博新视野
2026-01-26 18:43:00
快船126-89篮网!无解的不是大胜,而是泰伦卢对伦纳德哈登的评价

快船126-89篮网!无解的不是大胜,而是泰伦卢对伦纳德哈登的评价

鱼崖大话篮球
2026-01-26 16:19:21
2026年:一匹狼临死前放下藏了7年的东西,让两亿人泪崩

2026年:一匹狼临死前放下藏了7年的东西,让两亿人泪崩

茉莉聊聊天
2026-01-18 09:05:09
围标串标!陕西直升机股份有限公司被全军采购禁入3年

围标串标!陕西直升机股份有限公司被全军采购禁入3年

齐鲁壹点
2026-01-26 18:06:15
“后坐力”太大!闫学晶又被爆出猛料,她和儿子已经一个也跑不了

“后坐力”太大!闫学晶又被爆出猛料,她和儿子已经一个也跑不了

来科点谱
2026-01-22 08:53:11
人形机器人量产前夜,确定性最大的环节,是这4家减速器厂商!

人形机器人量产前夜,确定性最大的环节,是这4家减速器厂商!

小白鸽财经
2026-01-25 20:30:02
支持率暴跌后,高市这下慌了,日本商界发声:绝不能离开中国

支持率暴跌后,高市这下慌了,日本商界发声:绝不能离开中国

刘森森
2026-01-26 17:09:44
43岁张杰正式宣布退出!原因令人意外,周深的天终于亮了

43岁张杰正式宣布退出!原因令人意外,周深的天终于亮了

冷紫葉
2026-01-26 18:12:36
国补后3999元起!史上最便宜iPhone悄悄上架 连发布会都直接省了

国补后3999元起!史上最便宜iPhone悄悄上架 连发布会都直接省了

小柱解说游戏
2026-01-24 02:11:35
“治港败类”曾荫权:治理香港7年,为何却在卸任后,获刑20个月

“治港败类”曾荫权:治理香港7年,为何却在卸任后,获刑20个月

卷史
2025-09-15 11:50:59
徐冬冬和伊子维为椰树做宣传,网友的评论区笑翻了

徐冬冬和伊子维为椰树做宣传,网友的评论区笑翻了

素素娱乐
2026-01-26 09:31:00
要开始了!伊朗,在劫难逃了!

要开始了!伊朗,在劫难逃了!

大嘴说天下
2026-01-25 19:59:24
“火烈鸟”导弹4发全中!空袭力度加强,俄军对地攻击导弹疑不足

“火烈鸟”导弹4发全中!空袭力度加强,俄军对地攻击导弹疑不足

鹰眼Defence
2026-01-26 17:27:05
猪油再次被关注!医生发现:高血压患者常吃猪油,或出现几种变化

猪油再次被关注!医生发现:高血压患者常吃猪油,或出现几种变化

蜉蝣说
2026-01-25 17:41:32
蒙古国首都骚乱再起,社会矛盾愈发尖锐,反华到底图啥

蒙古国首都骚乱再起,社会矛盾愈发尖锐,反华到底图啥

素衣读史
2026-01-24 17:12:53
地下六合彩赌徒,猝死于中奖43万那晚 | 人间

地下六合彩赌徒,猝死于中奖43万那晚 | 人间

网易人间
2026-01-26 14:08:25
古巴人饿了,就有人给粮食,我不理解,没有战争,没有内乱

古巴人饿了,就有人给粮食,我不理解,没有战争,没有内乱

忠于法纪
2026-01-26 18:44:10
快船15胜3负!伦纳德谈球迷将直播“吃推”:换点别的东西吃吧

快船15胜3负!伦纳德谈球迷将直播“吃推”:换点别的东西吃吧

北青网-北京青年报
2026-01-26 20:30:03
1958年,毛主席批评周总理“离右派剩50米”,不久后总理提出辞职

1958年,毛主席批评周总理“离右派剩50米”,不久后总理提出辞职

海佑讲史
2026-01-26 07:45:05
2026-01-26 21:15:00
大数据文摘 incentive-icons
大数据文摘
专注大数据,每日有分享!
6821文章数 94528关注度
往期回顾 全部

科技要闻

印奇再上牌桌,阶跃融资50亿

头条要闻

德国防长建议特朗普道歉 但暗示并不真抱希望

头条要闻

德国防长建议特朗普道歉 但暗示并不真抱希望

体育要闻

叛逆的大公子,要砸了贝克汉姆这块招牌

娱乐要闻

张雨绮被实名举报代孕、插足婚姻

财经要闻

从美式斩杀线看中国社会的制度韧性构建

汽车要闻

宾利第四台Batur敞篷版发布 解锁四项定制创新

态度原创

数码
本地
房产
健康
公开课

数码要闻

技嘉发布水冷AI服务器XN24 - VC0 - LA61

本地新闻

云游中国|格尔木的四季朋友圈,张张值得你点赞

房产要闻

突发!三亚官宣,调整安居房政策!

耳石脱落为何让人天旋地转+恶心?

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版