网易首页 > 网易号 > 正文 申请入驻

把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

0
分享至



在 LLM 时代,思维链( CoT)已成为解锁模型复杂推理能力的关键钥匙。然而,CoT 的冗长问题一直困扰着研究者——中间推理步骤和解码操作带来了巨大的计算开销和显存占用,严重制约了模型的推理效率。

为了解决这个问题,研究界近期尝试了「隐式 CoT」(Implicit CoT),即让模型在内部隐状态中完成推理,而不输出具体的文本。这种方法虽然快,但却是个「黑盒」:我们无法知道模型到底想了什么,也难以进行监督。

有什么方案既保证推理速度快,又使得过程可分析,还无需昂贵的预训练?

针对这一挑战,腾讯内容服务部 BAC 联合清华大学与北京大学,提出了一种名为Render-of-Thought (RoT)的新框架。RoT 的核心思想非常巧妙:利用多模态模型(VLM)已有的视觉编码器作为「语义锚点」,将文本推理步骤「渲染」为图像的视觉嵌入(Visual Embeddings)。

这种方法不仅将推理过程压缩到了致密的视觉潜空间中,还通过视觉渲染让隐式推理过程变得可分析且可追踪。



  • 论文标题:Render-of-Thought: Rendering Textual Chain-of-Thought as Images for Visual Latent Reasoning
  • 论文地址:https://arxiv.org/abs/2601.14750
  • Github 地址:https://github.com/TencentBAC/RoT
  • Huggingface地址:https://huggingface.co/collections/TencentBAC/rot

显式太慢,隐式太黑盒?

RoT 走出第三条路

显式 CoT (Explicit CoT):让模型把每一步推理都写出来,就像学生做数学题写步骤一样。生成几百个 Token 的中间步骤不仅费时,还极其消耗显存。

隐式 CoT (Implicit CoT):模型直接在内部隐状态中进行推理,不输出具体文本。这种方式就像把思考过程扔进了一个「黑箱」,缺乏中间过程的监督。

Render-of-Thought (RoT):另辟蹊径,把「思考」变成了「作画」。利用视觉信息的高密度特性,将冗长的文本压缩成紧凑的视觉向量。这不仅有迹可循,还大幅提升了推理速度。



拒绝「黑盒」:

让隐式推理「看得见、摸得着」

RoT 是一种将文本思维链通过光学渲染(Optical Rendering)和视觉知识蒸馏转化为紧凑视觉表征的新范式。

与以往需要从头学习「推理 Token」的隐式方法不同,RoT 直接利用了现有 VLM(如 Qwen-VL, LLaVA)中冻结的视觉编码器。通过将 LLM 的隐状态与渲染文本的视觉嵌入对齐,RoT 实现了即插即用(Plug-and-Play),无需额外的预训练开销。渲染方案将文本推理步骤转化为单行图像,隐空间推理方法通过投影头将 LLM 生成的隐状态与视觉特征对齐。

为了适应自回归思维链的序列化建模,研究团队摒弃了固定尺寸的图像渲染方案,采用了单行图像渲染。该策略可以根据文本长度动态修改所需的图像宽度。此外,单行的渲染方式确保图像的 Patch 严格按照从左到右的方式提取,自然地将视觉序列与文本顺序对齐。



移花接木的艺术:

两步训练实现「降维打击」

RoT 的实现过程主要分为两个阶段,旨在逐步将 LLM 的离散推理能力转化为连续的视觉隐空间推理能力。

阶段一:视觉对齐 (Visual Alignment)

这一阶段冻结了 LLM 和视觉编码器,仅训练一个轻量级的「视觉投影头」(Visual Projection Head)。目标是将 LLM 的文本隐状态映射到由视觉编码器提取的「渲染 CoT 图像」的特征空间上。





此外,在第一阶段中,为了使模型与所提出的推理模式保持一致,同时对<|img_end|>这一 special token 和答案的交叉熵损失进行了建模:





阶段二:潜在监督微调 (Latent Supervised Fine-Tuning)

在对齐之后,第二阶段通过 LoRA 微调 LLM,并且冻结已经训练对齐的投影头。此时,模型不再生成文本 Token,而是自回归地生成一串连续的「潜在视觉 Token」(Latent Visual Tokens)。这些 Token 在隐空间中模拟了视觉编码器的输出,最终引导模型解码出正确的文本答案。



推理与解码策略

推理过程要求模型自主地从连续的潜在推理空间导航到离散的文本解空间。研究团队探索了两种方案:基于 Special Token 的动态终止策略以及固定 Token 预算的静态终止策略。

  • 基于 Special Token 的动态终止策略







  • 固定 Token 预算的静态终止策略

该策略将潜在思维链的长度限制为一个固定的超参数。达到这个阈值时,会手动添加<|img_end|>这一 special token,以触发从潜在推理到文本生成的转换。

研究团队在实验中发现,动态终止策略的性能明显低于固定 Token 预算策略。这种性能差距可能源于连续潜空间中自我调节停止机制的内在不稳定性。在生成潜空间推理嵌入时,隐藏状态可能无法始终如一地为终止标记生成高置信度的预测,从而导致过早或延迟的转换,破坏推理流程。

此外,采用固定 Token 预算策略时,每个数据集的最优 Token 预算各不相同。在 GSM8k-Aug 数据集上,32 个 Token 能实现最佳性能,而 MATH 数据集则需要 64 个 Token 才能达到峰值准确率。研究者推测这种差异的出现是因为 MATH 数据集更具挑战性,需要更长的推理链。



实测数据说话:

推理速度「狂飙」

研究团队在 GSM8k、MATH、SVAMP 等多个数学和逻辑推理基准上对 RoT 进行了广泛测试。实验基于 Qwen3-VL 和 LLaVA-V1.6 等主流架构。

  • 显著的压缩与加速:相比于显式 CoT,RoT 实现了 3-4 倍的 Token 压缩率。在推理速度上,RoT 展现出了巨大的优势。例如在 Qwen3-VL-4B 模型上,Pass@1/#L(准确率与长度比)指标显著优于基线。



  • 优于现有的隐式推理方法:与 Coconut、CoLaR 等最新的隐式推理方法相比,RoT 在准确率上表现出色。特别是在 MultiArith 数据集上,RoT (Qwen3-VL-4B) 达到了 97.2% 的准确率,显著优于同等规模下其他隐空间推理方案。





  • 隐空间推理的可分析性:RoT 的一大亮点在于其可分析性。由于隐状态被对齐到了视觉空间,可以通过热力图(Heatmap)等来观察模型的「思考过程」。研究团队展示了 MATH 数据集的一个案例。可以看到,生成的潜在 Token 呈现出明显的结构化模式,Token 相似度矩阵显示了推理的阶段性。这证明模型并非在随机生成向量,而是在进行有逻辑的隐式推理。



单行渲染 vs. 多行渲染

在 RoT 中,传统的固定尺寸的多行渲染会导致文本在图像中频繁换行。对于模型来说,这种换行在视觉空间中引入了不必要的「空间跳跃」,打断了语义的连续性。

为了验证这一点,研究团队对比了「固定尺寸的多行渲染图像」与 RoT 文中使用的「单行动态宽度图像」。



如上图所示,单行渲染相比多行渲染收敛更快,同时能够更好地契合语言模型从左到右的序列生成特性。

两阶段训练缺一不可

为了评估渐进式训练策略的效果,研究团队分别对每个阶段进行独立消融实验。

去除第一阶段会导致 MATH 的准确率从 33.2% 降至 22.2%,表明视觉对齐对于构建潜在空间结构以及在复杂任务中防止表示坍缩至关重要。同样,排除第二阶段也会导致性能显著下降,这会导致模型难以从连续的潜在空间中推导出最终答案。



展望

Render-of-Thought 提出了一种极具前景的「视觉化思维」范式。它打破了文本模态的限制,利用视觉信息的高密度特性来压缩推理过程。

这项工作不仅大幅提升了推理效率,更重要的是,它通过「将思维渲染为图像」这一直观的想法,为理解大模型神秘的内部隐空间提供了一扇新的窗口。对于未来在端侧设备等资源受限场景下部署强推理模型,RoT 提供了一条切实可行的技术路径。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
梦碎!两大名帅放弃争冠,穆里尼奥不败仍难进欧冠,孔蒂或离队

梦碎!两大名帅放弃争冠,穆里尼奥不败仍难进欧冠,孔蒂或离队

嗨皮看球
2026-04-08 16:32:14
上海女牙医移民美国,爱上大13岁华裔老头,恋爱15年后遭老头杀害

上海女牙医移民美国,爱上大13岁华裔老头,恋爱15年后遭老头杀害

大鱼简科
2026-02-10 22:29:17
苹果8号员工干了49年:裁员名单绕着他走,因为赔不起

苹果8号员工干了49年:裁员名单绕着他走,因为赔不起

Ping值焦虑
2026-04-03 09:37:23
深夜突发!霍尔木兹海峡,重大变数

深夜突发!霍尔木兹海峡,重大变数

中国基金报
2026-04-08 23:31:59
黄一鸣回应当老赖:我家2个保姆1个月几万,养5只猫1只狗开支较大

黄一鸣回应当老赖:我家2个保姆1个月几万,养5只猫1只狗开支较大

江山挥笔
2026-04-08 09:26:14
亨利:奥利塞很多时候不是用眼睛在看比赛,而是用脑子在踢球

亨利:奥利塞很多时候不是用眼睛在看比赛,而是用脑子在踢球

懂球帝
2026-04-08 07:43:06
新Apple Watch即将发布,屏幕彻底变大了!

新Apple Watch即将发布,屏幕彻底变大了!

搞机小帝
2026-04-06 20:41:18
碎三观!网传有女生将交往形成“搞钱”模式,网友:小仙女爆雷了

碎三观!网传有女生将交往形成“搞钱”模式,网友:小仙女爆雷了

火山詩话
2026-04-06 10:23:11
国外一对姐弟捉迷藏惨死冰柜中!父母称出门买菜没看住,网友质疑?

国外一对姐弟捉迷藏惨死冰柜中!父母称出门买菜没看住,网友质疑?

英国报姐
2026-04-08 21:08:48
央视曝光新毒物!已流窜到全国,一级致癌超9000多倍,多人已中招

央视曝光新毒物!已流窜到全国,一级致癌超9000多倍,多人已中招

森罗万象视频
2026-04-07 16:53:30
92年,成都军区司令员张太恒去北京开会,却被中央降职调去了南京

92年,成都军区司令员张太恒去北京开会,却被中央降职调去了南京

禾所思
2024-12-30 11:39:32
喜讯!鲁能客场与河南比赛没开踢,韩鹏就将提前打出两张最强底牌

喜讯!鲁能客场与河南比赛没开踢,韩鹏就将提前打出两张最强底牌

振刚说足球
2026-04-08 09:14:55
国家一旦禁了游戏,整个社会立马乱套

国家一旦禁了游戏,整个社会立马乱套

街机时代
2026-04-08 10:00:03
一定要多存钱,存款达到“这个数”,你的家庭就很有底气了,别不信!

一定要多存钱,存款达到“这个数”,你的家庭就很有底气了,别不信!

CG说科技
2026-04-08 18:28:09
第一集就得打码!这部黄暴美剧,终于开播了

第一集就得打码!这部黄暴美剧,终于开播了

来看美剧
2026-04-08 17:02:19
美伊突然停火,出乎所有人意料,特朗普这次算盘打得精

美伊突然停火,出乎所有人意料,特朗普这次算盘打得精

远方风林
2026-04-08 08:22:42
55岁窦唯已迁居阿那亚多年,骑电动车,买菜砍价,生活过得惬意

55岁窦唯已迁居阿那亚多年,骑电动车,买菜砍价,生活过得惬意

书雁飞史oh
2025-09-08 17:38:38
被中年阿姨的“清洁大法”惊到了!不费时费力,家里立马干净如新

被中年阿姨的“清洁大法”惊到了!不费时费力,家里立马干净如新

家居设计师苏哥
2025-12-30 14:40:45
警惕:上了年纪再过性生活,最怕这2点!保护男性精气,做好4点

警惕:上了年纪再过性生活,最怕这2点!保护男性精气,做好4点

周哥一影视
2026-04-08 12:20:15
七旬老太去北京看病,发现医生竟是她在云南当知青时生下的孩子

七旬老太去北京看病,发现医生竟是她在云南当知青时生下的孩子

兰姐说故事
2025-01-16 05:05:03
2026-04-09 03:08:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12712文章数 142618关注度
往期回顾 全部

科技要闻

造出地表最强AI,却死活不给你用!

头条要闻

伊朗武装部队:伊朗对美以绝不信任

头条要闻

伊朗武装部队:伊朗对美以绝不信任

体育要闻

40岁,但实力倒退12年

娱乐要闻

侯佩岑全家悉尼度假,一家四口幸福满溢

财经要闻

天津海河乳业回应直播间涉黄

汽车要闻

20万级满配华为全家桶 华境S是懂家庭的大六座

态度原创

时尚
教育
亲子
本地
公开课

50岁,我妈在恋综抢男人

教育要闻

高考地理|什么是"下击暴流"?

亲子要闻

胡图图说他差几分就能兑换发卡

本地新闻

跟着歌声游安徽,听古村回响

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版