网易首页 > 网易号 > 正文 申请入驻

把它「画」进隐空间!新框架RoT探索大模型隐空间推理新范式

0
分享至



在 LLM 时代,思维链( CoT)已成为解锁模型复杂推理能力的关键钥匙。然而,CoT 的冗长问题一直困扰着研究者——中间推理步骤和解码操作带来了巨大的计算开销和显存占用,严重制约了模型的推理效率。

为了解决这个问题,研究界近期尝试了「隐式 CoT」(Implicit CoT),即让模型在内部隐状态中完成推理,而不输出具体的文本。这种方法虽然快,但却是个「黑盒」:我们无法知道模型到底想了什么,也难以进行监督。

有什么方案既保证推理速度快,又使得过程可分析,还无需昂贵的预训练?

针对这一挑战,腾讯内容服务部 BAC 联合清华大学与北京大学,提出了一种名为Render-of-Thought (RoT)的新框架。RoT 的核心思想非常巧妙:利用多模态模型(VLM)已有的视觉编码器作为「语义锚点」,将文本推理步骤「渲染」为图像的视觉嵌入(Visual Embeddings)。

这种方法不仅将推理过程压缩到了致密的视觉潜空间中,还通过视觉渲染让隐式推理过程变得可分析且可追踪。



  • 论文标题:Render-of-Thought: Rendering Textual Chain-of-Thought as Images for Visual Latent Reasoning
  • 论文地址:https://arxiv.org/abs/2601.14750
  • Github 地址:https://github.com/TencentBAC/RoT
  • Huggingface地址:https://huggingface.co/collections/TencentBAC/rot

显式太慢,隐式太黑盒?

RoT 走出第三条路

显式 CoT (Explicit CoT):让模型把每一步推理都写出来,就像学生做数学题写步骤一样。生成几百个 Token 的中间步骤不仅费时,还极其消耗显存。

隐式 CoT (Implicit CoT):模型直接在内部隐状态中进行推理,不输出具体文本。这种方式就像把思考过程扔进了一个「黑箱」,缺乏中间过程的监督。

Render-of-Thought (RoT):另辟蹊径,把「思考」变成了「作画」。利用视觉信息的高密度特性,将冗长的文本压缩成紧凑的视觉向量。这不仅有迹可循,还大幅提升了推理速度。



拒绝「黑盒」:

让隐式推理「看得见、摸得着」

RoT 是一种将文本思维链通过光学渲染(Optical Rendering)和视觉知识蒸馏转化为紧凑视觉表征的新范式。

与以往需要从头学习「推理 Token」的隐式方法不同,RoT 直接利用了现有 VLM(如 Qwen-VL, LLaVA)中冻结的视觉编码器。通过将 LLM 的隐状态与渲染文本的视觉嵌入对齐,RoT 实现了即插即用(Plug-and-Play),无需额外的预训练开销。渲染方案将文本推理步骤转化为单行图像,隐空间推理方法通过投影头将 LLM 生成的隐状态与视觉特征对齐。

为了适应自回归思维链的序列化建模,研究团队摒弃了固定尺寸的图像渲染方案,采用了单行图像渲染。该策略可以根据文本长度动态修改所需的图像宽度。此外,单行的渲染方式确保图像的 Patch 严格按照从左到右的方式提取,自然地将视觉序列与文本顺序对齐。



移花接木的艺术:

两步训练实现「降维打击」

RoT 的实现过程主要分为两个阶段,旨在逐步将 LLM 的离散推理能力转化为连续的视觉隐空间推理能力。

阶段一:视觉对齐 (Visual Alignment)

这一阶段冻结了 LLM 和视觉编码器,仅训练一个轻量级的「视觉投影头」(Visual Projection Head)。目标是将 LLM 的文本隐状态映射到由视觉编码器提取的「渲染 CoT 图像」的特征空间上。





此外,在第一阶段中,为了使模型与所提出的推理模式保持一致,同时对<|img_end|>这一 special token 和答案的交叉熵损失进行了建模:





阶段二:潜在监督微调 (Latent Supervised Fine-Tuning)

在对齐之后,第二阶段通过 LoRA 微调 LLM,并且冻结已经训练对齐的投影头。此时,模型不再生成文本 Token,而是自回归地生成一串连续的「潜在视觉 Token」(Latent Visual Tokens)。这些 Token 在隐空间中模拟了视觉编码器的输出,最终引导模型解码出正确的文本答案。



推理与解码策略

推理过程要求模型自主地从连续的潜在推理空间导航到离散的文本解空间。研究团队探索了两种方案:基于 Special Token 的动态终止策略以及固定 Token 预算的静态终止策略。

  • 基于 Special Token 的动态终止策略







  • 固定 Token 预算的静态终止策略

该策略将潜在思维链的长度限制为一个固定的超参数。达到这个阈值时,会手动添加<|img_end|>这一 special token,以触发从潜在推理到文本生成的转换。

研究团队在实验中发现,动态终止策略的性能明显低于固定 Token 预算策略。这种性能差距可能源于连续潜空间中自我调节停止机制的内在不稳定性。在生成潜空间推理嵌入时,隐藏状态可能无法始终如一地为终止标记生成高置信度的预测,从而导致过早或延迟的转换,破坏推理流程。

此外,采用固定 Token 预算策略时,每个数据集的最优 Token 预算各不相同。在 GSM8k-Aug 数据集上,32 个 Token 能实现最佳性能,而 MATH 数据集则需要 64 个 Token 才能达到峰值准确率。研究者推测这种差异的出现是因为 MATH 数据集更具挑战性,需要更长的推理链。



实测数据说话:

推理速度「狂飙」

研究团队在 GSM8k、MATH、SVAMP 等多个数学和逻辑推理基准上对 RoT 进行了广泛测试。实验基于 Qwen3-VL 和 LLaVA-V1.6 等主流架构。

  • 显著的压缩与加速:相比于显式 CoT,RoT 实现了 3-4 倍的 Token 压缩率。在推理速度上,RoT 展现出了巨大的优势。例如在 Qwen3-VL-4B 模型上,Pass@1/#L(准确率与长度比)指标显著优于基线。



  • 优于现有的隐式推理方法:与 Coconut、CoLaR 等最新的隐式推理方法相比,RoT 在准确率上表现出色。特别是在 MultiArith 数据集上,RoT (Qwen3-VL-4B) 达到了 97.2% 的准确率,显著优于同等规模下其他隐空间推理方案。





  • 隐空间推理的可分析性:RoT 的一大亮点在于其可分析性。由于隐状态被对齐到了视觉空间,可以通过热力图(Heatmap)等来观察模型的「思考过程」。研究团队展示了 MATH 数据集的一个案例。可以看到,生成的潜在 Token 呈现出明显的结构化模式,Token 相似度矩阵显示了推理的阶段性。这证明模型并非在随机生成向量,而是在进行有逻辑的隐式推理。



单行渲染 vs. 多行渲染

在 RoT 中,传统的固定尺寸的多行渲染会导致文本在图像中频繁换行。对于模型来说,这种换行在视觉空间中引入了不必要的「空间跳跃」,打断了语义的连续性。

为了验证这一点,研究团队对比了「固定尺寸的多行渲染图像」与 RoT 文中使用的「单行动态宽度图像」。



如上图所示,单行渲染相比多行渲染收敛更快,同时能够更好地契合语言模型从左到右的序列生成特性。

两阶段训练缺一不可

为了评估渐进式训练策略的效果,研究团队分别对每个阶段进行独立消融实验。

去除第一阶段会导致 MATH 的准确率从 33.2% 降至 22.2%,表明视觉对齐对于构建潜在空间结构以及在复杂任务中防止表示坍缩至关重要。同样,排除第二阶段也会导致性能显著下降,这会导致模型难以从连续的潜在空间中推导出最终答案。



展望

Render-of-Thought 提出了一种极具前景的「视觉化思维」范式。它打破了文本模态的限制,利用视觉信息的高密度特性来压缩推理过程。

这项工作不仅大幅提升了推理效率,更重要的是,它通过「将思维渲染为图像」这一直观的想法,为理解大模型神秘的内部隐空间提供了一扇新的窗口。对于未来在端侧设备等资源受限场景下部署强推理模型,RoT 提供了一条切实可行的技术路径。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
我赌气去给男闺蜜庆生,发照挑衅老公,那晚景象让我看的全身发麻

我赌气去给男闺蜜庆生,发照挑衅老公,那晚景象让我看的全身发麻

千秋文化
2026-01-19 19:14:28
做完手术人就废了,这5种手术不需要做,别让无知害了自己

做完手术人就废了,这5种手术不需要做,别让无知害了自己

华庭讲美食
2026-01-19 14:27:13
国台办果然没看错,郑丽文真面目被彻底揭露!小算盘到此为止了

国台办果然没看错,郑丽文真面目被彻底揭露!小算盘到此为止了

比利
2026-01-23 12:41:53
一旦台海爆发战事,我军面临的大麻烦是:无法摧毁台军指挥系统?

一旦台海爆发战事,我军面临的大麻烦是:无法摧毁台军指挥系统?

清欢百味
2026-01-24 00:34:07
5499元!天猫苹果旗舰店iPhone Air手机跳水大减价

5499元!天猫苹果旗舰店iPhone Air手机跳水大减价

IT之家
2026-01-23 22:55:07
英国教授认为,中国崛起是必然的,因为中国并非真正意义上的国家

英国教授认为,中国崛起是必然的,因为中国并非真正意义上的国家

丞丞故事汇
2026-01-24 02:00:24
自慰全球比例最高:中国人无处安放的性需求

自慰全球比例最高:中国人无处安放的性需求

书画艺术收藏
2026-01-22 19:30:05
上海男篮4连胜,排名暂时升至第2 弗格36分梦回巅峰 主力保存体能

上海男篮4连胜,排名暂时升至第2 弗格36分梦回巅峰 主力保存体能

替补席看球
2026-01-23 21:28:34
超级工程,我国一旦全面完成,中国军队将处于世界顶峰

超级工程,我国一旦全面完成,中国军队将处于世界顶峰

阿钊是个小小评论员
2026-01-21 02:56:13
特朗普:已撤回对加拿大总理卡尼加入“和平委员会”的邀请;卡尼公开强调加拿大“并非因美国才存在”

特朗普:已撤回对加拿大总理卡尼加入“和平委员会”的邀请;卡尼公开强调加拿大“并非因美国才存在”

鲁中晨报
2026-01-23 11:03:11
为什么全国人民都在拒接电话?连10086打来也是瞄一眼就挂掉了!

为什么全国人民都在拒接电话?连10086打来也是瞄一眼就挂掉了!

今朝牛马
2026-01-08 16:05:10
法国退出北约,动议已提交给法国议会!

法国退出北约,动议已提交给法国议会!

达文西看世界
2026-01-18 17:30:27
90后产妇生娃时遇上"生理需求",男医生:见怪不怪,现场解决

90后产妇生娃时遇上"生理需求",男医生:见怪不怪,现场解决

大果小果妈妈
2026-01-15 20:13:44
李亚鹏曝明星捐赠名单!邓超胡军百万,杨恭如千万,王菲超3000万

李亚鹏曝明星捐赠名单!邓超胡军百万,杨恭如千万,王菲超3000万

小郑说史
2026-01-23 12:13:01
1936 钱壮飞乌江失踪成谜,寻 50 年 1986 金沙县考证结局唏嘘

1936 钱壮飞乌江失踪成谜,寻 50 年 1986 金沙县考证结局唏嘘

磊子讲史
2026-01-08 15:47:38
中纪委打虎!国务院部委管理的国家局一把手落马,今年已经打下4虎

中纪委打虎!国务院部委管理的国家局一把手落马,今年已经打下4虎

上海法治声音
2026-01-22 14:26:29
全麻手术能让多少人身败名裂?都说让你们别玩太花,这下翻车了吧

全麻手术能让多少人身败名裂?都说让你们别玩太花,这下翻车了吧

夜深爱杂谈
2026-01-23 18:13:14
程序员猝死反转!妻子拿了钱,事后倒打一耙,难怪很难认定是工伤

程序员猝死反转!妻子拿了钱,事后倒打一耙,难怪很难认定是工伤

阿纂看事
2026-01-23 15:55:20
国家下狠手了!体制内大地震,少爷、公主们的“天”,要塌了

国家下狠手了!体制内大地震,少爷、公主们的“天”,要塌了

霹雳炮
2026-01-19 22:24:13
年薪400万银行高管被曝“失联”,官方暂未回应,反腐猜测四起

年薪400万银行高管被曝“失联”,官方暂未回应,反腐猜测四起

老猫观点
2026-01-20 08:04:27
2026-01-24 03:03:00
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12179文章数 142548关注度
往期回顾 全部

科技要闻

TikTok守住了算法"灵魂" 更握紧了"钱袋子"

头条要闻

疑在达沃斯受挫 79岁的特朗普转发超80条帖子发泄怒气

头条要闻

疑在达沃斯受挫 79岁的特朗普转发超80条帖子发泄怒气

体育要闻

杜兰特鏖战44分钟累瘫 轰36+7却致命失误

娱乐要闻

演员孙涛澄清闫学晶言论 落泪维护妻子

财经要闻

2026年,消费没有新故事?

汽车要闻

主打家庭大六座 奕境首款SUV将北京车展亮相

态度原创

本地
游戏
亲子
旅游
公开课

本地新闻

云游中国|格尔木的四季朋友圈,张张值得你点赞

没有鼠群了!《瘟疫传说》新作回归15年前

亲子要闻

“一个桃就拐走了!”宝妈在水果店频频拒绝女儿,评论区太真实!

旅游要闻

北京世园“天宫灯会”正式开幕,持续至3月8日

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版