哈喽,大家好,杆哥这篇评论,主要来分析MIT新模型颠覆AI格局:“套娃”模式淘汰传统推理,成本大降
2026年1月4日,MIT一篇重磅论文引发AI圈震动。
![]()
被誉为推理模型“扛把子”的GPT-5,被一种名为“套娃模型”的新范式打了个措手不及,不仅上下文窗口被甩出两个数量级,还解决了长文本处理的“上下文腐烂”难题,关键成本还大幅降低。
![]()
这种被正式命名为递归模型的新架构,被预言将成为今年AI领域的主流。
核心突破:用代码“套娃”,重构AI处理逻辑
![]()
递归语言模型(RLM)彻底抛弃了传统模型将长文本直接输入神经网络的做法,转而采用“环境化”处理范式。
其核心逻辑是引入外部Python REPL环境,把超长文本存为静态字符串变量。
![]()
此时的大模型不再一次性编码所有信息,而是化身拥有读写权限的“执行者”,通过生成和执行Python代码操作外部变量。
最关键的“套娃”机制的在于递归调用:模型可通过代码启动自身新实例,将长文本切割后分配给子模型处理,子结果存入环境变量,再由主模型整合,全程不超自身上下文窗口限制。
![]()
成本优势:打破线性规律,落地更可行
![]()
RLM的按需读取策略,改变了“上下文越长成本越高”的线性规律。在BrowseComp-Plus基准测试中,GPT-5-mini处理600万至1100万Token的理论成本为1.50至2.75美元,而RLM平均实际花费仅0.99美元。
![]()
这一成本不仅低于全量阅读的基础模型,也优于压缩上下文的Summary Agent方案,为长文本应用大规模落地提供了经济可行的路径。
团队背景:MIT博士生领衔,阵容实力雄厚
![]()
该论文第一作者为MIT CASIL实验室博士生Alex Zhang,他本科毕业于普林斯顿计算机科学系,且以第一名成绩毕业,研究方向涵盖语言模型评估、GPU编程等。
![]()
另外两位署名者Omar Khattab和Tim Kraska均为Alex的导师,两人均为MIT助理教授。论文已发布于arXiv平台,地址为
。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.