哈喽,大家好,杆哥这篇评论,主要来分析MIT捅破AI天花板:不用堆GPU,让模型“返工”就变强
你有没有过这样的经历?让AI处理一篇长文档,结果它越读越迷糊,给出的答案牛头不对马嘴。
这个被学术界称为“上下文腐化”的AI通病,终于被麻省理工学院(MIT)破解。
![]()
2025年12月31日,MIT发布重磅论文《Recursive Language Models》,提出的递归语言模型(RLM),用“让AI返工”的简单思路,实现了效果的飞跃。
痛点直击:AI不是不聪明,是记性太差
长期以来,行业默认的AI升级路径是堆参数、加显卡。但这根本解决不了核心问题——大模型的“记性”不行。
![]()
这可以用“上下文窗口”来理解。哪怕是最先进的GPT-5,上下文窗口也仅能容纳27万个token(约20万字中文)。更关键的是,即便在这个范围内,模型表现也会随输入变长急剧下降。
![]()
给它8000个token时表现优异,8万个token就开始迷糊,到27万个token直接胡说八道。就像让一个人记住整本百科全书再答题,信息太多根本理不清。
![]()
天才思路:把资料放进“抽屉”,不用硬记
MIT的解决方案颠覆了传统思路:不把超长资料直接塞进AI“脑子”,而是放在外部“抽屉”里,让AI用代码按需查找。
![]()
RLM的核心逻辑是给AI配备Python编程环境,将超长文档存为变量。
![]()
AI不再逐字通读,而是通过代码操作文档——用代码查长度、搜关键词,甚至把复杂问题拆分成小任务,召唤“分身”(递归调用自身)同步处理,最后汇总答案。
![]()
这就像给学生配了目录和搜索引擎,不用硬啃整本书,只需针对性查找重点,效率和准确率大幅提升。
![]()
效果震撼:1000万token稳得住,成本还更低
![]()
论文中的实验数据极具说服力。在超长文档理解测试中,GPT-5基座模型准确率仅44%,而RLM达到56.5%;CodeQA任务中,RLM准确率从24%飙升至62%,提升2.7倍。
当文档长度突破1000万token(相当于几十本书),GPT-5直接崩盘,RLM却能稳定输出。
![]()
更惊喜的是成本,在BrowseComp-Plus测试中,GPT-5-mini处理600万-1100万token需1.5-2.75美元,RLM平均仅0.99美元。
行业转折:AI升级不用再“拼硬件”
![]()
MIT的研究打破了“参数越大越聪明”的固有认知,证明通过优化处理逻辑,不用堆砌GPU也能让AI变强。这种“返工”机制,本质是让AI拥有了类似人类的思考习惯——反复推敲、拆分任务。
![]()
目前X平台多位行业大佬已为这项研究点赞。随着RLM技术落地,未来AI处理无限长文档将成为可能,在法律、科研等长文本领域的应用前景广阔。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.