哈喽,大家好,我是小方,今天,我们主要来看看,麻省理工的一项新研究,是不是真的让我们离“会思考”的AI更近了一步。
![]()
![]()
![]()
![]()
![]()
麻省理工学院CSAIL实验室的研究者们换了个角度,他们的想法很直接:既然让AI一次性“吃下”整本书会消化不良,那为什么不给它一个“图书馆通行证”,让它自己走进去查资料、做笔记、分章节阅读呢?这就是他们提出的“递归语言模型”核心。
![]()
![]()
![]()
![]()
更重要的是,它巧妙地绕开了模型本身的输出长度限制,传统模型回答一个问题,生成几百几千字就到头了,但RLM可以把每一步的分析结果,都作为变量储存在编程环境里,最后拼接成一个结构化的、可能长达数万字的完整报告输出,这意味着,AI的“产出”能力不再受其“嘴巴”的大小限制,而是取决于其“大脑”的规划。
![]()
MIT的这项研究,可以看作是近期AI发展思潮转变的一个具体缩影,近一个月来,从硅谷到国内的顶尖实验室,讨论的焦点逐渐从“如何把模型做得更大”,转向了“如何让模型用得更巧”。
![]()
就在上个月,国内一家领先的AI公司也发布了一项相关技术报告,他们通过让大模型学习在复杂指令中自动编排和调用一系列专用工具,在多项需要多步推理的数学和代码任务上,取得了显著超越纯语言模型的成绩。
![]()
这背后的共识越来越清晰:通向更高级AI的道路,可能不在于无限堆叠参数,而在于构建更精妙的“脑内工作流”。让AI学会“主动思考”,本质是赋予它自主使用工具、管理记忆、分解任务的能力,麻省理工的RLM,正是将“递归”、“工具使用”和“外部记忆”这几个关键模块系统化整合的一次成功尝试。
![]()
技术的演进往往不是突然的爆炸,而是一系列关键拼图的接连就位,递归语言模型的思路,为我们打开了一扇新的窗户:真正的智能或许不在于知道所有答案,而在于懂得如何高效、主动地去寻找答案。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.