![]()
以往的AI更像个“被动应答机”,只懂根据现有信息回复,不会主动追问补充,而近期美国南加州大学、微软公司和加州大学戴维斯分校联合开展的研究,恰恰解决了这个痛点,让大模型学会了主动追问,大幅提升了人机协作的效果。
![]()
![]()
在以往的研究和应用中,大模型的定位更偏向“执行者”,要么是回答用户的事实性问题,要么是根据明确指令生成内容,几乎不参与创造性的信息挖掘过程,哪怕用户的需求模糊、信息不全,它也只会基于现有信息勉强输出,很难产出有深度的结果。
而这项研究最核心的突破,就是引入了主动信息收集的任务范式,让大模型从“被动等待指令”变成了“主动探索信息”,简单来说,就像面试时优秀的面试者会通过追问面试官来展现自身价值、明确岗位需求一样,经过训练的大模型也能在面对模糊提示时,主动识别信息缺口。
![]()
挖掘用户没说出来的隐含需求,这种转变可不是简单的功能升级,而是人机协作逻辑的重构,它让AI不再是单纯的工具,更像一个能平等互动的协作伙伴,这一点尤为重要,因为真正高效的协作从来不是单向的指令下达,而是双向的信息同步。
![]()
要让大模型学会主动追问,关键在于训练方式的创新。研究团队没有采用传统的针对性训练,也就是直接教模型该提什么问题、该要什么答案,用强化学习的方式,培养它的主动思考能力,这种思路就是授人以渔而非授人以鱼,核心是教给模型思考方式,而非具体答案。
![]()
在具体实现上,研究团队做了两个关键设计:一是选择了涵盖25个专业领域、1000多条数据的DOLOMITES数据集进行测试,并通过掩盖关键信息的方式,模拟真实场景中的模糊需求,确保训练的真实性和可学习性;二是设计了独特的奖励机制。
不关注模型提出问题的具体内容,而是奖励提出创造性问题这一行为本身,鼓励模型提出数据中不存在的新问题,为了获取稳定的奖励信号,研究团队还设计了对话模拟引擎,让两个AI互动:一个提出澄清问题,另一个对问题质量和回答有效性打分,以此形成闭环训练。
![]()
这样的训练方式带来了很好的泛化性,在自动评估指标上比基线模型o3-mini提高了18%;在人类评估中,其生成的澄清问题和最终大纲的偏好率分别达到42%和28%,这组数据充分说明,这种训练方式是有效的,模型真正学会了主动发现信息缺口的思考方式,而这种具备泛化性的能力,正是其能在多个领域落地的关键。
![]()
![]()
![]()
总的来说,这项让大模型学会主动追问的研究,不仅实现了技术层面的突破,更重构了人机协作的逻辑,它让我们看到,AI不再是冰冷的工具,而是能主动参与思考、助力创新的协作伙伴,从技术内核来看,“授人以渔”的训练思路,让模型具备了很强的泛化能力。
随着技术的不断完善,相信未来我们和AI的协作会越来越顺畅,更多复杂的创造性任务也能在人机配合下高效完成,而对于我们普通人来说,学会适应这种新型的人机协作模式,也会成为提升自身竞争力的重要方向。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.