网易首页 > 网易号 > 正文 申请入驻

从「知题」到「知人」:UserRL让智能体学会「以人为本」

0
分享至



“知人者智,自知者明。”——《道德经》

古人早已洞见:真正的人类智慧,不仅仅在于公式推演、掌握技艺,更是能理解他人、洞察人心。今天的大语言模型已能在代码、数学与工具使用上出色地完成任务,然而距离成为真正的用户伙伴,它们依旧缺少那份 “知人” 的能力。这主要源于现实交互远比解题更加复杂:

  • 现实交互中,用户目标常常未在最初完全成形(underspecification)、而是在多轮对话中逐步显露(incrementality)、并且以含蓄 / 间接的方式表达(indirectness)。
  • 在这种不确定、动态、多目标的语境里,模型不止要会解决用户需求,更要主动澄清(clarification)、持续适配(adaptation)、善用工具(tool-use)并做出明智的权衡(decision-making)。

这正是智能体面临的下一个时代课题:从 “会解题” 迈向 “懂用户”。而要真正回答这一课题,我们需要全新的动态评测框架与训练机制:不仅能测量模型在交互中的表现,还能驱动其学会在用户不确定与多目标的世界里,问之有道,断之有衡,答之有据。为此,来自 UIUC 与 Salesforce 的研究团队提出了一套系统化方案:

  • UserBench—— 首次将 “用户特性” 制度化,构建交互评测环境,用于专门检验大模型是否真正 “懂人”;
  • UserRL—— 在 UserBench 及其他标准化 Gym 环境之上,搭建统一的用户交互强化学习框架,并系统探索以用户为驱动的奖励建模。

二者相辅相成,把 “以用户为中心” 从理念落地为可复现的流程、接口与评测指标



  • UserBench 论文链接:https://arxiv.org/pdf/2507.22034
  • UserBench 代码仓库:https://github.com/SalesforceAIResearch/UserBench



  • UserRL 论文链接:https://arxiv.org/pdf/2509.19736
  • UserRL 代码仓库:https://github.com/SalesforceAIResearch/UserRL

UserBench

先把 “用户价值” 量化,才能倒逼智能体进化

核心思想

UserBench 的核心出发点是:真正的智能体价值不在于完成任务本身,而在于是否能够理解用户、服务用户。不同于传统评测大多进行的 “做题比赛”,其通过刻画三类 “用户特征”,并将它们嵌入到可复现的环境与标准化接口之中,从而把 “用户价值” 从抽象理念转化为量化的研究对象。

1. 设计原则

长期以来,智能体的评测大多集中在工具调用与任务完成,但却鲜少触及一个更根本的问题:模型是否真正对齐了用户的潜在与动态意图

UserBench 的设计正是为了解决这一缺口。它把 “用户真实交互三大特征” 作为评测核心:

  • 模糊性(underspecification):用户目标往往并未完整表达;
  • 渐进性(incrementality):意图需要在对话中逐步显露;
  • 间接性(indirectness):用户偏好常常通过隐含线索体现。

在这样的环境里,模型不再是 “照题答题”,而是必须主动追问、澄清约束,并在复杂条件下做出连贯而明智的决策。



UserBench 设计与交互流程示意图

2. 环境与数据构造

UserBench 的标志性设计是旅行规划任务,覆盖五个子场景。每个维度都设置了数十条隐式偏好表述,如 “行程很紧” 暗含 “直飞 / 少中转”,要求模型在与环境中的模拟用户进行交互时,需要理解用户每一句话背后的语义逻辑。同时,环境中内置了稳定数据库后段,并且搜索返回采用了混合式选项进一步增加了模型认知难度:

  • 正确项:完全满足全部偏好;
  • 错误项:违背至少一条偏好;
  • 噪声项:与需求不符或信息缺失。

这使得模型必须学会过滤噪声、权衡约束,而非直接机械化地比对。UserBench 同时也进行了数据难度分层,根据用户偏好的复杂程度涵盖了 Easy/Medium/Hard 三档,这种设计让其既保有真实性(场景、语言与需求均来自真实语料指导下的 LLM 用户模拟),又具备实验可控性。

3. 以工具为界面:标准化交互接口

以往针对模型,用户以及环境的三方交互接口复杂。而在文章中,这种复杂交互被抽象为了三类原语操作

  • Action:与用户对话(澄清、追问、确认偏好);
  • Search:检索数据库(返回混合候选集,模拟真实世界的不完美检索);
  • Answer:提交推荐(直接完成用户需求)。

这三类操作高度浓缩了 “理解 — 检索 — 决策” 的链路,使不同任务可以在同一坐标系下被评估与比较。在 UserRL 训练框架中,这个标准化接口被保留并得以进一步拓展,使模型训练也变得可以自由定制化和拓展。



UserBench 上不同模型主要评测结果以及分析指标

4. 评价指标与关键发现

UserBench 的评分体系兼顾结果与过程:

  • 核心指标:归一化得分。对于每一项旅行需求,在数据库中选到最优解记 1.0;选到正确但次优解记 0.8;其余记 0。在一个问题中用户需求可能会涵盖多个场景(例如交通和酒店住宿),需要被测试模型深入挖掘,理解偏好,再进行判断和抉择。
  • 除此之外,文章还提出了若干过程指标以进行综合分析:
  • Valid Search / Action Attempt:搜索与用户对话操作的有效率;
  • Preference Elicited:偏好在用户交互是否被主动 / 被动引出。

主要结论:模型并非输在 “不会算”,而是常常没能问对问题、没能挖出关键信息。换言之,真正的挑战不是推理链,而是智能体与人的交互中进行有效的 “用户价值” 提炼与捕捉

关键发现

  • 单选比多选难很多:对于每一项旅行需求,如果把模型可回答的次数限制为一次,平均分数下滑约 40%,暴露了 “只能给一次答案” 时的抉择困难
  • 用户偏好揭示率普遍偏低:主流模型仅~20% 的答案完全贴合全部用户意图,即便是强模型,通过主动互动挖掘到的偏好不到 30%,显示了当下模型 “主动问对问题” 能力仍然欠缺。
  • 会用工具 ≠ 真懂用户:模型普遍有效搜索 > 80%,但有效对话显著更低,说明 “循证澄清” 的难度更高。
  • 难点在 “单一维度的偏好多而复杂”:当总偏好数固定时,把偏好更平均地分散到多个旅行需求中更容易,而集中在少数需求上会显著拉低分数,这揭示了本质挑战来自局部约束的组合复杂度
  • 更多对话轮数≠更好表现:盲目拉长交互轮数并不能带来收益;同时,命中答案的 “时效性”(更早给出有效答案)与整体模型对话质量也并不总是正相关:小模型 “早早猜中” 整体也不如大模型的 “稳扎稳打”。



盲目增加交互轮数并不能增强交互质量

UserRL

把 “能测试” 扩展为 “会训练”

核心思想

UserRL 的出发点相比更加直接:在 UserBench 抽象出的三个原语接口之上,构建一个统一的 gym 环境,把 User-in-th-Loop 的多轮交互转化为一个可训练的强化学习问题。这意味着,智能体不再只是完成一次问答,而是要在一个有明确定义的交互环境中,通过多轮对话和工具调用来优化回报。



UserRL 中进行训练的八个用户中心场景设计

1. 八大 Gym Environments:能力光谱的全覆盖

UserRL 对接了八类环境,覆盖从个性化推荐到复杂推理的多维能力:

  • TravelGym:侧重个性化偏好挖掘与多目标权衡;
  • TauGym:强调工具编排与用户任务实现;
  • PersuadeGym:模拟论证与说服场景,关注对抗式对话能力;
  • TurtleGym:创造性推理环境(“海龟汤” 游戏);
  • TelepathyGym:意图猜测与假设检验;
  • FunctionGym:数理模式识别与规律发现;
  • IntentionGym:针对真实场景的意图澄清;
  • SearchGym:外部知识检索与基于检索的问答。

所有环境都统一在Action / Search / Answer的接口下,但考察指标有所差异。这种统一接口 + 多元任务的设计,使得 UserRL 既能横向比较不同方法,又能纵向推动能力迁移。



UserRL 完整训练框架示意图

2. 用户模拟与多轮 Rollout

在每个环境中,用户同样由 LLM 进行模拟,并且可以更换不同用户模拟模型,以实现交互的多样性。UserRL 框架的核心特点包括:

  • 确定性任务状态 + 可验证奖励函数
  • 自然语言互动,保留了动态模拟用户对话的开放性;
  • 多轮 rollout,让模型在交中做出策略性的交互选择。

3. 奖励建模:让过程价值变成可学信号

在 UserRL 中,我们重点探索了双层奖励设计:回合层(Turn-level)以及轨迹层(Trajectory-level)。在回合层中,我们重新映射 Gym 环境在每一轮中反馈的奖励信号,探索了多种方法以区分不同层的重要性:

  • Naive:直接用环境奖励,但往往非常稀疏,在实际环境中并不适合训练。
  • Equalized:为所有回合赋予同样的奖励,确保所有铺垫性动作不被忽视。
  • Reward-to-Go (R2G):把未来的预期奖励收益折扣回流,以体现当前轮次对于未来奖励的价值。



  • Exponential Mapping (EM):对原始奖励做非线性映射,让某些小进展也能带来正反馈奖励信号。



在轨迹层中,我们将每一轮的奖励反馈整合成与用户多轮交互的总体得分,以便于后续适配 GRPO 等下游各种 RL 算法,其中我们主要探索了两种整合方式:

  • Sum:直接累积每回合的奖励,以衡量整体任务完成度。
  • R2G:对早期进展赋予更高价值,更强调任务完成效率。



在实际训练中这两层奖励可以灵活组合以适配不同交互任务。



UserRL 训练主要试验结果

4. 评价指标与关键发现

文章主要采用了GRPO算法进行优化:在同一 query 下采样多条轨迹,组内归一化优势,再结合回合与轨迹奖励进行联合优化。同时,在 RL 训练之前,模型预先进行了 SFT 小规模优化,实验发现 SFT 冷启动能够有效帮助后续 RL 训练。

UserRL 用其中的五个 Gym 的训练集数据进行训练,另外三个 Gym 则作为 OOD 环境进行测试。所有主实验均采用 Qwen3-32B 作为用户模拟。不同任务的测试指标不尽相同,但是都是以准确度作为衡量基础。

主要结论:模型的提升并非来自更复杂的算力堆叠,而是得益于对过程价值的刻画与利用。换言之,真正的突破点不在于 “终局答案对不对”,而在于能否在多轮交互中持续累积小进展、尽早对齐用户意图,并把这种过程性价值转化为学习信号

关键总结果

  • 回合均等 + 轨迹 Reward-to-Go 在 4B/8B 模型上最稳健、平均最好;反观回合均等 + 轨迹 Sum最弱,说明轨迹级计分比回合级细分更具有决定性价值。
  • 经过 UserRL 训练的 Qwen3 在 TravelGym、PersuadeGym、IntentionGym 等交互型任务上超过强闭源模型;跨 8 个 gym 的平均也领先闭源对照,体现出 “针对用户交互的 RL 训练” 能实打实提升能力。
  • SFT 冷启动是必要条件:先做 SFT 再 RL,能显著避免早期坍塌,部分任务收益超 100%。
  • 用户模拟器选择很关键:用 GPT-4o 做模拟用户训练的模型下游更强;但 Qwen3-32B 作为开源模拟器具备性价比高且可迁移的优势。





SFT 冷启动(左侧对照)与 GPT-4o 作为模拟用户(右侧对照)均能带来更好的 RL 效果

结语:从 “完成任务” 到 “成就用户”

UserBench 提供了一面 “明镜”,让我们得以量化模型是否真正理解用户;UserRL 则把这面镜子变成 “磨刀石”,推动模型在交互中不断迭代,学会在模糊与多目标之间提炼价值。

《论语》有云:“君子和而不同。” 未来的通用智能体,也应当在理解用户多元价值的同时,学会和而不同:既能尊重偏好,又能提供建设性选择;既能满足需求,又能引导更优解。这,才是通向真正通用智能的必要一课。

所有环境、数据以及训练框架已开源,欢迎研究人员探索。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
大反转!U23国足球员劝架染红原因终于找到了,球迷曝光现场视频

大反转!U23国足球员劝架染红原因终于找到了,球迷曝光现场视频

侃球熊弟
2026-03-26 00:36:57
何超琼不愧是丰腴美人,穿白色低胸连衣裙凹凸有致,老了更撩人!

何超琼不愧是丰腴美人,穿白色低胸连衣裙凹凸有致,老了更撩人!

蓓小西
2026-03-17 08:39:55
美议员喊话特朗普:如果北京不答应美国要求,就不准中国做一件事

美议员喊话特朗普:如果北京不答应美国要求,就不准中国做一件事

让心灵得以栖息
2026-03-26 05:03:07
谁还敢充长期会员?男子视频VIP充到2028年,被一纸新规一夜返贫

谁还敢充长期会员?男子视频VIP充到2028年,被一纸新规一夜返贫

温读史
2026-03-26 10:41:06
伊朗拒绝美国停战方案并提出伊方5项条件

伊朗拒绝美国停战方案并提出伊方5项条件

新京报
2026-03-25 23:58:14
甘油三酯"祸首"被发现,是猪油的12倍?专家叹息:还有人天天在吃

甘油三酯"祸首"被发现,是猪油的12倍?专家叹息:还有人天天在吃

芳芳历史烩
2026-03-23 11:04:46
为何伊朗突然变得这么强大呢?

为何伊朗突然变得这么强大呢?

农夫史记
2026-03-24 20:10:11
宋喆直播卖枣笑塌全网!百万流量零成交,满屏王宝强弹幕扎心到爆

宋喆直播卖枣笑塌全网!百万流量零成交,满屏王宝强弹幕扎心到爆

誮惜颜a
2026-01-13 01:12:10
中方未收道歉,日本自卫官被转移,沉默24小时后,小泉进次郎发文

中方未收道歉,日本自卫官被转移,沉默24小时后,小泉进次郎发文

策略述
2026-03-26 18:23:11
成都“牵手门”事件女主现今状况曝光,太惨了......

成都“牵手门”事件女主现今状况曝光,太惨了......

许三岁
2026-03-17 07:34:05
国产笔记本CPU偷梁换柱翻车!官方终于回应:生产失误、全额退款

国产笔记本CPU偷梁换柱翻车!官方终于回应:生产失误、全额退款

快科技
2026-03-25 10:14:04
最自私的人是什么样的?网友:我爸58岁得癌,拆迁180万全部花光

最自私的人是什么样的?网友:我爸58岁得癌,拆迁180万全部花光

火山詩话
2026-03-24 17:32:57
刚开业一周,上海德云社竟然被投诉了!

刚开业一周,上海德云社竟然被投诉了!

天津人
2026-03-26 11:12:18
迟迟都等不到中企复工,巴拿马头号帮手已介入,中方加强港口管制

迟迟都等不到中企复工,巴拿马头号帮手已介入,中方加强港口管制

福建平子
2026-03-26 09:00:29
特变电工:公司输变电产线基本处于满负荷生产状态,公司变压器、电线电缆、电抗器等输变电产品在手订单饱满

特变电工:公司输变电产线基本处于满负荷生产状态,公司变压器、电线电缆、电抗器等输变电产品在手订单饱满

每日经济新闻
2026-03-26 19:25:48
德黑兰街头忽然空了:巴斯基帐篷被遗弃,民兵连夜跑了,为什么?

德黑兰街头忽然空了:巴斯基帐篷被遗弃,民兵连夜跑了,为什么?

老马拉车莫少装
2026-03-24 22:55:20
港口管控升级!滞留中国巴拿马船暴涨3倍,巴拿马政府吃不消了

港口管控升级!滞留中国巴拿马船暴涨3倍,巴拿马政府吃不消了

肖兹探秘说
2026-03-26 20:07:23
一夜暴跌25%!小马哥最怕的事还是发生了:年轻人正在从腾讯溜走

一夜暴跌25%!小马哥最怕的事还是发生了:年轻人正在从腾讯溜走

潮鹿逐梦
2026-03-21 11:54:42
突发 广州白云 番禺多家法务公司 法律咨询公司被一锅端,上百人被抓

突发 广州白云 番禺多家法务公司 法律咨询公司被一锅端,上百人被抓

石辰搞笑日常
2026-03-26 17:28:25
曾经世界上最大的城市,差点取代北京成为中国首都,如今怎样?

曾经世界上最大的城市,差点取代北京成为中国首都,如今怎样?

抽象派大师
2026-03-14 14:00:04
2026-03-26 23:52:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12608文章数 142594关注度
往期回顾 全部

科技要闻

美团发布外卖大战后成绩单:亏损超200亿

头条要闻

张雪峰留巨额遗产:二婚妻子或拿50% 剩下的女儿占1/3

头条要闻

张雪峰留巨额遗产:二婚妻子或拿50% 剩下的女儿占1/3

体育要闻

申京努力了,然而杜兰特啊

娱乐要闻

刘晓庆妹妹发声!称姐姐受身边人挑拨

财经要闻

油价"驯服"特朗普?一到100美元就TACO

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

时尚
本地
亲子
数码
游戏

400万人爱过的女孩,被黄谣网暴180天后

本地新闻

救命,这只酱板鸭已经在我手机复仇了一万遍

亲子要闻

看看把孩子吓得哈哈哈

数码要闻

英特尔发Q1.26版Arc Pro专业显卡驱动,支持B70 / B65显卡

"死亡搁浅"外骨骼来了!小岛工作室转发联名 原度拉满

无障碍浏览 进入关怀版