来源:市场资讯
(来源:环球科学科研圈)
本文来自“FCS”,文章仅代表作者观点,与“环球科学科研圈”无关。
![]()
![]()
摘要
大语言模型(LLM)通过调用外部工具(如API或函数)能显著增强其解决复杂问题的能力,但如何最优地培养这种能力仍缺乏系统研究。复旦大学团队重点研究了“情境化工具调用”(In-context Tool Use),即模型根据上下文提供的候选工具说明来执行任务的能力。研究团队识别出影响该能力的三个核心因素:工具数量、每个工具的示例数量以及模型参数规模。通过构建大规模高质量数据集RapidTools并进行系列控制变量实验,研究证实增加模型规模和训练中的工具种类能稳定提升性能,而增加单一工具的示例数量效果则因情况而异。
![]()
文章精要
工具调用(也称函数调用)是使大模型能够突破自身知识边界、访问实时信息并执行复杂动作的关键技术。目前存在两种主流框架:一种是“内在工具调用”,模型在训练中学习固定的工具集;另一种则是更具挑战性的“情境化工具调用”,要求模型能够根据推理时上下文给出的新工具说明,灵活地对从未见过的工具进行操作。尽管这一能力至关重要,但开发者在准备训练数据时,往往不清楚是应该收集更多种类的工具,还是针对每种工具提供更多的对话示例,抑或是单纯依靠增大模型规模来解决。
为了回答这些问题,复旦大学与荣耀设备有限公司的研究团队提出了RapidTools数据集,并针对三个核心变量开展了深入分析。实验结果表明,在提升大模型对“未见工具”的泛化能力方面,工具的“多样性”(即训练集中工具的总数)远比单一工具的“熟练度”(即每个工具的示例数)更重要。同时,模型参数规模的提升展现出了显著的“涌现”效应,更大的模型在处理复杂工具组合时具有明显优势。
![]()
该项研究不仅为大模型工具能力的训练提供了科学的指导原则,即优先保证工具种类的丰富度,还通过开源RapidTools数据集,为该领域的后续研究奠定了基础。这种“以多样性驱动泛化”的思路,对于构建更具通用性的智能体系统具有重要参考价值。
期刊简介
Frontiers of Computer Science (FCS)是由教育部主管、高等教育出版社和北京航空航天大学共同主办,南京大学支持,SpringerNature 公司海外发行的英文学术期刊。本刊于 2007 年创刊,月刊,全球发行。主要刊登计算机科学领域具有创新性的综述论文、研究论文等。本刊主编为周志华院士,共同主编为熊璋教授。编委会及青年 AE 团队由国内外知名学者及优秀青年学者组成。本刊被 SCI、Ei、DBLP、INSPEC、SCOPUS 和中国科学引文数据库(CSCD)核心库等收录,为 CCF 推荐B类期刊;两次入选“中国科技期刊国际影响力提升计划”;入选“第4届中国国际化精品科技期刊”;两次入选“中国科技期刊卓越行动计划”(一期梯队、二期领军)。
往期目录
![]()
2026 No.4
![]()
2026 No.3
![]()
2026 No.2
![]()
2026 No.1
![]()
2025 No.12
![]()
2025 No.11
![]()
2025 No.10
![]()
2025 No.9
![]()
2025 No.8
![]()
2025 No.7
![]()
2025 No.6
![]()
2025 No.5
![]()
2025 No.4
![]()
2025 No.3
![]()
2025 No.2
![]()
2025 No.1
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.