网易首页 > 网易号 > 正文 申请入驻

国内百模谁第一?清华14大LLM评测报告出炉,GLM-4站在第一梯队

0
分享至



新智元报道

编辑:编辑部

【新智元导读】大模型混战究竟谁才是实力选手?清华对国内外14个LLM做了最全面的综合能力测评,其中GPT-4、Cluade 3是当之无愧的王牌,而在国内GLM-4、文心4.0已然闯入了第一梯队。

在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。

尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差异显著,这主要是因为评测数据和测试方法尚不成熟和科学。我们认为,好的评测方法应当具备开放性、动态性、科学性和权威性。

为提供客观、科学的评测标准,清华大学基础模型研究中心联合中关村实验室研制了SuperBench大模型综合能力评测框架,旨在推动大模型技术、应用和生态的健康发展。

最近,2024年3月版《SuperBench大模型综合能力评测报告》正式发布。


评测共包含了14个海内外具有代表性的模型。其中,对于闭源模型,选取API和网页两种调用模式中得分较高的一种进行评测。



根据评测结果,可以得出以下几个主要结论:

● 整体来说,GPT-4系列模型Claude-3等国外模型在多个能力上依然处于领先地位国内头部大模型GLM-4文心一言4.0表现亮眼,与国际一流模型水平接近,且差距已经逐渐缩小

●国外大模型中,GPT-4系列模型表现稳定,Claude-3也展现了较强的综合实力,在语义理解和作为智能体两项能力评测中更是获得了榜首,跻身国际一流模型。

●国内大模型中,GLM-4和文心一言4.0在本次评测中表现最好,为国内头部模型;通义千问2.1、Abab6、moonshot网页版以及qwen1.5-72b-chat紧随其后,在部分能力评测中亦有不俗表现;但是国内大模型对比国际一流模型在代码编写、作为智能体两个能力上依然有较大差距,国内模型仍需努力。

大模型能力迁移&SuperBench

自大语言模型诞生之初,评测便成为大模型研究中不可或缺的一部分。随着大模型研究的发展,对其性能重点的研究也在不断迁移。根据我们的研究,大模型能力评测大概经历如下5个阶段:

2018年-2021年:语义评测阶段

早期的语言模型主要关注自然语言的理解任务(e.g. 分词、词性标注、句法分析、信息抽取),相关评测主要考察语言模型对自然语言的语义理解能力。代表工作:BERT、GPT、T5等。

2021年-2023年:代码评测阶段

随着语言模型能力的增强,更具应用价值的代码模型逐渐出现。研究人员发现,基于代码生成任务训练的模型在测试中展现出更强的逻辑推理能力,代码模型成为研究热点。代表工作:Codex、CodeLLaMa、CodeGeeX等。

2022年-2023年:对齐评测阶段

随着大模型在各领域的广泛应用,研究人员发现续写式的训练方式与指令式的应用方式之间存在差异,理解人类指令、对齐人类偏好逐渐成为大模型训练优化的关键目标之一。对齐好的模型能够准确理解并响应用户的意图,为大模型的广泛应用奠定了基础。代表工作:InstructGPT、ChatGPT、GPT4、ChatGLM等。

2023年-2024年:智能体评测阶段

基于指令遵从和偏好对齐的能力,大模型作为智能中枢对复杂任务进行拆解、规划、决策和执行的能力逐渐被发掘。大模型作为智能体解决实际问题也被视为迈向通用人工智能(AGI)的重要方向。代表工作:AutoGPT、AutoGen等。

2023年-future:安全评测阶段

随着模型能力的提升,对模型安全性和价值观的评估、监管与强化逐渐成为研究人员关注的重点。加强对潜在风险的研判,确保大模型的可控、可靠和可信,是未来「AI可持续发展」的关键问题。

因此,为了全面地评估大模型的各项能力,SuperBench评测体系包含了语义、代码、对齐、智能体和安全等五个评测大类28个子类



PART 1 语义评测

ExtremeGLUE是一个包含72个中英双语传统数据集的高难度集合,旨在为语言模型提供更严格的评测标准,采用零样本 CoT 评测方式,并根据特定要求对模型输出进行评分。

首先,使用超过20种语言模型进行初步测试,包括了GPT-4、Claude、Vicuna、WizardLM和ChatGLM等。

然后,基于所有模型的综合表现,决定每个分类中挑选出难度最大的10%~20%数据,将它们组合为「高难度传统数据集」。

评测方法&流程

评测方式:收集了72个中英双语传统数据集,提取其中高难度的题目组成4个维度的评测数据集,采取零样本CoT评测方式,各维度得分计算方式为回答正确的题目数所占百分比,最终总分取各维度的平均值。

评测流程:根据不同题目的形式和要求,对于模型的零样本CoT生成的结果进行评分。



整体表现:



在语义理解能力评测中,各模型形成了三个梯队,70分档为第一梯队,包括Claude-3、GLM-4、文心一言4.0以及GPT-4系列模型。


其中,Claude-3得分为76.7,位居第一;国内模型GLM-4文心一言4.0则超过GPT-4系列模型位居第二和第三位,但是和Claude-3有3分差距。

分类表现:



●知识-常识:Claude-3以79.8分领跑,国内模型GLM-4表现亮眼,超过GPT-4网页版位居第二;文心一言4.0表现不佳,距离榜首Claude-3有12.7分差距。

●知识-科学:Claude-3依然领先,并且是唯一一个80分以上模型;文心一言4.0、GPT-4系列模型以及GLM-4模型均在75分以上,为第一梯队模型。

●数学:Claude-3文心一言4.0并列第一,得65.5分,GLM-4领先GPT-4系列模型位列第三,其他模型得分在55分附近较为集中,当前大模型在数学能力上仍有较大提升空间。

●阅读理解:各分数段分布相对较为平均,文心一言4.0超过GPT-4 Turbo、Claude-3以及GLM-4拿下榜首。

PART 2 代码评测

NaturalCodeBench(NCB)是一个评估模型代码能力的基准测试,传统的代码能力评测数据集主要考察模型在数据结构与算法方面的解题能力,而NCB数据集侧重考察模型在真实编程应用场景中写出正确可用代码的能力。

所有问题都从用户在线上服务中的提问筛选得来,问题的风格和格式更加多样,涵盖数据库、前端开发、算法、数据科学、操作系统、人工智能、软件工程等七个领域的问题,可以简单分为算法类和功能需求类两类。


题目包含java和python两类编程语言,以及中文、英文两种问题语言。每个问题都对应10个人类撰写矫正的测试样例,9个用于测试生成代码的功能正确性,剩下1个用于代码对齐。

评测方法&流程

评测方式:运行模型生成的函数,将输出结果与准备好的测例结果进行比对进行打分。将输出结果与准备好的测例结果进行比对进行打分,最终计算生成代码的一次通过率pass@1。

评测流程:给定问题、单元测试代码、以及测例,模型首先根据问题生成目标函数;运行生成的目标函数,以测例中的输入作为参数得到函数运行输出,与测例中的标准输出进行比对,输出匹配得分,输出不匹配或函数运行错误均不得分。



整体表现:



在代码编写能力评测中,国内模型与国际一流模型之间仍有明显差距,GPT-4系列模型Claude-3模型在代码通过率上明显领先,国内模型中GLM-4文心一言4.0讯飞星火3.5表现突出,综合得分达到40分以上。


然而,即使是表现最好的模型在代码的一次通过率上仍只有50%左右,代码生成任务对目前的大模型来说仍是一大挑战。

分类表现:



在Python、Java、中文、英文四个维度的数据集中GPT-4系列模型包揽头名,体现出强大而全面的代码能力,除Claude-3外其余模型差距明显。

●英文代码指令:GPT-4 TurboClaude-3在Python和Java问题上分别高出6.8分和1.5分,比GLM-4在Python和Java问题上分别高出14.2分和5.1分,国内模型与国际模型在英文代码指令上差距比较明显。

●中文代码指令:GPT-4 TurboClaude-3在Python上高出3.9分,在Java上低2.3分,差距不大。GPT-4 TurboGLM-4在Python和Java问题上分别高出5.4分和2.8分,国内模型在中文编码能力上与国际一流模型仍存在一定差距。

PART 3 对齐评测

AlignBench旨在全面评测大模型在中文领域与人类意图的对齐度,通过模型打分评测回答质量,衡量模型的指令遵循和有用性。

它包括8个维度,如基本任务和专业能力,使用真实高难度问题,并有高质量参考答案。优秀表现要求模型具有全面能力、指令理解和生成有帮助的答案。

「中文推理」维度重点考察了大模型在中文为基础的数学计算、逻辑推理方面的表现。这一部分主要由从真实用户提问中获取并撰写标准答案,涉及多个细粒度领域的评估:

●数学计算上,囊括了初等数学、高等数学和日常计算等方面的计算和证明。

●逻辑推理上,则包括了常见的演绎推理、常识推理、数理逻辑、脑筋急转弯等问题,充分地考察了模型在需要多步推理和常见推理方法的场景下的表现。

「中文语言」部分着重考察大模型在中文文字语言任务上的通用表现,具体包括六个不同的方向:基本任务、中文理解、综合问答、文本写作、角色扮演、专业能力。


这些任务中的数据大多从真实用户提问中获取,并由专业的标注人员进行答案撰写与矫正,从多个维度充分地反映了大模型在文本应用方面的表现水平。具体来说:

●基本任务考察了在常规NLP任务场景下,模型泛化到用户指令的能力;

●中文理解上,着重强调了模型对于中华民族传统文化和汉字结构渊源的理解;

●综合问答则关注模型回答一般性开放问题时的表现;

●文本写作则揭示了模型在文字工作者工作中的表现水平;

●角色扮演是一类新兴的任务,考察模型在用户指令下服从用户人设要求进行对话的能力;

●专业能力则研究了大模型在专业知识领域的掌握程度和可靠性。

评测方法&流程

评测方式:通过强模型(如GPT-4)打分评测回答质量,衡量模型的指令遵循能力和有用性。打分维度包括事实正确性、满足用户需求、清晰度、完备性、丰富度等多项,且不同任务类型下打分维度不完全相同,并基于此给出综合得分作为回答的最终分数。

评测流程:模型根据问题生成答案、GPT-4根据生成的答案和测试集提供的参考答案进行详细的分析、评测和打分。



整体表现:



在人类对齐能力评测中,GPT-4网页版占据榜首,文心一言4.0GPT-4 Turbo同分(7.74)紧随其后,国内模型中GLM-4同样表现优异,超越Claude-3,位列第四,通义千问2.1略低于Claude-3,排名第六,同为第一梯队大模型。

分类表现:



中文推理整体分数明显低于中文语言,当下大模型推理能力整体有待加强:

●中文推理:GPT-4系列模型表现最好,略高于国内模型文心一言4.0,并且和其他模型拉开明显差距。

●中文语言:国内模型包揽了前四名,分别是KimiChat网页版(8.05分)、通义千问2.1(7.99分)、GLM-4(7.98分)、文心一言4.0(7.91分),超过GPT-4系列模型和Claude-3等国际一流模型。

各分类细拆分析:



中文推理:

●数学计算:GPT-4系列模型包揽前两名,国内模型文心一言4.0通义千问2.1分数超过Claude-3,但与GPT-4系列模型仍有一定差距。

●逻辑推理:7分以上为第一梯队,由国内模型文心一言4.0领跑,同在第一梯队的还有GPT-4系列模型Claude-3GLM-4Abab6

中文语言:

●基本任务:GLM-4拿下榜首,通义千问2.1Claude-3GPT-4网页版占据二到四位,国内其他大模型中文心一言4.0KimiChat网页版也表现较好,超过了GPT-4 Turbo

●中文理解:国内模型整体表现较好,包揽了前四名,文心一言4.0领先优势明显,领先第二名GLM-40.41分;国外模型中,表现尚可,排在第五位,但GPT-4系列模型表现较差,排在中下游,并且和第一名分差超过1分。

●综合问答:各大模型均表现较好,超过8分的模型达到了6家,GPT-4网页版KimiChat网页版拿下最高分,GLM-4Claude-3分数相同,与榜首分数接近,并列第三。

●文本写作:KimiChat网页版表现最好,同时也是唯一一个8分以上的模型,GPT-4 Turbo和分列二、三位。

●角色扮演:国内模型Abab6通义千问2.1KimiChat网页版包揽前三名,且均在8分以上,超过GPT-4系列模型Claude-3等国际一流模型。

●专业能力:GPT-4 Turbo占据了首位,KimiChat网页版超过GPT-4网页版拿下第二名,国内其他模型中,GLM-4通义千问2.1同样表现不俗,并列排名第四。

PART 4 智能体评测

AgentBench是一个评估语言模型在操作系统、游戏和网页等多种实际环境中作为智能体性能的综合基准测试工具包。

代码环境:该部分关注LLMs在协助人类与计计算机代码接口互动方面的潜在应用。LLMs以其出色的编码能力和推理能力,有望成为强大的智能代理,协助人们更有效地与计算机界面进行互动。为了评估LLMs在这方面的表现,我们引入了三个代表性的环境,这些环境侧重于编码和推理能力。这些环境提供了实际的任务和挑战,测试LLMs在处理各种计算机界面和代码相关任务时的能力。

游戏环境:游戏环境是AgentBench的一部分,旨在评估LLMs在游戏场景中的表现。在游戏中,通常需要智能体具备强大的策略设计、遵循指令和推理能力。与编码环境不同,游戏环境中的任务不要求对编码具备专业知识,但更需要对常识和世界知识的综合把握。这些任务挑战LLMs在常识推理和策略制定方面的能力。

网络环境:网络环境是人们与现实世界互动的主要界面,因此在复杂的网络环境中评估智能体的行为对其发展至关重要。在这里,我们使用两个现有的网络浏览数据集,对LLMs进行实际评估。这些环境旨在挑战LLMs在网络界面操作和信息检索方面的能力。

评测方法&流程

评测方式:模型和预先设定好的环境进行多轮交互以完成各个特定的任务,情景猜谜子类会使用GPT-3.5-Turbo对最终答案进行评分,其余子类的评分方式根据确定的规则对模型完成任务的情况进行打分。

评测流程:模型与模拟环境进行交互,之后对模型给出的结果采用规则评分或GPT-3.5-Turbo评分。

打分规则:由于不同子任务的分数分布不同,直接按平均分计算总分受极值的影响较为严重,因此需要对各子任务的分数进行归一化处理。如下表所示,各个子任务对应的「Weight(-1)」的值即是归一化的权重,这个值为在 Agentbench上最初测试的模型在该子任务上得分的平均值。计算总分时将各个子任务的分数除以Weight(-1)后求平均值即可。根据该计算方式,具有平均能力的模型最终得到的总分应为1。



SR:成功率

#Avg.Turn:解决单一问题所需的平均交互回合数

#Dev、#Test:开发集和测试集单个模型的预期总交互轮数

Weight⁻¹:各单项分在计算总分的时候的权重的倒数

整体表现:



在作为智能体能力评测中,国内模型整体明显落后于国际一流模型。其中,Claude-3GPT-4系列模型占据了前三甲,GLM-4在国内模型中表现最好,但与榜首的Claude-3仍有较大差距。

国内外大模型在本能力下均表现欠佳,主要原因是智能体对模型要求远高于其他任务,现有的绝大部分模型还不具有很强的智能体能力。

分类表现:



除网上购物被国内模型GLM-4拿到头名外,其他分类下,榜首均被Claude-3GPT-4系列模型占据,体现出相对强大的作为智能体能力,国内模型仍需不断提升。

●具身智能(Alfworld)前三甲均被Claude-3GPT-4系列模型包揽,和国内模型差距最大。

●在数据库(DB)和知识图谱(KG)两个维度下,国内模型GLM-4均进入top3,但是与前两名仍有一定差距。

PART 5 安全评测

SafetyBench是首个全面的通过单选题的方式评估大型语言模型安全性的测试基准。包含攻击冒犯、偏见歧视、身体健康、心理健康、违法活动、伦理道德、隐私财产等。

评测方法&流程

评测方式:每个维度收集上千个多项选择题,通过模型的选择测试对各个安全维度的理解和掌握能力进行考察。评测时采用few-shot生成方式,从生成结果中抽取答案与真实答案比较,模型各维度得分为回答正确的题目所占百分比,最终总分取各个维度得分的平均值。针对拒答现象,将分别计算拒答分数和非拒答分数,前者将拒答题目视为回答错误,后者将拒答题目排除出题库。

评测流程:从模型针对指定问题few-shot的生成结果中提取答案,与真实答案比较。



整体表现:



在安全能力评测中,国内模型文心一言4.0表现亮眼,力压国际一流模型GPT-4系列模型Claude-3拿下最高分(89.1分),在国内其他模型中,GLM-4和Claude-3同分,并列第四。

分类表现:



在违法活动、身体健康、攻击冒犯、心理健康、隐私财产这五个分类下,各模型各有胜负,但是在伦理道德和偏见歧视上,各个模型分差较大,并保持了和总分较为一致的偏序关系。

●伦理道德:文心一言4.0力压Claude-3位列第一,国内大模型GLM-4同样表现亮眼,超过GPT-4 Turbo位列前三甲。

●偏见歧视:文心一言4.0继续排名榜首,领先GPT-4系列模型,GLM-4紧随其后,同为第一梯队模型。

参考资料:

https://mp.weixin.qq.com/s/r_aAjFHTRDBGXhl3bd06XQ

https://mp.weixin.qq.com/s/VhVEnRrIzJza1SZC9bKa6Q



特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
华为开始反击,Mate60Pro售价再创新低,给苹果重力一击

华为开始反击,Mate60Pro售价再创新低,给苹果重力一击

科技阿维
2024-06-11 13:02:51
她被誉为好声音最惨冠军,夺冠一个月后无人问津,如今判若两人

她被誉为好声音最惨冠军,夺冠一个月后无人问津,如今判若两人

可以鸭文史君
2024-06-12 16:21:59
韩国男足主教练金度勋在中韩之战赛后,接受采访时是这样说的

韩国男足主教练金度勋在中韩之战赛后,接受采访时是这样说的

百里无心
2024-06-12 08:05:08
注资10亿!宁波城投与江山万里成立“宁波地产发展有限公司”!

注资10亿!宁波城投与江山万里成立“宁波地产发展有限公司”!

我不叫阿哏
2024-06-12 21:22:48
王毅外长的真实身份曝光

王毅外长的真实身份曝光

星辰故事屋
2024-06-03 19:08:18
评价一个女人是否爱干净,看她家里这6个地方就够了,对比下看看

评价一个女人是否爱干净,看她家里这6个地方就够了,对比下看看

阿离家居
2024-06-12 07:06:03
谷俊山威胁领导廖锡龙:我让你离开你就得离开,廖是如何回应?

谷俊山威胁领导廖锡龙:我让你离开你就得离开,廖是如何回应?

历史龙元阁
2024-05-28 00:56:55
美军火马上就到台海,大陆已做好拦截准备,一颗子弹都别想运进台

美军火马上就到台海,大陆已做好拦截准备,一颗子弹都别想运进台

博文聊世界
2024-06-12 08:12:04
高端会所男按摩师自述:貌美富婆们都很开放,经常会把持不住

高端会所男按摩师自述:貌美富婆们都很开放,经常会把持不住

程哥历史观
2023-08-24 11:15:36
以郝子铭视角看何洁:我那“说谎成性”的前妻,凭什么能翻红

以郝子铭视角看何洁:我那“说谎成性”的前妻,凭什么能翻红

东篱畔
2024-06-10 14:27:51
你会给你妈妈买一万多的金手镯吗?网友分享这是多少人的真实写照

你会给你妈妈买一万多的金手镯吗?网友分享这是多少人的真实写照

白宸侃片
2024-06-13 00:39:51
利润大降40%!荷兰光刻机老板:后悔不已,低估了中国人的智慧

利润大降40%!荷兰光刻机老板:后悔不已,低估了中国人的智慧

美人茶话会
2024-06-11 21:30:24
7年前我国投资5100亿建雄安,面积约三个纽约,如今发展怎样了

7年前我国投资5100亿建雄安,面积约三个纽约,如今发展怎样了

察颜观生活事
2024-06-06 22:51:33
蔚来第三座工厂官宣开建,还是这里!

蔚来第三座工厂官宣开建,还是这里!

选址中国
2024-06-11 18:00:41
大结局!樊小慧承认陷害前夫,前助理将正式起诉,樊小慧官宣退网

大结局!樊小慧承认陷害前夫,前助理将正式起诉,樊小慧官宣退网

小咪侃娱圈
2024-06-12 11:56:57
日本女网红去恒河体验“净身仪式”,上岸一小时后觉得不对劲了…

日本女网红去恒河体验“净身仪式”,上岸一小时后觉得不对劲了…

苏曼文史
2024-06-12 11:58:20
真被张召忠说中了?掏空国库建造的2艘航母,如今彻底沦为废铁

真被张召忠说中了?掏空国库建造的2艘航母,如今彻底沦为废铁

高山非凡创作
2024-05-16 07:48:51
绷不住!安倍晋三老婆去扫墓,脸上笑容挡不住,墓碑刻有5个汉字

绷不住!安倍晋三老婆去扫墓,脸上笑容挡不住,墓碑刻有5个汉字

娱圈小愚
2024-06-12 13:50:07
唉!又有一家大企业成功“结业”了!

唉!又有一家大企业成功“结业”了!

翻开历史和现实
2024-06-10 18:54:33
国家终于不再原谅王濛,77枚金牌不是万能,而自大只会被抛弃

国家终于不再原谅王濛,77枚金牌不是万能,而自大只会被抛弃

兰子记
2024-06-11 18:28:00
2024-06-13 05:52:49
新智元
新智元
AI产业主平台领航智能+时代
11141文章数 65536关注度
往期回顾 全部

科技要闻

谁是苹果AI的“中国合伙人”?

头条要闻

顶头上司落马3周后退休副省长被查 任内曾被环保问责

头条要闻

顶头上司落马3周后退休副省长被查 任内曾被环保问责

体育要闻

国足,别辜负这场奇迹!

娱乐要闻

黄一鸣再次录视频表态孩子是王思聪的

财经要闻

徽商银行的影子 借基金向地方城投放贷?

汽车要闻

理想汽车周销量突破1万辆 单周销量首超宝马奥迪

态度原创

教育
时尚
亲子
数码
本地

教育要闻

求最小值经典题目,分子变一变,均值不等式轻松求解

不会买牛仔裤?4个评判标准相当靠谱

亲子要闻

每个班都有一两个孩子患这种病,医生缺口却很大

数码要闻

部分采用 N3B,英特尔 Arrow Lake-U/H/HX 移动处理器现身海关

本地新闻

粽情一夏|海河龙舟赛,竟然成了外国人的大party!

无障碍浏览 进入关怀版