网易首页 > 网易号 > 正文 申请入驻

谷歌开源 AI 微调方法: Distilling Step-by-Step

0
分享至


作者 | Anthony Alford

译者 | 王强

策划 | 丁晓昀

华盛顿大学和谷歌研究中心的一个团队最近开源了 Distilling Step-by-Step(逐步蒸馏),一种用于微调规模较小的语言模型的技术。与标准微调相比,逐步蒸馏需要的训练数据更少,并且生成的模型更小,但模型性能却优于参数规模是它 700 倍的小样本提示大型语言模型 (LLM)。

虽然 LLM 一般可以在提示较少的情况下在多种任务上有良好的表现,但由于其内存和算力要求过高,模型的托管是比较有挑战的。规模较小的模型在微调后也可以有良好的表现,但这需要工程师手动创建针对具体任务优化的数据集。逐步蒸馏的关键思想是使用 LLM 自动生成一个小型微调数据集,其中的数据有一个输入和一个输出标签,以及选择这个输出标签的“理由”。微调过程会训练这个小模型来预测输出标签并生成对应的理由。在 NLP 基准上评估时,小型微调模型的性能优于 540B PaLM 模型,同时仅需要这个基准测试的全部微调数据的 80%。据谷歌称:

我们展示了,逐步蒸馏既减少了构建针对特定任务的较小模型所需的训练数据集规模,也减少了实现甚至超越小样本提示 LLM 的性能水平所需的模型大小。总的来说,逐步蒸馏提出了一种可以高效利用资源的范例,可以解决模型大小和所需训练数据之间的权衡问题。

研究表明,增加 LLM 中的参数规模可以提高其性能,目前最先进的模型(例如 PaLM)拥有数百亿个参数。然而,这些大型模型价格昂贵,且难以用于推理,因为它们需要多个并行连接的 GPU 才能把这么多参数保存在内存里。最近的研究开发出了规模稍小的模型(例如 Meta 的 Llama 2),其性能表现差不多,但参数少了一个数量级;然而,这些小一些的模型还是很庞大,需求的算力也很高。

要做出在特定任务上表现良好的小模型的一种方法,是使用针对具体任务收集的数据集来微调小规模语言模型。虽然这个数据集可能相对较小(大约有数千个示例),但其数据收集起来可能还是费时费钱。另一种选择是知识蒸馏,也就是使用大型模型作为较小模型的老师。InfoQ 最近报道了谷歌开发的一项技术,使用 PaLM LLM 来创建训练数据集,最后生成的微调模型的性能可与规模大 10 倍的 LLM 相媲美。

逐步蒸馏确实需要微调数据集,但它减少了创建高性能模型所需的数据量。源数据集通过思维链提示输入 PaLM LLM,要求模型给出其答案的理由。输出结果是修正后的微调数据集,其中包含原始输入和答案以及理由。这个较小的目标模型经过微调来执行两项任务:回答原始问题并生成理由。

谷歌使用四个 NLP 基准测试评估了他们的技术,每个基准都包含一个微调数据集。他们使用逐步蒸馏来修正这些数据集,并使用了参数不到 1B 的微调 T5 模型。他们发现,这些模型在仅使用数据集的一小部分数据的情况下,性能就比基线微调模型要好;在某些情况下只要 12.5% 的数据就有这样的表现。他们还发现,他们的 770M 参数模型在 ANLI 基准测试中的性能优于大它 700 倍的 540B 参数 PaLM,同时只需要 80% 的微调数据集数据。

在 X(以前的 Twitter)上关于这项工作的讨论中,人工智能企业家 Otto von Zastrow 写道:

这些结果非常厉害。我会把这种办法叫做合成数据生成,而不是蒸馏,我真的很好奇,如果你根据每个示例问题的合成理由来训练原始的 LLM 会发生什么事情。

逐步蒸馏的源代码和训练数据集可在 GitHub 上获取。Google Cloud 的 Vertex AI 平台还提供该算法的非公开预览。

https://www.infoq.com/news/2023/10/google-distillation/

声明:本文由 InfoQ 翻译,未经许可禁止转载。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
社恐雷军两天车展走了近5万步,特意准备行头 评论区炸锅了

社恐雷军两天车展走了近5万步,特意准备行头 评论区炸锅了

匹夫来搞笑
2024-04-27 23:22:36
勾心斗角!韩国瑜即将出台“外交”造势,台外事部门不予积极安排

勾心斗角!韩国瑜即将出台“外交”造势,台外事部门不予积极安排

陆弃
2024-04-27 09:40:12
湖人G4胜掘金各界说了啥?湖人被看衰,老詹末节第一,掘金曝弊端

湖人G4胜掘金各界说了啥?湖人被看衰,老詹末节第一,掘金曝弊端

篮球资讯达人
2024-04-28 11:45:16
俄罗斯开始恐惧了,在电视台讨论ATACMS将打击哪些俄罗斯城市

俄罗斯开始恐惧了,在电视台讨论ATACMS将打击哪些俄罗斯城市

火星宏观
2024-04-26 15:49:38
5000万+高诗岩!山东男篮报价孙铭徽,王博下课接任者曝光

5000万+高诗岩!山东男篮报价孙铭徽,王博下课接任者曝光

维世话体坛
2024-04-27 23:03:57
曼城阿森纳狂喜!热议利物浦:克洛普被高估了;这样结局太凄凉

曼城阿森纳狂喜!热议利物浦:克洛普被高估了;这样结局太凄凉

直播吧
2024-04-27 21:40:55
一屋住七对情侣?每晚都是“战斗”到半夜,楼下大爷直呼受不了

一屋住七对情侣?每晚都是“战斗”到半夜,楼下大爷直呼受不了

社会潜伏者
2024-04-28 05:30:03
这是火车上一个女乘客写的留言,写在垃圾袋上面,可惜没联系方式

这是火车上一个女乘客写的留言,写在垃圾袋上面,可惜没联系方式

作家李楠枫
2024-04-27 16:53:29
那些反智的言论,终究不值一驳

那些反智的言论,终究不值一驳

林樾读书
2024-04-22 22:54:17
詹姆斯:掘金在第三节能要人命,今晚我们拿出了更强的能量

詹姆斯:掘金在第三节能要人命,今晚我们拿出了更强的能量

懂球帝
2024-04-28 11:51:17
张兰喊话光头妈妈:老太太对不起了,18年你那个小孙子没留住啊

张兰喊话光头妈妈:老太太对不起了,18年你那个小孙子没留住啊

悍匪小蛙
2024-04-28 05:47:44
汤尤杯首日:前世界冠军队0-5惨败,多位名将失利,国羽横扫过关

汤尤杯首日:前世界冠军队0-5惨败,多位名将失利,国羽横扫过关

知轩体育
2024-04-28 01:48:50
石宏:美国宣布60亿美元军援,只能给乌克兰“吊命”

石宏:美国宣布60亿美元军援,只能给乌克兰“吊命”

直新闻
2024-04-27 18:59:27
广州龙卷风致5死33伤,多处房屋受损,冰雹最大直径达10公分!

广州龙卷风致5死33伤,多处房屋受损,冰雹最大直径达10公分!

闲事杂说
2024-04-28 03:05:52
身材傲人的美少妇

身材傲人的美少妇

娱乐的小灶
2024-04-24 01:18:18
拒绝横扫!詹姆斯30+5,湖人完胜掘金!浓眉25+23,约基奇大三双

拒绝横扫!詹姆斯30+5,湖人完胜掘金!浓眉25+23,约基奇大三双

一将篮球
2024-04-28 11:41:50
我,80后山东人,和老婆在澳洲创业,最难熬时,俩人住在仓库里

我,80后山东人,和老婆在澳洲创业,最难熬时,俩人住在仓库里

真实人物采访
2024-04-27 09:05:02
打麻将更长寿!华西医院最新研究,老年人每周打三次,可延缓认知障碍

打麻将更长寿!华西医院最新研究,老年人每周打三次,可延缓认知障碍

方舟健客科普
2024-04-26 18:58:17
女性什么时候性欲会高

女性什么时候性欲会高

今日养生之道
2024-04-28 07:10:10
这总能看出是谁吧!

这总能看出是谁吧!

祝晓塬
2024-04-27 22:51:39
2024-04-28 12:04:49
InfoQ
InfoQ
有内容的技术社区媒体
9742文章数 49291关注度
往期回顾 全部

科技要闻

问界M7起火司乘3人遇难,车企回应

头条要闻

媒体:DRG付费改革推行后 一些医院不愿收"复杂病人"

头条要闻

媒体:DRG付费改革推行后 一些医院不愿收"复杂病人"

体育要闻

赢了!詹皇末节14分制胜咆哮 压力给到KD

娱乐要闻

张杰谢娜发文为何炅庆生,亲如家人!

财经要闻

美国,突发爆雷!

汽车要闻

5月上市/智能化丰富 海狮 07EV正式到店

态度原创

本地
艺术
时尚
房产
公开课

本地新闻

云游中国|苗族蜡染:九黎城的“潮”文化

艺术要闻

画廊周北京迎来第八年, “漂留” 主题聚集 30 余家艺术机构与 40 场展览

想要显瘦不必总穿黑色,夏季试试这些实用感穿衣法,时尚又很优雅

房产要闻

海南最新房价出炉,三亚跌价最猛!

公开课

父亲年龄越大孩子越不聪明?

无障碍浏览 进入关怀版