网易首页 > 网易号 > 正文 申请入驻

清华微软开源全新提示词压缩工具,长度骤降80%!GitHub怒砍3.1K星

0
分享至


新智元报道

编辑:润 好困

【新智元导读】最近,清华和微软的研究人员提出了一种全新的方法,能在保证输出质量不变的前提下,将提示词压缩到原始长度的20%!

在自然语言处理中,有很多信息其实是重复的。

如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。

现有的信息熵方法是通过删除某些词或短语来减少这种冗余。

然而,作为依据的信息熵仅仅考虑了文本的单向上下文,进而可能会遗漏对于压缩至关重要的信息;此外,信息熵的计算方式与压缩提示词的真正目的并不完全一致。

为了应对这些挑战,来自清华和微软的研究人员提出了一种全新的数据精炼流程——LLMLingua-2,目的是从大型语言模型(LLM)中提取知识,实现在不丢失关键信息的前提下对提示词进行压缩。


项目在GitHub上已经斩获3.1k星

结果显示,LLMLingua-2可以将文本长度大幅缩减至最初的20%,有效减少了处理时间和成本。

此外,与前一版本LLMLingua以及其他类似技术相比,LLMLingua 2的处理速度提高了3到6倍。


论文地址:https://arxiv.org/abs/2403.12968

在这个过程中,原始文本首先被输入模型。

模型会评估每个词的重要性,决定是保留还是删除,同时也会考虑到词语之间的关系。

最终,模型会选择那些评分最高的词汇组成一个更简短的提示词。


团队在包括MeetingBank、LongBench、ZeroScrolls、GSM8K和BBH在内的多个数据集上测试了LLMLingua-2模型。

尽管这个模型体积不大,但它在基准测试中取得了显著的性能提升,并且证明了其在不同的大语言模型(从GPT-3.5到Mistral-7B)和语种(从英语到中文)上具有出色的泛化能力。

系统提示:

作为一名杰出的语言学家,你擅长将较长的文段压缩成简短的表达方式,方法是去除那些不重要的词汇,同时尽可能多地保留信息。

用户提示:

请将给定的文本压缩成简短的表达形式,使得你(GPT-4)能够尽可能准确地还原原文。不同于常规的文本压缩,我需要你遵循以下五个条件: 1. 只移除那些不重要的词汇。 2. 保持原始词汇的顺序不变。 3. 保持原始词汇不变。 4. 不使用任何缩写或表情符号。 5. 不添加任何新的词汇或符号。 请尽可能地压缩原文,同时保留尽可能多的信息。如果你明白了,请对以下文本进行压缩:{待压缩文本} 压缩后的文本是:[...]


结果显示,在问答、摘要撰写和逻辑推理等多种语言任务中,LLMLingua-2都显著优于原有的LLMLingua模型和其他选择性上下文策略。

值得一提的是,这种压缩方法对于不同的大语言模型(从GPT-3.5到Mistral-7B)和不同的语言(从英语到中文)同样有效。

而且,只需两行代码,就可以实现LLMLingua-2的部署。

目前,该模型已经被集成到了广泛使用的RAG框架LangChain和LlamaIndex当中。

实现方法

为了克服现有基于信息熵的文本压缩方法所面临的问题,LLMLingua-2采取了一种创新的数据提炼策略。

这一策略通过从GPT-4这样的大语言模型中抽取精华信息,实现了在不损失关键内容和避免添加错误信息的前提下,对文本进行高效压缩。

提示设计

要想充分利用GPT-4的文本压缩潜力,关键在于如何设定精确的压缩指令。

也就是在压缩文本时,指导GPT-4仅移除那些在原始文本中不那么重要的词汇,同时避免在此过程中引入任何新的词汇。

这样做的目的是为了确保压缩后的文本尽可能地保持原文的真实性和完整性。


标注与筛选

研究人员利用了从GPT-4等大语言模型中提炼出的知识,开发了一种新颖的数据标注算法。

这个算法能够对原文中的每一个词汇进行标注,明确指出在压缩过程中哪些词汇是必须保留的。

为了保证所构建数据集的高质量,他们还设计了两种质量监控机制,专门用来识别并排除那些品质不佳的数据样本。


压缩器

最后,研究人员将文本压缩的问题转化为了一个对每个词汇(Token)进行分类的任务,并采用了强大的Transformer作为特征提取器。

这个工具能够理解文本的前后关系,从而精确地抓取对于文本压缩至关重要的信息。

通过在精心构建的数据集上进行训练,研究人员的模型能够根据每个词汇的重要性,计算出一个概率值来决定这个词汇是应该被保留在最终的压缩文本中,还是应该被舍弃。


性能评估

研究人员在一系列任务上测试了LLMLingua-2的性能,这些任务包括上下文学习、文本摘要、对话生成、多文档和单文档问答、代码生成以及合成任务,既包括了域内的数据集也包括了域外的数据集。

测试结果显示,研究人员的方法在保持高性能的同时,减少了最小的性能损失,并且在任务不特定的文本压缩方法中表现突出。

- 域内测试(MeetingBank)

研究人员将LLMLingua-2在MeetingBank测试集上的表现与其他强大的基线方法进行了对比。

尽管他们的模型规模远小于基线中使用的LLaMa-2-7B,但在问答和文本摘要任务上,研究人员的方法不仅大幅提升了性能,而且与原始文本提示的表现相差无几。


- 域外测试(LongBench、GSM8K和BBH)

考虑到研究人员的模型仅在MeetingBank的会议记录数据上进行了训练,研究人员进一步探索了其在长文本、逻辑推理和上下文学习等不同场景下的泛化能力。

值得一提的是,尽管LLMLingua-2只在一个数据集上训练,但在域外的测试中,它的表现不仅与当前最先进的任务不特定压缩方法相媲美,甚至在某些情况下还有过之而无不及。


即使是研究人员的较小模型(BERT-base大小),也能达到与原始提示相当的性能,在某些情况下甚至略高于原始提示。

虽然研究人员的方法取得了可喜的成果,但与其他任务感知压缩方法(如Longbench上的LongLLMlingua)相比,研究人员的方法还存在不足。

研究人员将这种性能差距归因于它们从问题中获取的额外信息。不过,研究人员的模型具有与任务无关的特点,因此在不同场景中部署时,它是一种具有良好通用性的高效选择。


上表4列出了使用Mistral-7Bv0.1 4作为目标LLM的不同方法的结果。

与其他基线方法相比,研究人员的方法在性能上有明显的提升,展示了其在目标LLM上良好的泛化能力。

值得注意的是,LLMLingua-2的性能甚至优于原始提示。

研究人员推测,Mistral-7B在管理长上下文方面的能力可能不如GPT-3.5-Turbo。

研究人员的方法通过提供信息密度更高的短提示,有效提高了 Mistral7B 的最终推理性能。


上表5显示了不同系统在不同压缩比的V100-32G GPU上的延迟。

结果表明,与其他压缩方法相比,LLMLingua2的计算开销要小得多,可以实现1.6倍到2.9倍的端到端速度提升。

此外,研究人员的方法还能将GPU内存成本降低8倍,从而降低对硬件资源的需求。

上下文意识观察 研究人员观察到,随着压缩率的增加,LLMLingua-2可以有效地保持与完整上下文相关的信息量最大的单词。

这要归功于双向上下文感知特征提取器的采用,以及明确朝着及时压缩目标进行优化的策略。


研究人员观察到,随着压缩率的增加,LLMLingua-2可以有效地保持与完整上下文相关的信息量最大的单词。

这要归功于双向上下文感知特征提取器的采用,以及明确朝着及时压缩目标进行优化的策略。


最后研究人员让GPT-4 从 LLMLingua-2压缩提示中重构原始提示音。

结果表明,GPT-4可以有效地重建原始提示,这表明在LLMLingua-2压缩过程中并没有丢失基本信息。

参考资料:

https://llmlingua.com/llmlingua2.html

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
云南碰瓷式执法后续,涉事人员身份曝光,网民:奖他一个“鸡腿”

云南碰瓷式执法后续,涉事人员身份曝光,网民:奖他一个“鸡腿”

陈博世财经
2024-05-12 20:21:39
vivo X100 Ultra已正式发布:对比vivo X90 Pro+,到底有多大区别

vivo X100 Ultra已正式发布:对比vivo X90 Pro+,到底有多大区别

智能手机那点事
2024-05-13 23:15:34
新疆喀什开往成都的快速列车,行程近4000公里

新疆喀什开往成都的快速列车,行程近4000公里

鬼菜生活
2024-05-13 15:48:09
全面停止生产!深圳正威集团被处罚4万,拖欠员工薪资超900万

全面停止生产!深圳正威集团被处罚4万,拖欠员工薪资超900万

叮当当科技
2024-05-13 16:07:47
“泰国租妻”特色服务,5天才3000元,我去体验后,却差点丢了命

“泰国租妻”特色服务,5天才3000元,我去体验后,却差点丢了命

程哥历史观
2023-09-07 20:53:23
嫩妇自述:和老公分居后,我每天去健身房练臀,却被私教给盯上了

嫩妇自述:和老公分居后,我每天去健身房练臀,却被私教给盯上了

想养大熊猫
2024-05-08 10:04:15
离谱了!四川1岁娃太笨,母亲节被父亲拉去做亲子鉴定 评论区炸锅

离谱了!四川1岁娃太笨,母亲节被父亲拉去做亲子鉴定 评论区炸锅

阿燕姐说育儿
2024-05-13 15:38:02
枢密院十号:面对中国导弹,美军陷入两难处境

枢密院十号:面对中国导弹,美军陷入两难处境

环球网资讯
2024-05-13 05:47:16
印度马上要超过美国,建成全球第二大地铁系统?

印度马上要超过美国,建成全球第二大地铁系统?

蓝鲸财经
2024-05-13 15:10:33
大瓜!律师检方上门警告大S无权阻止汪小菲见孩子,大S疑认怂

大瓜!律师检方上门警告大S无权阻止汪小菲见孩子,大S疑认怂

小徐讲八卦
2024-05-11 10:46:13
好消息!热身赛中国3:1巴西!张常宁表现勇猛砍最高分!巴黎有戏

好消息!热身赛中国3:1巴西!张常宁表现勇猛砍最高分!巴黎有戏

金毛爱女排
2024-05-13 08:37:04
电动汽车价格战逐渐失效,燃油车显著回升,姜还是老的辣!

电动汽车价格战逐渐失效,燃油车显著回升,姜还是老的辣!

柏铭锐谈
2024-05-12 14:27:27
中国最丢脸的十大入侵物种

中国最丢脸的十大入侵物种

普陀动物世界
2024-04-12 08:00:03
亿万富豪父子“股权争夺战”:从住窑洞到家产数亿,八旬父亲为拿回股权起诉长子

亿万富豪父子“股权争夺战”:从住窑洞到家产数亿,八旬父亲为拿回股权起诉长子

红星新闻
2024-03-23 16:26:52
卖不掉就丢给中国?这3款车型在国外已停产,却被国人当“豪车”

卖不掉就丢给中国?这3款车型在国外已停产,却被国人当“豪车”

户外小阿隋
2024-05-11 07:50:07
泰国男足提前做出重要决定!看懵国足,让伊万科维奇干着急

泰国男足提前做出重要决定!看懵国足,让伊万科维奇干着急

评球论事
2024-05-13 12:12:05
乌军击退俄军对哈尔科夫的狂攻!开辟第二战场?

乌军击退俄军对哈尔科夫的狂攻!开辟第二战场?

项鹏飞
2024-05-12 21:11:48
楼市正迎来历史转变?王石再次预测2024年房地产走向,大概率对的

楼市正迎来历史转变?王石再次预测2024年房地产走向,大概率对的

山丘楼评
2024-05-10 11:29:37
张成泽被清洗的真相:婚外情,给最高80后戴绿帽,9名情妇殉葬

张成泽被清洗的真相:婚外情,给最高80后戴绿帽,9名情妇殉葬

飞云如水
2024-04-18 14:00:23
湖南一中学不让学生家长送饭?学校:家长可以送,不允许校外小食堂进入

湖南一中学不让学生家长送饭?学校:家长可以送,不允许校外小食堂进入

极目新闻
2024-05-13 16:12:01
2024-05-14 02:58:44
新智元
新智元
AI产业主平台领航智能+时代
11026文章数 65495关注度
往期回顾 全部

科技要闻

李开复:大模型创业狂奔一年 中美差距缩小

头条要闻

俄军称继续发动攻势 乌军哈尔科夫前线指挥官被撤换

头条要闻

俄军称继续发动攻势 乌军哈尔科夫前线指挥官被撤换

体育要闻

曼联的越位陷阱里,有只胖虎在溜达

娱乐要闻

湖南卫视回应韩红请战,文案堪称一绝

财经要闻

放开买房租房落户 超大特大城市绷不住了

汽车要闻

纯电增程并行 长安马自达EZ-6实车曝光

态度原创

游戏
艺术
房产
亲子
数码

毛皇AK Happy队,Lyn队问鼎古树杯!

艺术要闻

新绎美术馆价值体系1+1=3?张子康激活“梦廊坊”社会化艺术生态

房产要闻

最新,海口丁村城市更新又有大动作!

亲子要闻

网友怀孕生了一个小宝宝,带给闺蜜炫耀自己的孩子

数码要闻

华硕 ROG Tessen 御风手机游戏手柄正式发布:可折叠、RGB 灯效

无障碍浏览 进入关怀版