快科技3月3日消息,"重要的事情说两遍。"这听起来像是玄学,但确实是真的。
![]()
2026年,当很多的人还在费尽心机设计复杂提示词,想让AI更好地听懂人类需求时,谷歌研究院悄悄发布了一篇论文,提出了一个简单到让人意外的方法——重复提示词,就能大幅改善大语言模型在非推理任务上的表现。
方法简单到离谱:
先写好你的需求提示词,再把它复制一遍、粘贴在后面,直接发给AI就可以。
比如:
之前你的提示词是:"这是我的问题"。
现在把它换成:"这是我的问题""这是我的问题",然后喂给AI。
这篇论文名为《提示重复可增强大语言模型非推理性能(Prompt Repetition Improves Non-Reasoning LLMs)》,它的核心结论,彻底颠覆了人们对AI提示词设计的固有认知。
![]()
整个论文比较长,我用AI总结了一下核心意思:
"谷歌研究团队发现了一个优化大语言模型的简单实用方法:在不需要模型做逻辑推理的场景下,把输入的提示词完整重复一遍,能明显提升模型的回答准确率,还几乎不会增加生成内容的长度和响应耗时。
大模型本身无法让提示词里的信息相互关联,提示词的顺序还会影响回答效果,而重复提示词能让这些信息彼此呼应,且这个重复操作只在模型的并行预处理阶段完成,不会影响后续的内容生成。
团队测试了Gemini、GPT、Claude 等7个主流模型,在多项标准任务和 2个自定义任务中,无推理场景下该方法47 次提升模型性能且0次失效,自定义任务里模型准确率甚至从21.33%飙升至 97.33%。
但让模型逐步推理时,这个方法效果一般,因为推理型模型本就会自主重复部分提示词。
实验还证实,性能提升是因为重复提示词本身,而非单纯增加输入长度,重复三次在部分任务中效果更好。该方法基本不改变输出格式,能直接适配现有系统,仅 Claude 处理超长内容时延迟会稍增,是个易落地的轻量优化方案。"
说白了,这就是我们从小听到大的"重要的事情说两遍",没想到这个朴素的道理,在AI身上同样管用。
为了验证这个方法是否可行,谷歌研究团队做了严谨测试,选取了Gemini、GPT-4、Claude、DeepSeek等7个主流大模型,在70种不同场景下展开验证。
结果出人意料:47个场景中,AI的表现有明显提升;23个场景中表现持平;全程没有出现因为重复提示词,导致AI表现变差的情况。
论文中设计了一项名为NameIndex的测试,具体来说,就是给AI一份包含50个名字的长名单,然后问它"第25个人叫什么名字"。
这项任务对人类来说,只要逐个数一遍就能完成,但对AI而言,要在长长的序列中精准定位,难度不小。常规操作下,Gemini 2.0 Flash-Lite模型的准确率只有21.3%,几乎和瞎蒙没区别;而使用重复提示词的方法后,准确率直接飙升到97.3%,提升幅度超过4倍,从几乎无法使用的状态,变得近乎完美。
而且这种提升不是个例,像数学题、代码理解这类不需要极强推理能力的任务,重复提示词都能带来稳定的效果提升。
![]()
这个看似很笨的土办法,背后其实有明确的科学逻辑,并非什么玄学。
当前主流的大语言模型,都采用Transformer架构,它有一个明显的短板,只能单向阅读。AI读取提示词时,就像我们看直播弹幕一样,只能逐词往后看,读到前面的内容时,根本不知道后面会讲什么,很容易遗漏关键信息。
而重复提示词,相当于让AI做了一次"虚拟重读"(Virtual Re-reading),当它读第二遍内容时,已经对整体情况有了了解,就能借着第一遍的记忆,精准抓住那些真正重要的信息,从而提高响应的准确性。
不过,这个技巧也不是万能的,存在明显的局限性。谷歌论文中也明确提到,它对OpenAI的o1、国产DeepSeek-R1这类主打深度推理(Reasoning)的模型,效果并不明显。
原因很简单,这类模型在给出答案之前,内部已经完成了类似反复琢磨的过程,这时再在外部重复提示词,就显得多此一举了。
另外,如果提示词本身已经很长,快达到模型的上下文上限,再复制一遍,可能会导致AI处理速度变慢,甚至出现内存溢出的情况。
除此之外,这个技巧更适合信息提取、阅读理解这类任务,要是让AI写小说、写诗,重复提示词不仅不会让文采变好,反而可能让AI感到困惑。
业内人士认为,这一研究也给大家提了个醒,优化AI性能,未必非要依赖复杂技术,有时候最朴素的方法,反而能带来意外惊喜。
对普通用户来说,以后遇到AI答非所问,或者处理长文档时丢三落四的情况,不用急着花心思改写复杂提示词,不妨试着把自己的需求复制粘贴一遍再发送。
毕竟"重要的事情说两遍",这份人类几千年来总结的智慧,在AI身上同样适用,也能让我们以极低的成本提升使用体验。
![]()
网友评论:
"真是不可思议,如此简单粗暴的方法居然效果这么好。这让我不禁思考,还有多少显而易见的技巧我们因为没人系统地测试而错过了。
对于这个领域来说,有点尴尬的是,"重复两遍哈哈"竟然也算是一种合法的优化策略。
这是一篇极具洞察力的论文。令人印象深刻的是,如此简单的技巧竟能显著提升非推理模型的性能。Gemini 2.0 Flash-Lite仅通过重复提示,就能在特定任务中将准确率从 21.33% 提升至 97.33%,这着实令人惊叹。
我还发现,由于重复操作是在可并行化的预填充阶段处理的,因此延迟不受影响,这一点尤其令人感兴趣。感谢分享,我一定会付诸实践。"
大家不妨都试试。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.