快速阅读:谷歌研究人员发现,把同一条提示词复制粘贴两遍再发送,能让大语言模型的准确率提升21%到97%。这个发现既简单粗暴,又令人不安。
该图片可能由AI生成![]()
三位谷歌研究员最近发表了一篇论文,结论简单到有点荒谬:你只需要把发给人工智能的问题复制一遍,粘贴在原文后面一起发送,模型给出正确答案的概率就会大幅提升。不需要任何特殊技巧,全选、复制、光标移到末尾、粘贴,完事。
准确率提升幅度:21%到97%。
有网友马上动手试了试,用那道经典的“洗车店距我家50米,我该走路还是开车去?”测试了一遍、两遍、三遍重复提示词的效果。结果很有意思:发一遍,模型说走路更好;发两遍,模型开始犹豫;发三遍,模型终于意识到你是要把车开过去洗,当然得开车。
这道题本身值得多说两句。题目没有明确说“车就在你身边”,只说洗车店离家50米。有观点认为,这其实是一个表述不清的问题,正确答案要看车在哪里。也有观点反驳说,“我该走路还是开车去”这个问题在日常语言逻辑里天然蕴含了“车就在手边”的前提,要求把所有隐含条件全部显式列出,对话就没法进行了。
两种观点都有道理,但真正耐看的问题在于:为什么重复同一段文字,机器就能“想清楚”这件事?
技术层面的解释来自几位懂行的网友。大语言模型是单向从左到右处理文本的,早期出现的词条只能通过“向前看”来获取信息,看不到后面的内容。把提示词重复一次,相当于给每个词条都创造了一次“回望”的机会,让输入文本的不同部分能够彼此关联,降低了模型对词语顺序和位置的偏见。
还有一个更直白的说法:更长的上下文等于更低的困惑度。推理模型之所以表现好,部分原因就是它们在正式给出答案前,先生成了大量的“思考过程”文本,这些文本为最终答案积累了丰富的上下文。重复提示词,本质上是在用一种笨办法模拟这个过程。有观点指出,即便用完全无关的填充文字,比如让模型数数“1、2、3……”,也能改善答案质量,只是效果不如重复提示词明显。
换句话说,给模型更多“时间”,它就能想得更好。这和人类在考试时把题目默读两遍再作答,并没有本质区别。
当然,随着推理模型的普及,这个技巧对最新一代模型的加成效果会打折扣。论文测试的还是非推理模型,用的是2024年初发布的旧版本。有观点吐槽说,学术界的研究速度实在感人,实验做完到论文发出去,中间拖了将近一年。
不过问题还没解决:这个技巧究竟对哪类问题最有效,重复几次是上限,取决于什么变量?论文里目前还没有给出系统性的答案。
简评:
人工智能最让人不安的,不是它太聪明,而是它的聪明方式我们看不懂。
复制粘贴一下问题,准确率就能飙升97%——这个发现简单到近乎羞辱。我们造出了人类历史上最复杂的计算系统,却要用幼儿园级别的技巧来哄它认真思考。
但仔细想想,人不也一样吗?老板把重要的事情说三遍,老师让学生把题目读两遍,广告词永远是循环播放。重复,从来不是因为听者愚蠢,而是因为理解这件事本身就需要时间和冗余。
这个实验真正揭示的是:无论碳基还是硅基,智能的底层逻辑是相通的——不是一次性输入正确答案,而是给足够的时间让信息在系统里“发酵”。
所以下次跟AI对话,别急着嫌它笨。把问题多说一遍,就像你对待一个需要思考时间的聪明朋友。毕竟,耐心这件事,对人对机器,都是一种尊重。
论文:arxiv.org/abs/2512.14982
Reddit:www.reddit.com/r/singularity/comments/1r85zst/research_prompt_repetition_improves_nonreasoning/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.