你有没有遇到过这样的情况:向Deepseek或者豆包提问,其回答看起来非常专业、逻辑清晰,甚至还会给出引用来源,但你仔细一查发现,有些内容却完全就是它自己无中生有“编造”出来的?
这既不是你的错觉,也不是AI“变坏了”要骗你,而是目前AI大模型一个普遍存在的技术现象:幻觉。更直白地说,就是一本正经地胡说八道。下面我们就来深扒一下,为什么聪明绝顶的AI,有时候却是个“忽悠大师”,以及我们该如何识别和应对。
AI幻觉,指的是AI大模型在生成内容时,会“创造”出一些在现实世界中并不存在的信息,并以高度自信的方式呈现出来。
举个例子:你问:“请提供三篇关于量子计算应用于农业的论文标题和作者。”AI可能会流畅地回答你,甚至像模像样的列出作者名字和期刊名称,极具欺骗性,但实际上这些论文却根本不存在。
这里我们要明确一点:AI没有意识、没有恶意,它不是在故意骗你,而就是单纯的“算错了”。它的所有行为,都源于一个核心机制:概率预测。
你可以把它想象成一个超级“接话侠”。它接受了互联网文本、书籍、代码等海量数据的训练,练就了一身本领:“在给定的上下文中,下一个词最应该是什么”。
这个过程的技术本质是自回归生成。模型通过分析你的问题和它已经生成的内容,从数十亿个参数中计算出概率最高的下一个词或token,直到拼凑出一个完整的回答。
那么,AI大模型的“胡说八道”到底是怎么发生的呢?
首先就是训练数据的“噪音”。模型学习的互联网数据本身就有大量错误、虚假或矛盾的信息。它学到了“正确”,同时也学到了“错误”。
其次概率采样并非真理。模型输出的不是唯一答案,而是一个概率分布。为了提高创造性或避免重复,我们通常不会总是选择绝对概率最高的那个词,而是会引入一些随机性。这就好比让你玩成语接龙,大多时候你是选最可能的,但偶尔也会选第二、第三可能的成语,来让整个玩法更新奇。
另外就是AI缺乏真正的理解与验证。模型本质上并不是去理解“对错”,它只是计算“相关性”。因此,它的一切输出,包括错误,都是数学计算和概率选择的结果,而非主观意图。它并不知道“爱因斯坦在1915年提出广义相对论”是一个需要被忠实复述的事实,它只是认为“爱因斯坦”、“1915年”、“广义相对论”这几个词经常一起出现,相关性很高。当上下文稍微变化,这种关联就可能被带偏,生成“爱因斯坦在1920年提出广义相对论”这样的错误。
幻觉有多普遍?这可不是小问题,而是目前大模型领域的核心挑战。GPT-4的“幻觉率”:根据UC伯克利和微软研究院2023年的一项联合研究,即使在旨在减少幻觉的“检索增强生成”模式下,GPT-4在生成关于特定人物的长篇传记时,仍有高达3%到5%的事实性错误率。而在开放域问答中,这个比例可能更高。
在法律、医疗等高风险领域,幻觉可能导致严重后果。如在医疗领域,AI生成的错误诊断可能延误治疗;在法律领域,虚构的案例和引文可能误导专业人士的判断。
AI还要用,我们该如何防忽悠?
首先就是保持警惕,永远不要100%相信AI生成的内容,尤其是涉及事实、数据、引用的部分。把它看作一个聪明但会犯错的助手,它的输出只是需要被验证的初稿。
然后对这个草稿进行交叉验证:对于关键信息,务必使用搜索引擎、专业数据库或权威资料进行二次核实。AI生成的论文,去Google Scholar搜一下;它提到的事件,去维基百科查一下。
对于AI工具本身,可使用“检索增强生成”工具。越来越多的应用将大模型与最新的互联网搜索结果、企业数据库等外部知识库连接起来。让模型基于这些确切的、最新的数据来回答,能大幅降低幻觉。
最后还有个技巧,就是细化你的问题。因为模糊、宽泛的问题更容易诱发幻觉;问题越具体、上下文越清晰,模型越不容易跑偏。例如,不要问“告诉我关于火星的一切”,而是问“请总结NASA官网关于火星‘毅力号’探测器在2023年的主要发现”。
AI大模型是我们这个时代最强大的工具之一,但它也是一个“有缺陷的天才”。理解它的工作原理和局限性,尤其是知道它常会一本正经地胡说八道“骗”你一下,才能更好的使用AI大模型。记住,AI的责任是生成内容,而判断真伪的责任,还在我们自己。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.