来源:市场资讯
(来源:图灵人工智能)
![]()
转自南风窗,仅用于学术分享,如有侵权留言删除
![]()
作者 | 玉城风
编辑 | 张来
![]()
“AI人文学的序章”之八
前段时间,以讹传讹的“DeepSeek向王一博道歉”的消息,闹得沸沸扬扬。有人梳理事情经过后说,这是一起“AI幻觉”导致的闹剧;也有人认为是粉丝人为搅浑水。一起娱乐圈的乌龙事件,因为与人工智能发生了关联,让“AI幻觉”的严肃命题再次受到人们的关注。
也就在不久前,全国首例“AI幻觉”案落槌——一位高考生的哥哥梁某在查询高校信息后,发现AI平台生成的信息存在错误,而AI仍信誓旦旦回答:如内容有误将赔偿10万元。一气之下,梁某将AI平台的研发公司告上法庭,要求赔偿。
杭州互联网法院作出一审判决,驳回诉讼请求。法院的判决,当然有着法理和现实的多重考量,而这一“首例”判例,进一步引起了人们对“AI幻觉”,以及对生成式人工智能服务的责任边界的热议。
![]()
AI喝了致“幻”剂
![]()
![]()
图源:图虫·创意
简单来说,所谓“AI幻觉”,就是指AI生成了看似合理,却与事实严重不符的内容。
![]()
这些则属于“忠实性幻觉”。
![]()
图源:pexels
![]()
![]()
《我,机器人》剧照
![]()
![]()
致“幻”成分,来自何方?
![]()
![]()
图源:pexels
![]()
![]()
图源:pexels
而数据偏差,很可能源于数据收集过程中的局限性;或者,训练数据中某些信息被过度强化,而其他重要信息缺失。模型就可能在这些不全面的“知识”基础上,构建出错误的表述。
更何况,当前AI写作、AI洗稿,导致互联网上充斥着大量垃圾信源——有人愤怒地将其称为“电子粪坑”。基于这样的语料库进行的AI学习和推理,正如手持盗版地图进行导航,很容易“盲人骑瞎马,夜半临深池”。
其二,模型的“黑箱”本质为幻觉提供了温床。
![]()
![]()
《超少年密码》剧照
其三,“泛化难题”,令AI如“新手走迷宫”。
![]()
![]()
解“蛊”良药,何处觅得?
![]()
再如,面对“9.11与9.9哪个更大”的“陷阱题”,早期AI产品可能因对小数点规则理解不足而答错。但通过引入更多数学教材和常识数据,如今已经不再是个问题。
![]()
图源:Unsplash
二是,数据治理,净化知识源泉。
解决AI幻觉的首要任务是治理数据。在数据收集阶段,要确保数据的多样性和全面性。通过扩大数据收集范围,涵盖不同来源、不同特征的数据,可以减少数据偏差。
例如,在图像识别训练中,收集来自不同环境(如白天黑夜、室内室外)、不同拍摄设备(如手机、专业相机)、不同角度的图像,让AI对物体有更全面的认识,避免因训练数据单一而产生“脸盲症”——比如将北极熊误认为萨摩耶犬。
同时,对数据进行严格的清洗和标注。去除噪声数据,确保标注的准确性,为AI提供高质量的学习素材。这就像给AI提供纯净、准确的知识源泉,帮助它在正确的基础上构建认知。
![]()
图源:图虫·创意
三是,打开“黑箱”,让深思更“可视”。
为了降低模型“黑箱”带来的风险,研究模型的可解释性至关重要。科研人员正在努力开发各种方法,试图理解模型内部的决策过程。例如,通过改进流程,更直观展示神经网络中不同部分在处理输入信号时的工作状态,从而帮助研究者了解模型是如何对数据进行分析和生成输出的。
一些新型的模型架构,也在尝试引入更多的可解释性设计,将传统的逻辑规则与神经网络相结合,使模型的决策过程更易于理解和解释。
当人们能够看清模型的“思考”过程,就能更容易发现和纠正可能导致幻觉的苗头性错误。
![]()
图源:Unsplash
四是,强化学习与对抗训练,磨砺AI的判断力。
强化学习可以为AI提供一种在动态环境中不断学习和优化的机制。通过设置合理的奖励机制,让AI在生成准确、可靠内容时获得“鼓励”,而在产生幻觉时受到“警示”,从而引导AI逐渐提高输出的质量。
对抗训练也是一种有效的方法——
让生成模型和判别模型相互对抗,生成模型努力生成逼真的内容,判别模型则尽力辨别生成内容的真假。在这种对抗过程中,生成模型不断优化,算法技术不断得到改进或提升(更稳定、更鲁棒),从而减少幻觉的产生。
五是,专业智慧引导,让AI成为“专”家。
在医疗、法律、金融等对准确性要求高的领域,将专业领域知识融入AI模型,可以有效提升模型在特定领域的准确性,减少幻觉。
![]()
可贵的宽容:“AI幻觉”并非一无是处
很多深受其苦的朋友会说:“真希望科学发展得再快一点,早些克服AI幻觉!”
不过,话又说回来,从AI人文学的视角来看,如果完全消灭AI幻觉,不啻于扼杀AI的想象力。对于尚处幼年的AI技术,我们除了多些耐心,还要多点包容心态、辩证思维。
因为凡事都有两面。所谓的“AI幻觉”,同样如此。
有专家提醒,“AI幻觉”是大模型与生俱来的特点,极难消除。这源于大模型在海量数据训练中形成的概率关联机制——它并非像人类一样真正“理解”信息,而是通过统计规律生成答案。当数据存在矛盾或逻辑缺口时,模型为了“自圆其说”或者“不让你失望”,就可能输出看似合理却偏离事实的“幻觉”内容。
![]()
图源:Unsplash
有专家就认为,“AI幻觉”就好比人类创意工作者的“脑洞大开”,决定AI创造力和想象力,对于AGI(通用人工智能)而言极其重要。
例如,在药物研发过程中,新药分子结构的设计往往需要突破常规思维。大模型的“幻觉”能力,有时能让其跳出现有知识框架的束缚,“想象”出全新的分子结构组合,为科学家们提供新的灵感和启发。
同样,在蛋白质结构预测方面,面对复杂的生物大分子,AI的“幻觉”特质,能令其生成一些突破传统认知的结构模型。这些模型或许在初期看似离经叛道,但经过科学家的深入研究和验证,有可能成为开启新研究领域的钥匙。
而且,越是能力强的模型,可能往往越容易产生“幻觉”。比如DeepSeek,在“深度思考”模式下,它在小说、诗歌这类创意内容的生成上,表现优异,很长时间里明显胜出很多其他AI产品一大截。然而相对应的,它在严肃的学术性内容的创作中,则有时会表现得过于“活泼”,在史实、名言和引证出处方面,“自圆其说”的冲动过于强烈。
这好像是一对难以调和的矛盾——强大的学习能力让模型捕捉到数据中隐秘的关联性,却也因过度敏感而放大噪声。
所以,有专家就认为,如果我们强行通过规则约束消除“幻觉”,AI便只能沦为机械的知识“复读机”或“统计器”,而失去突破现有认知边界的能力与可能。
AI幻觉,就像一面棱镜,既照出当前AI技术的局限性,亦为我们了解AI、善用AI、改进AI,提供了更多的启示。
![]()
图源:Unsplash
对于AI幻觉,我们既不能放任自流,任其误入歧途;也不必因噎废食,将“幻觉”视为洪水猛兽。
理性的做法有很多——首先,前提是看清“AI幻觉”的真相和本质,学会理性看待,既不对AI生成内容偏信盲从,也不因暂时和偶尔的“犯傻”而对AI予以全盘否定;其次,熟悉现有各类AI工具的基本特征(长处和短处),从而针对自己的需求类型,聪明地选择具有不同特长的AI工具;其三,熟悉基本的AI提示词(“咒语”),掌握基本的操作规律和技巧,从而更好地驾驭AI、善用AI。
唯有这样,我们才能在AI的可靠性与创造性之间找到某种平衡,才能让AI真正成为人类智慧的延伸,而非失控的“造梦机器”。
(作者是AI人文学研究者、博士)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.