![]()
哈喽,大家好,小圆这篇评论,主要来分析一个很有意思的问题:我们平时谈论AI时的那些说法,会不会在不知不觉中给它赋予生命,又到底是谁被这些语言误导了呢?生活里,我们常听到“ChatGPT理解了我的问题”“AI学会了识别图像”这类表述。
听着顺理成章,几乎没人会特意停下琢磨背后的深意,但爱荷华州立大学的研究团队发现,这些看似普通的用词选择,可能正在悄悄改变我们对AI本质的认知,很多人都担心媒体会过度把AI拟人化,可实际情况真的是这样吗?
![]()
![]()
要搞清楚语言对AI认知的影响,最直接的就是看我们用什么词描述它,爱荷华州立大学的英语教授乔·麦基维茨和同事们,专门做了一项大规模研究,他们分析了超过200亿词汇的新闻语料库,重点追踪AI、ChatGPT这两个词和心理动词的搭配频率。
一开始研究团队以为能找到大量拟人化表达,结果却出乎预料,和AI搭配最多的心理动词是需要,总共出现了661次,而知道和ChatGPT搭配仅32次,这些心理动词在日常口语里的使用频率可比这高多了。
![]()
如果说AI需要理解现实世界,拟人化色彩就浓了,这里的需要,暗含了类似人类的期望、道德判断,可这些都是当前AI根本不具备的,所以说,语言里的门道可不少,不是光看用词就能下结论的,这也引出了一个更核心的问题:拟人化到底是绝对的有或没有,还是存在其他可能呢?
![]()
研究团队通过分析发现,拟人化并不是非黑即白的判断题,而是一个连续的光谱。高级传播项目主任珍妮·奥恩就明确表示,拟人化存在于一个连续谱上,这一发现也和近期其他研究的结论不谋而合,这个观点很有道理,我们对AI的认知,不会只停留在是机器或是人这两个极端上。
![]()
影响这个光谱的因素有不少,首先是AI自身的输出,2024年有一项关于大语言模型类人化表达的研究显示,AI系统自己的输出就常带有拟人化特征,研究人员还开发了DUMT方法,专门用来测量和控制语言模型输出的人类化语调程度。
这说明问题不只是我们怎么说AI,AI自己怎么“说话”也很关键,就像我们平时用ChatGPT,它用第一人称我来回应时,很容易让人产生和真人对话的错觉,研究者把这叫拟人化陷阱,既是营销手段,也是一种认知谬误。
![]()
![]()
麦基维茨和奥恩的研究,其实推翻了一个普遍认知,很多人觉得媒体在系统性地把AI拟人化,进而误导公众对其能力的判断,但实际情况是,新闻写作中的AI拟人化远没有想象中普遍,反而要微妙得多。
![]()
不同心理动词的拟人化程度差异,思考、感觉、希望,是不是比处理、计算、输出更容易让人联想到人类?那些不常出现的强烈拟人化表达,会不会比高频的温和表达对公众认知影响更大?这些问题搞清楚了,我们才能更精准地用语言描述AI。
随着大语言模型越来越复杂,它们的行为和人类的差异越来越小,这时候精准使用语言就变得前所未有的重要。我们既不用刻意回避自然的表达,免得让技术讨论变得生硬晦涩,也不能随意使用带有强烈人类特征的词汇,夸大AI的能力和自主性。
![]()
毕竟语言不只是简单的描述工具,它还在塑造我们对现实的理解,当我们说AI思考时,到底是在描述一个技术过程,还是在赋予它本不具备的意识?答案藏在语境、表达意图,以及我们对AI本质的认知深度里。
对科技传播者来说,精准用词、把握语境,是传递真实技术信息的关键,未来,随着对AI认知的不断深入,我们的语言表达也会不断调整,但核心始终不变:用客观、准确的语言,还原AI作为工具的本质,同时尊重技术发展的客观规律。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.