![]()
你有没有想过,当ChatGPT告诉你某件事"可能发生"时,它脑子里的那个"可能"和你理解的"可能",其实根本不是同一回事?
南加州大学的研究人员最新发表于《NPJ Complexity》期刊的研究,揭开了这个隐藏在日常对话里的认知裂缝。研究发现,大型语言模型(LLM)在使用"也许""可能""不太可能"这类表达概率的词语时,其内部对应的数值概率,与人类的直觉理解之间存在系统性偏差。
这不是什么小事。
数字背后的鸿沟
研究团队让人类受试者和多个主流AI模型分别为一系列概率词汇打分,把它们对应到0到100%的数字区间。结果发现,两者在极端词汇上尚能达成共识,比如"几乎不可能"大家都认同对应极低概率,"几乎确定"对应极高概率。
但一旦进入模糊地带,分歧就出现了。
![]()
人工智能聊天机器人对“可能”和“也许”的理解与你不同。—— 马扬克·凯杰里瓦尔
以"可能"为例,人类受试者通常把它理解为大约65%的概率,而AI模型给出的内部权重可能高达80%。这一差距听起来不大,但在实际决策场景里,它足以让结论发生质变。
研究还发现,AI的概率判断对提示语言和人称代词极为敏感。把提示词里的"他"换成"她",AI输出的概率估计就会明显收窄、变得更加僵化,折射出训练数据中潜藏的性别偏见。把提示语从英文切换成中文,AI的概率估计同样会发生漂移,这反映了英汉两种语言在表达和理解不确定性时本就存在文化与语义上的差异。
这意味着,同一个问题,因为你用什么语言问、用什么人称问,AI给你的"感觉"就可能完全不同,而它背后的数字也跟着变。
当"不太可能"进入诊室
这个问题在高风险决策场景里的危险性被严重低估了。
设想一位AI辅助诊断系统告诉医生,某种严重副作用"不太可能发生"。医生基于人类直觉,认为这意味着这种风险概率低于10%,从而放心地开出处方。但如果AI内部的"不太可能"其实对应的是25%,医生和患者都在一个错误的认知框架里做出了决定,而没有任何人意识到这一点。
牛津大学此前也记录了类似案例,有AI健康工具将癌症风险评估为"极不可能",导致用户推迟就医,延误了诊断时机。
这背后的机制,研究人员认为与LLM的训练方式密切相关。这些模型是在海量文本上训练出来的,文本中同一个词在不同语境下被赋予了千变万化的概率含义,模型最终学到的是这些含义的统计平均值,而不是某个语境下人类真正理解的那个意思。换句话说,AI的语言是对人类语言的"统计压缩版",在模糊地带必然产生失真。
有研究者尝试用"思路链提示"来缓解这一问题,要求AI一步一步展示自己的推理过程,以期让概率判断更加显性和可审查。但本项研究的结论并不乐观,即便是具备高级推理能力的模型,也未必能稳定地弥合数字与语言标签之间的那道沟。
AI对齐的下一道难题
这项研究将人机交互视为一个类似生物系统的复杂过程,在这个过程中,意义会随着传递而退化。它问的不再是"AI够不够聪明",而是"AI和人类是否真的在说同一种语言"。
从情报分析领域的实践来看,这个问题并不新鲜。早在20世纪60年代,美国中央情报局就已经在研究如何统一分析师对概率词汇的使用标准,以避免在关键报告中出现理解偏差。而今天,同样的问题以更大的规模、更广的场景重新出现在AI系统上。
研究人员呼吁,未来的AI开发必须引入更严格的"语义对齐"指标,确保模型在发现某个事件概率为10%时,每次都能稳定地使用同一个语言标签来描述它,而不是根据提示语的微小变化飘忽不定。
当AI开始帮人类总结医学文献、辅助政策制定、管理日常决策时,"可能"就不再只是一个语气词。它是一个隐形的概率声明,而我们现在知道,AI发出的那个声明,和你接收到的,可能根本不在同一个频道上。
信息来源:https://theconversation.com/probably-doesnt-mean-the-same-thing-to-your-ai-as-it-does-to-you-275626
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.