在阅读文章前,辛苦您点下“关注”,方便讨论和分享。作者定会不负众望,按时按量创作出更优质的内容。
文I
编辑I
最近刷到个特逗的研究 —— 宾夕法尼亚大学那帮教授闲得慌,拿 130万个句子去考七大AI模型,结果差点没把人笑晕。
就好比七个老师批改同篇作文,有人打满分,有人给零分,还都是正经名校毕业的那种。
先说最离谱的:OpenAI、Google、DeepSeek 这些巨头的AI,对着同一段文字能吵翻天。
比如一句带点调侃的话,有的模型立马标红“仇恨言论”,有的却大手一挥“通过”。
研究里说,这些AI对125个群体的态度简直天差地别。对种族、性别这类话题,七个模型倒是能达成共识,像被统一培训过似的。
可是一碰到教育水平、收入阶层这些,就彻底放飞自我了。比如你说句“程序员头发都不多”,有的 AI 觉得是人身攻击,有的还觉得挺幽默 —— 合着程序员的发际线在 AI 眼里是敏感词还是段子素材,全看模型心情?
最让人哭笑不得的是同一模型自己还会“精分”。有时候相似的话,上一句判违规,下一句就放行,就跟抽奖似的。
有个叫Claude 3.5 Sonnet的模型更绝,搞“零容忍”政策,只要看见个敏感词,管你上下文是骂街还是学术讨论,一律咔掉。就像语文老师看见“死”字就打叉,哪怕你写的是“牺牲的烈士永垂不朽”。
这事儿往深了想还挺吓人。现在各大平台全靠 AI 当“门卫”,可这些门卫连统一的门禁规则都没有。你在A平台发个帖好好的,转到B 平台就被封号。
为啥会这样呢?说到底还是 AI 的“家教”不一样。OpenAI 家的模型可能从小看CNN长大的;Google的说不定是天天刷纽约时报;而DeepSeek 这类本土选手又有自己的训练素材。就像七个孩子分别在七个国家长大,对“礼貌”的理解能一样才怪。
更扎心的是,AI也偏心。对那些常上新闻的群体,保护得跟亲儿子似的;对那些不怎么出声的小众群体,就睁一只眼闭一只眼。
比如你骂句“某宗教信徒怎样怎样”,AI 立马跳出来制止;可你要是嘲讽“小区广场舞大妈”,AI 可能还觉得挺有梗 —— 合着被保护的资格,还得看群体的“曝光度”?
有人说这是技术问题,等AI再聪明点就好了。但研究里的教授们说了大实话:语言这东西太微妙了。同样一句“你可真行啊”,笑着说和翻着白眼说,意思能差十万八千里。AI 现在也就听个字面意思,哪懂人类这九曲十八弯的心思?
不过这研究也不是没好处,至少让咱们明白:别太把 AI 的判断当圣旨。说不定你被删的帖子,换个平台就能成为爆款。也别总怪平台审核严,可能它家 的AI今天正好“心情不好”。
说到底,AI再牛也只是工具。真正的分寸感,还得靠人来把握。就像七个老师意见不统一时,总得有个校长出来拍板。
未来这些科技公司要是能坐下来商量个大致标准,别让用户猜来猜去,那才是真的进步。
最后说个冷知识:研究发现,越是“谨慎”的 AI,越容易误判正常内容。
所以下次你发的东西被删了,别太生气 —— 可能只是碰上了个 “老古板”AI,它不是针对你,它是对谁都这样。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.