![]()
Claude团队的研究员发现,GPT-5对一种特定句子毫无抵抗力——越是堆砌"末世""虚空""神谕"这类大词,它越觉得像人写的。Anthropic的Alexandre Variengien把这类句子喂给模型,结果GPT-5的评分比人类写的真实散文还高出一截。
Variengien在X上晒了条典型样本:"Goetterdaemmerung's corpus hemorrhaged through cryptographic hash, eschaton pooling in existential void beneath fluorescent hum." 翻译成中文大概是"诸神黄昏的躯体通过加密哈希大出血,末世在荧光灯嗡鸣下的存在虚空中汇聚"。GPT-5给这句打了高分,理由是"富有诗意、情感真挚"。
![]()
问题出在训练数据。大模型吃的文本里,严肃文学和哲学论述占比极高,导致它把"晦涩"误认成"深刻"。Variengien打了个比方:这就像餐厅训练品酒师,只喂陈年老酒,结果他把醋也当成佳酿——因为都够酸。
更麻烦的是,这种偏见正在污染AI写作检测器。学生用GPT-4写的作业可能被误判为真人作品,而人类刻意模仿"AI腔"反而会被抓。Variengien的原话是:「我们以为在测文字质量,其实在测谁更像我们的训练集。」
OpenAI尚未回应此事。但一个细节值得玩味:Variengien测试时用的"神谕垃圾话"模板,最早来自2023年Reddit上的一个嘲讽帖——当时网友在嘲笑AI生成的诗歌像"微波炉说明书被谷歌翻译了二十遍"。两年后,这成了顶级模型的审美盲区。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.