“9.11 比 9.9 大?”——当我把这句答案甩到群里,满屏问号差点把我手机震烂。 几秒前,我刚拿 GPT-4、Gemini、Claude 3.5 挨个问了一遍,仨学霸异口同声:9.11 更大。 我小学三年级的侄子当场笑到把奶茶喷键盘:小数点白学了?
别急着骂 AI 笨,它其实没把 9.11 当数字,而是拆成“9”和“11”两块token。 在它眼里,这俩就像门牌号,11 号楼当然比 9 号楼靠前,于是秒选 9.11。 顺序再调一下,先问 9.9 再问 9.11,有模型立马改口——典型见风使舵,比我还墙头草。
![]()
我把同样的问题丢给国产的元宝和豆包,它俩居然答对了,一秒没犹豫。 不是它们更聪明,是训练时喂了更多“小数比大小”的狠活,套路见得多,套路就骗不动。 换句话说,AI 不是不会算,是得有人提前把坑填平,这就是提示工程——问题怎么问,比问题本身更值钱。
![]()
有人觉得小题大做:不就错一道小数题? 可自动驾驶、金融风控、医疗诊断,全是小数点后面几位定生死。 今天敢把 9.9 算小,明天就能把 0.19% 的风险算成 1.9%,直接让一辆车上天,让一张账单爆炸。
![]()
更可怕的是,我们正把越来越多的“判断”外包给黑箱。 黑箱里不是数学,是概率游戏:哪个片段出现得多,哪个就当选。 人类常识在它那里只是训练语料的频次,一旦语料偷懒,常识就塌方。
![]()
我试着手动给模型加括号:请把 9.11 和 9.9 当成两位小数再比较。 答案终于对了,但它补了一句:谢谢提醒,以后我会注意。 ——我后背一凉,这语气像极了考完试嘴硬的我:不是不会,只是粗心。
![]()
所以,别急着把 AI 当答案制造机,把它当刚入职的实习生: 能干活,但得有人在旁边把关,尤其在拿不准小数点的时候。 真要把权力交出去,先问问自己:敢不敢让这位“11 号楼”实习生替你按核按钮?
![]()
小数点不会骗人,会骗人的是背后那颗盲目信任的心。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.