哈喽大家好,老张今天带大家聊聊AI圈,最近爆出个大瓜,之前ChatGPT写文案、做菜单溜得飞起,可一遇数学题、写代码就翻车。
结果麻省理工直接扔出个狠活——新出的推理模型居然在“抄人脑作业”,连“思考费不费劲”都跟咱人类对上了。
![]()
![]()
惊人实验
先给大家扒扒这个惊掉下巴的实验!研究团队特意设计了一组题,让AI推理模型和人类志愿者同台PK,不光看谁答对得多,还精准记录双方“思考耗时”,精确到毫秒级那种。
谁能想到,随着题目难度飙升,人类答题时间肉眼可见变长,而AI那边更绝——生成的“内部思考标记”居然跟着同步增加!
![]()
尤其是“ARC挑战”这种超烧脑题型,不管是人还是AI,都得费老大劲琢磨,这“思考成本”的同步率,说它没偷学人脑都没人信!
最后研究团队直接实锤:AI推理模型的“费脑程度”,居然和人类高度一致!
![]()
![]()
抄人脑答案
可能有人要问,这AI到底是咋做到的?其实它本质是个基于人工神经网络的“计算狠活”,但没走传统AI的老路——不是直接甩答案,而是学着人类把复杂问题一步步拆解开。
比如解数学题,它会先琢磨思路,再逐步推演,而不是瞎蒙一个结果。
![]()
更绝的是,研究人员还给它加了个“强化学习buff”:答对了给奖励,答错了给惩罚,逼着它在问题里自己找门道。
就这么一套操作下来,它不光能搞定数学难题、编写程序代码,表现直接碾压之前的老模型,这波算是把“人类思考逻辑”玩明白了!
![]()
不过咱也别把AI吹上天,它这波“模仿秀”照样有翻车点。虽然能学着人类拆问题、算成本,但它处理信息的方式贼死板——有时候推理过程乱糟糟,甚至夹杂着无意义的内容,全靠最后“蒙对答案”。
而且它的思考是在抽象的“非语言空间”里进行的,不像人类能结合场景灵活变通,遇到没明说的外部知识,照样犯懵。说白了,它只是抄到了人脑的“表面操作”,没学到“灵活变通的内核”。
![]()
![]()
共同密码
这波研究最牛的不是AI变聪明了,而是咱们摸清了AI和人脑的“共通密码”。之前做AI都是闷头堆数据、调参数,谁能想到“跟着人脑节奏走”居然能事半功倍?
更有意思的是,这可不是研究人员刻意设计的,而是技术进化到一定阶段的“不谋而合”,就像不同物种进化出相似的生存技能,想想还挺奇妙。
当然,这波技术也不是终点。研究人员已经放话了,接下来要试试用量子光优化模型,看看它能不能搞定更复杂的问题,还想搞明白它咋处理那些没明说的外部知识。
![]()
要是真能突破这些瓶颈,以后AI可能不只是工具,说不定能成为帮我们拆解科研难题、优化决策的“思维搭子”。
AI推理模型和人脑的这场“隔空同步”,不是为了让AI变成人,而是为了让智能变得更懂人。
![]()
以后咱们用AI解决问题,可能就像和一个“懂思考、知深浅”的伙伴合作,既高效又靠谱。
接下来就看这波技术能不能接住节奏,把实验室里的成果变成实实在在的用处,AI能不能真成咱的“贴心思维搭子”了,咱就拭目以待!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.