网易首页 > 网易号 > 正文 申请入驻

英伟达4B小模型击败GPT-5 Pro!成本仅1/36

0
分享至

来源:市场资讯

(来源:量子位)

英伟达小模型持续获胜。

ARC-AGI 2最新成绩,4B小模型NVARC27.64%的公开榜成绩力压GPT-5 Pro 18.3%登顶榜首。

且每任务成本仅20美分,大约是GPT-5 Pro单任务成本(超过7美元)的1/36。


据官方分析,此次NVARC夺冠的亮点在于零预训练深度学习方法,没有依赖大规模通用数据集进行前期预训练,规避了预训练模型的领域偏见、数据依赖等问题。

而ARC-AGI 2确实是一个消除了与公共训练数据重叠的更高难度测试,主要是看测试模型能否高效地获取超出其训练数据的新技能。


成绩出炉后,官方访谈到了NVARC团队的Jean-Francois Puget和Ivan Sorokin,进行技术剖析。


快来看看“性价比之王”是如何“练”成的?

英伟达的策略是将复杂推理移至离线的合成数据管道,训练能在评估时快速运行的较小模型。

简单来说就是大规模合成高质量数据,然后对现有模型进行优化,并且将昂贵的计算工作转移到离线进行


由于Kaggle比赛对计算资源限制非常严格,团队意识到,他们不能直接使用那些需要超强算力的大型LMM来进行复杂的、一步一步的推理和代码生成。

因此他们改变了思路,决定将最烧钱的计算工作转移到离线完成。比如利用GPT-OSS-120B来大规模制作高质量的合成谜题。

团队从H-ARC、BARC数据集中搜集了现有的ARC谜题数据,然后将简单的谜题混合起来,生成更复杂的新谜题。


为了确保数据质量,他们将复杂的推理管线拆分成不同的阶段,每个阶段都可以独立验证。

通过这种方式,他们建立了一个含320万+增强样本的合成数据集,其中每个样本最多有7对输入/输出。


这里忍不住提一嘴,哈萨比斯刚强调了Scaling Law的重要性,那么合成数据的Scaling怎么不算呢(doge)?


言归正传,NVARC核心的推理模块以改进版ARChitects方法为基础,选用小参数模型Qwen3-4B,通过对话式模板简化谜题理解。

训练时借助NeMo RL框架和Megatron后端进行监督微调。

不过,让模型取得优异成绩的关键一步在于测试时微调(TTFT)。

针对ARC-AGI-2“每个任务都是全新规则”的特点,NVARC引入了LoRA微调技术,并且是针对每一个问题都进行微调,让模型在做题前快速适应。

而对ARChitects方法的改进在于解码阶段DFS算法做了批处理优化,修复结果非确定性问题。

同时统一了8种数据增强操作评估候选解,最终在公开榜获得了27.64%的分数。


在竞赛后期,团队还应用了“少即是多”的TRM方法,尝试与Qwen3-4B集成补充分数,虽然有一定提升,但受各种限制并没有大幅优化。

那么问题来了,有人会说这样训练出来的小模型不就是做题机器吗?哪里比得上全面发力的超级大模型?

但更值得关注的或许不在于模型本身,而在于实现突破的方法。

在特定领域任务中,小模型经过针对性优化,性能并不逊色,再加之成本、速度、适配性与领域聚焦优势,它们已经在诸多场景崭露头角。

将正确的方法用在正确的地方,将会实现更大的价值。


借用这位网友所说,模型或许应该被设计得更加“敏捷”。

论文地址:https://drive.google.com/file/d/1vkEluaaJTzaZiJL69TkZovJUkPSDH5Xc/view

[1]https://developer.nvidia.com/blog/nvidia-kaggle-grandmasters-win-artificial-general-intelligence-competition/

[2]https://arcprize.org/blog/arc-prize-2025-results-analysis

[3]https://www.kaggle.com/competitions/arc-prize-2025/writeups/nvarc

— 完 —

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
证监会最新发布!吴清发声!

证监会最新发布!吴清发声!

数据宝
2026-01-17 17:51:47
浙江女老师跟丈夫旅游,失踪1天1夜,在江中被发现时只剩头颅

浙江女老师跟丈夫旅游,失踪1天1夜,在江中被发现时只剩头颅

叹为观止易
2026-01-17 10:47:58
1000架歼-20和900架歼-16?英国智库:难以战胜2030年的中国空军

1000架歼-20和900架歼-16?英国智库:难以战胜2030年的中国空军

军机Talk
2026-01-17 14:25:03
贾国龙活成了堂吉诃德,向着想象中的风车冲锋,老罗都于心不忍

贾国龙活成了堂吉诃德,向着想象中的风车冲锋,老罗都于心不忍

上林院
2026-01-16 21:28:03
原来有这么多工作需要保密!网友:牺牲12年的爸爸竟然回来了!

原来有这么多工作需要保密!网友:牺牲12年的爸爸竟然回来了!

另子维爱读史
2026-01-16 18:29:22
林彪离世后,原256号副机长康庭梓罕见爆料,揭开坠机尘封真相

林彪离世后,原256号副机长康庭梓罕见爆料,揭开坠机尘封真相

磊子讲史
2026-01-06 15:54:18
罗永浩、贾国龙均被禁言

罗永浩、贾国龙均被禁言

扬子晚报
2026-01-16 22:36:42
免税结束,车市“凉凉”?

免税结束,车市“凉凉”?

汽车公社
2026-01-15 08:43:51
加入澳大利亚国籍,我后悔了!

加入澳大利亚国籍,我后悔了!

澳洲财经见闻
2026-01-17 14:58:19
孩子为买电话手表和父母签离谱协议,网友:李鸿章来了也不敢签啊

孩子为买电话手表和父母签离谱协议,网友:李鸿章来了也不敢签啊

新东方
2026-01-16 17:32:03
小泽会见扎卢日内,叶尔马克被从腐败嫌疑人中排除

小泽会见扎卢日内,叶尔马克被从腐败嫌疑人中排除

近距离
2026-01-16 14:15:59
三次DNA儿子不是亲生的,可我从未外遇!直到医生说出真相

三次DNA儿子不是亲生的,可我从未外遇!直到医生说出真相

黄家湖的忧伤
2026-01-16 16:42:15
美媒实锤歼-20飞越台岛,台军零反应防线失效,统一大势不可阻挡

美媒实锤歼-20飞越台岛,台军零反应防线失效,统一大势不可阻挡

Hi科普啦
2026-01-16 15:14:30
俄罗斯石油天然气收入下降24%,创五年来新低,2026年将继续下跌

俄罗斯石油天然气收入下降24%,创五年来新低,2026年将继续下跌

山河路口
2026-01-17 19:24:20
“中产返贫”一条街:半生积蓄秒变负债,只剩公务员和躺平赢家?

“中产返贫”一条街:半生积蓄秒变负债,只剩公务员和躺平赢家?

笑熬浆糊111
2026-01-17 17:00:41
失算!麻黄鸡协会本想“毁掉”董宇辉,不料自己先被扒了个底朝天

失算!麻黄鸡协会本想“毁掉”董宇辉,不料自己先被扒了个底朝天

讯崽侃天下
2026-01-16 10:44:44
很多人的存款都将归零

很多人的存款都将归零

诗词中国
2025-12-22 19:22:52
最新 | 天津最新雪情!降雪时段集中在→

最新 | 天津最新雪情!降雪时段集中在→

天津广播
2026-01-17 15:46:09
这下麻烦大了!不到24小时,李湘迎来3个噩耗,个个戳她心窝

这下麻烦大了!不到24小时,李湘迎来3个噩耗,个个戳她心窝

老汆古装影视解说
2026-01-17 06:34:51
全世界都在静静等待,战争可能很快到来

全世界都在静静等待,战争可能很快到来

牛弹琴
2026-01-14 07:46:19
2026-01-17 20:40:49
新浪财经 incentive-icons
新浪财经
新浪财经是一家创建于1999年8月的财经平台
2057574文章数 5285关注度
往期回顾 全部

科技要闻

8亿周活扛不住烧钱 ChatGPT终向广告"低头"

头条要闻

媒体:网友捐款超1400万 并不能直接解决嫣然医院问题

头条要闻

媒体:网友捐款超1400万 并不能直接解决嫣然医院问题

体育要闻

三巨头走了俩,联盟笑柄却起飞了

娱乐要闻

马年春晚首次联排场外细节!

财经要闻

保不准,人民币会闪击6.8!

汽车要闻

林肯贾鸣镝:稳中求进,将精细化运营进行到底

态度原创

手机
时尚
家居
教育
军事航空

手机要闻

暂定3月!华为Pura X2与Mate 80 GTS齐发,参数全线拉满

“这个风格”今年冬天又火了!谁穿谁高级

家居要闻

岁月柔情 现代品质轻奢

教育要闻

科一、北川中学、蜀东外国语......绵阳多所学校正在招聘

军事要闻

普京谈及当前国际局势:世界太危险了

无障碍浏览 进入关怀版