封面新闻记者 付文超
11月18日,记者获悉,微博正式发布首个自研开源大模型VibeThinker,这个仅拥有15亿参数的“轻量级选手”,在国际顶级数学竞赛基准测试上击败了参数量是其数百倍的,高达6710亿的DeepSeek R1模型。
据介绍,其单次“后训练”的成本仅7800美元,对比DeepSeek-R1和MiniMax-M1等成本直接降低了几十倍。业内人士认为,这一突破不仅重新定义了大模型的技术评价标准,更有望推动AI产业从“规模竞赛”转向“效率革命”。
记者了解到,在AI发展史上,参数量曾被视为衡量模型能力的核心指标。行业普遍认为,复杂推理能力需要1000亿以上参数才能涌现,而小模型则因无法处理高难度问题被视为“天生不足”。
但如果从小模型入手,通过巧妙的训练策略,能否挖掘出隐藏的推理能力?微博自研开源大模型VibeThinker,给出了行业一个肯定的答案。当大多数AI厂商仍遵循着“规模扩大即智能提升”的 Scaling Law法则时,微博AI研发人员转而优化模型结构和训练范式,并创新提出了“频谱到信号原理”(SSP)方法训练,创造出了一个仅拥有15亿参数的“轻量级选手”。
相关负责人介绍,基于自研的知微大模型,微博构建了适配微博场景的AI应用生态,并创造了两大顶流AI产品:一是微博智搜,二是评论罗伯特。随着自研大模型VibeThinker取得突破,更标志着微博AI战略迈入新阶段。
有业内人士表示,未来,VibeThinker有望在微博智搜等核心AI产品中落地,不仅能持续提升用户使用体验,更有望打破场景边界,裂变出兼具社交属性与智能服务的下一个“社交超级生态”。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.