百度连甩两款自研AI芯片,昆仑芯五年路线图公开
![]()
2025年11月13日,在百度世界大会上,百度集团执行副总裁沈抖透露,昆仑芯“双旗舰”芯片正在研发中:面向推理场景的M100预计于2026年初推出,面向训练场景的M300则计划于2027年初发布。这一规划标志着百度在自研AI芯片领域进一步完善产品矩阵,并可能对当前高度依赖海外供应商的中国AI产业生态产生一定影响。
在AI芯片领域,业界普遍认为训练性能主要取决于算力规模,而推理效率则更关注能效比与单位成本。昆仑芯M100定位为大规模推理芯片,目标是降低大模型在实际应用中的部署成本。
据公开资料,此前几代昆仑芯在推理效率上已达到英伟达A100约70%的水平。M100通过架构优化和指令集升级,有望将该比例提升至90%以上,同时功耗降低约20%。若实现,这或将显著降低如智能客服、内容生成、自动驾驶感知等高频推理场景的运营成本。
对于百度自身业务而言,M100也有望在其搜索、智能云及小度等高算力需求场景中实现更高效的软硬件协同。
昆仑芯M300则聚焦于超大规模多模态模型的训练任务。此类任务对芯片的峰值算力、内存带宽及互联能力提出极高要求。目前,国内企业在千亿参数级别大模型训练中主要依赖英伟达H100等高端GPU,或通过大量通用芯片集群实现,存在成本高、供应链稳定性不足等问题。
根据百度披露的技术路线图,M300将采用先进制程,峰值算力预计可达1000TOPS量级,并针对视频生成、3D建模等多模态任务进行专项优化,训练效率有望较通用方案提升3倍以上。此外,M300将与百度“文心一言”大模型进行深度适配,以期在特定任务上获得优于通用硬件的性能表现。
从战略层面看,百度正试图构建“大模型—芯片—云服务”的闭环体系。这种软硬协同模式在科技行业已有先例,如苹果的A系列芯片与iOS系统、特斯拉的D1芯片与自动驾驶系统。通过将自研芯片嵌入自有生态并对外输出,百度或可增强其智能云解决方案的差异化竞争力。
据市场研究数据,2024年中国AI芯片市场规模约为1500亿元,年增长率超过40%,但高端训练芯片市场仍由英伟达主导,占据近六成份额。昆仑芯M100与M300分别切入中高端推理与高端训练市场,若顺利落地,有望在部分场景中提供国产替代选项。
值得注意的是,前几代昆仑芯已在百度搜索、智能驾驶等内部业务中部署超百万片,积累了实际应用场景的运行经验。
不过,从芯片发布到大规模商用仍面临多重挑战,包括软件栈适配、开发者生态建设、量产良率及供应链保障等。与此同时,国际厂商如英伟达、AMD以及国内企业如寒武纪等也在加速技术迭代,市场竞争日趋激烈。百度需在算力、功耗与成本之间持续优化,方能在这一高壁垒领域建立可持续优势。
沈抖在发布会上表示:“好的AI芯片,要让开发者用得起、用得好。”这一表述反映了当前行业对高性价比、易部署AI基础设施的迫切需求。昆仑芯双旗舰的规划,契合了推理成本下降与训练自主可控两大趋势,因此引发了业界广泛关注。
未来两年,随着M100和M300逐步进入市场,其实际性能表现与生态适配能力,将成为检验百度AI芯片战略成效的关键指标。
据知情人士透露,今年百度业绩增长,很大程度仰赖沈抖带来下的百度智能云业绩走高。而百度智能云业绩走高,与百度昆仑芯片的销售状况供不应求密切相关。百度智能云的一些订单增量,基于客户对百度昆仑芯片的急切需求。
这位知情人士还表示,以目前国内芯片供求状况,百度昆仑芯片的销量在未来几年仍有望继续走高,能持续带动百度智能云的业绩向上。
以此为基础,沈抖仍然承担了百度集团未来一段时间的业绩增长重任,百度的商业化模型也有望出现一些结构性变化。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.