你敢信?一个能轻松处理100万词上下文(相当于几十本小说的量)的AI模型,推理成本居然比上一代砍了70%还多!
而且它明确把宝押在华为国产芯片上——高盛最新研报里的这些猛料,直接把中国AI模型的竞争推向了白热化。这不仅关乎AI应用能不能更便宜落地,更藏着国产算力逆袭的关键信号!
100万词上下文成本大跳水?V4靠三招实现效率飞跃
DeepSeek V4此次推出了两个版本:Pro是旗舰款,参数量1.6万亿(激活参数490亿);Flash更轻量,参数量2840亿(激活参数130亿)。但不管哪个版本,都能支持100万词的超长上下文,与美国最顶尖的模型持平。
最亮眼的是成本大幅下降:Pro版本在100万上下文场景下,每个文字单位的计算量仅为上一代的27%,临时存储占用更是低至10%;Flash版本更具优势,计算量降至10%,存储压缩到7%。
这背后依靠三大关键创新:
一是混合注意力机制,如同给AI配备了智能压缩工具,先筛选并压缩无关信息再进行处理,节省大量内存;
二是mHC机制,保障信息在多层网络中传递稳定、不紊乱;
三是采用Muon作为主优化器,适配更复杂的模型架构,提升训练质量。这些升级对长周期任务尤为实用,比如处理大量文档的AI代理——未来企业用AI处理合同、报告等工作,成本将大幅降低,超乎预期!
押注华为昇腾950,API价格将大幅下降?
此次V4发布还有一个重要信号:DeepSeek明确将华为昇腾950超级节点的量产纳入商业规划。他们预计,待昇腾950大规模供货后,V4 Pro的API定价将显著下调。
高盛分析称,这一举措蕴含两层深意:
一是DeepSeek的成本优势将进一步凸显,让更多应用能够负担其使用成本;
二是在芯片受限的背景下,中国顶尖AI模型向国产算力迁移的趋势,已被头部玩家正式印证。
目前V4 Pro的API定价已具备较强竞争力,待国产算力逐步落地,这一优势还将持续扩大。这对普通用户而言意味着什么?未来使用AI进行文字创作、数据处理,成本可能会越来越低,甚至有望出现更多免费优质服务!
国内AI大战升级!大厂和独立玩家各有杀手锏
V4发布后,国内AI阵营迅速跟进:Kimi推出K2.6,阿里推出Qwen3.6-Max,腾讯推出Hy3预览版,小米推出V2.5,MiniMax也计划推出M3/Hailuo。高盛指出,未来决定模型定价权的关键有两点:
一是编程能力与任务完成率(智谱的GLM在代码能力方面表现突出);
二是多模态能力(字节、阿里、MiniMax投入力度最深)。
独立玩家与大厂的优劣势十分鲜明:像MiniMax这样的独立玩家,组织效率高、决策速度快,即便基础文本API定价偏低,毛利率仍能保持在40%;而字节、腾讯、阿里等大厂,现金流充沛,更适合布局AI基础设施与云赛道,但需为AI团队提供独立激励才能留住核心人才(例如字节豆包团队就享有独立激励)。
更值得关注的是,高盛透露,头部大厂正洽谈对DeepSeek的投资,而智谱、MiniMax也已拥有较高估值——巨头争抢稀缺AI能力的野心,已然显现。
高盛最看好的赛道:云计算和数据中心将迎来爆发?
高盛始终将云计算和数据中心列为中国互联网的首选赛道,理由十分充分:
一是AI处理的文字单位需求持续增长,将带动云服务采购量上升;
二是企业AI代理与消费级AI助手的快速发展,将提升云服务的定价能力;
三是消费端AI助手渗透率不断加深,为云服务贡献更多需求。
具体来看:ToB企业云市场,阿里以领先的外部AI云营收占据优势;ToC消费市场,字节是AI聊天机器人日均处理文字单位最多的平台,国内AIGC应用的日活增长势头强劲,曾创下单月环比高增速。
高盛重点推荐的标的有四个:万国数据、世纪互联、阿里巴巴、金山云——这些企业是把握AI基础设施扩张红利的核心方向。此外,第二梯队为电商和出行领域,第三梯队是AI模型相关领域,第四梯队为游戏娱乐领域。
看完这些,你是不是对中国AI的未来更有信心了?你觉得未来AI模型竞争,是独立玩家靠效率胜出,还是大厂靠资源碾压?国产芯片能不能撑起AI的下一个爆发点?评论区聊聊你的看法!觉得这篇内容有用的话,别忘了点赞收藏转发给身边关心AI的朋友,一起见证国产AI的崛起~
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.