![]()
![]()
4月24日,DeepSeek-V4预览版官宣上线。
根据DeepSeek的官方介绍,V4系列包含两个MoE模型:DeepSeek-V4-Pro总参数1.6T、激活参数49B;DeepSeek-V4-Flash总参数284B、激活参数13B,两者均原生支持100万token上下文。
DeepSeek给这代模型的定位是“预览版(preview version)”,官方在报告中明确,V4的能力水平仍落后GPT-5.4和Gemini-3.1-Pro,“发展轨迹大约滞后前沿闭源模型3至6个月”。
![]()
同日,中国全栈式AI云服务商PPIO第一时间全量首批上线,成为业内最快上线DeepSeek-V4的AI云平台之一,为广大企业与开发者带来百万超长上下文、顶尖Agent能力、超强推理性能的一站式开箱即用体验。
首批上线DeepSeek-V4预览版,百万上下文能力开箱即用
作为新一代旗舰开源大模型,DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。
DeepSeek-V4在模型结构和上下文效率方面实现了革命性突破。凭借全新的注意力机制,DeepSeek-V4 在token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求,让1M(一百万)上下文成为标配。在1M token场景下,V4-Pro仅需前代 DeepSeek-V3.2的27%的单token推理FLOPs和10%的KV缓存,V4-Flash更是低至10%的FLOPs和7%的KV缓存。
同时,DeepSeek-V4还专项优化了Agent 能力。针对Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流的Agent产品,DeepSeek-V4在代码任务、文档生成任务等方面表现均有提升。
目前,DeepSeek-V4-Pro和DeepSeek-V4-Flash均已同步上线PPIO官网。开发者通过PPIO官网注册后,无需复杂部署,即可直接在线试用,体验百万上下文长文本处理与下一代 AI 编程效率革新。
打造“最快、最全、最好用”的模型服务,让智能“触手可及”
作为全栈式AI云平台,PPIO凭借领先的分布式算力调度与模型推理加速技术等优势,致力于为广大企业和开发者提供“最快、最全、最好用”的模型服务。
2025年初,PPIO在DeepSeek-V3/R1发布后一周内便完成全系列模型上线,是首批支持DeepSeek全模型商业化API的服务平台,同时在2月SuperCLUE的稳定性测评报告中成为唯一一个在准确率上达到100%的DeepSeek-R1第三方平台。
![]()
截至目前,PPIO模型服务平台已累计上线上百款国内主流开源模型,全面覆盖文本、图像、视频等多模态模型,开发者只需一两行代码即可直接调用搭建AI应用。PPIO还基于算法、系统和硬件的协同创新实践,以自研推理加速引擎带来模型推理10倍+降本,实现推理效率与资源使用的动态平衡。
业内普遍认为,当前我国AI开源生态正从“可用”迈向“好用”乃至“引领”的关键阶段。在大模型开源浪潮下,PPIO将持续深耕AI基础设施领域,不仅提供“即拿即用”的模型底座,更通过技术创新解决模型推理的性能与成本矛盾,让每一个开发者和企业都能以极低门槛、极致性价比获取顶尖的AI能力,助力中国AI开源生态蓬勃发展。
原标题:《PPIO首批上线DeepSeek-V4预览版,1M超长上下文能力开箱即用》
栏目编辑:马丹
本文作者:新民晚报 郜阳
题图来源:东方IC
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.