
今天,备受关注的 DeepSeek-V4 预览版正式推出并开源,包含 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 两个版本,分别提供比肩顶级闭源模型的旗舰能力和快捷高效的经济之选。中国全栈式 AI 云服务商 PPIO 第一时间全量首批上线,成为业内最快上线 DeepSeek-V4 的 AI 云平台之一,为广大企业与开发者带来百万超长上下文、顶尖 Agent 能力、超强推理性能的一站式开箱即用体验。
今天,备受关注的 DeepSeek-V4 预览版正式推出并开源,包含 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 两个版本,分别提供比肩顶级闭源模型的旗舰能力和快捷高效的经济之选。中国全栈式 AI 云服务商 PPIO 第一时间全量首批上线,成为业内最快上线 DeepSeek-V4 的 AI 云平台之一,为广大企业与开发者带来百万超长上下文、顶尖 Agent 能力、超强推理性能的一站式开箱即用体验。

首批上线 DeepSeek-V4 预览版,百万上下文能力开箱即用
作为新一代旗舰开源大模型,DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。
DeepSeek-V4 在模型结构和上下文效率方面实现了革命性突破。凭借全新的注意力机制,DeepSeek-V4 在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求,让 1M(一百万)上下文成为标配。在 1M token 场景下,V4-Pro 仅需前代 DeepSeek-V3.2 的 27% 的单 token 推理 FLOPs 和 10% 的 KV 缓存,V4-Flash 更是低至 10% 的 FLOPs 和 7% 的 KV 缓存。
同时,DeepSeek-V4 还专项优化了 Agent 能力。针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 产品,DeepSeek-V4 在代码任务、文档生成任务等方面表现均有提升。
目前,DeepSeek-V4-Pro 和 DeepSeek-V4-Flash 均已同步上线 PPIO 官网:
-
DeepSeek‑V4‑Pro:1.6T 总参数、49B 激活参数,性能比肩国际顶级闭源模型,Agentic Coding 达到开源最佳水平,体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,在数学、STEM、竞赛代码等场景全面领跑开源模型。
-
DeepSeek‑V4‑Flash:284B 总参数、13B 激活参数,具有与 DeepSeek-V4-Pro 接近的推理能力,提供更快捷、更经济的选择。
开发者通过 PPIO 官网注册后,无需复杂部署,即可直接在线试用,体验百万上下文长文本处理与下一代 AI 编程效率革新。
打造「最快、最全、最好用」的模型服务,让智能「触手可及」
作为全栈式 AI 云平台,PPIO 凭借领先的分布式算力调度与模型推理加速技术等优势,致力于为广大企业和开发者提供「最快、最全、最好用」的模型服务。
2025 年初,PPIO 在 DeepSeek-V3/R1 发布后一周内便完成全系列模型上线,是首批支持 DeepSeek 全模型商业化 API 的服务平台,同时在 2 月 SuperCLUE 的稳定性测评报告中成为唯一一个在准确率上达到 100% 的 DeepSeek-R1 第三方平台。截至目前,PPIO 模型服务平台已累计上线上百款国内主流开源模型,全面覆盖文本、图像、视频等多模态模型,开发者只需一两行代码即可直接调用搭建 AI 应用。PPIO 还基于算法、系统和硬件的协同创新实践,以自研推理加速引擎带来模型推理 10 倍+降本,实现推理效率与资源使用的动态平衡。
业内普遍认为,当前我国 AI 开源生态正从「可用」迈向「好用」乃至「引领」的关键阶段。在大模型开源浪潮下,PPIO 将持续深耕 AI 基础设施领域,不仅提供「即拿即用」的模型底座,更通过技术创新解决模型推理的性能与成本矛盾,让每一个开发者和企业都能以极低门槛、极致性价比获取顶尖的 AI 能力,让智能「触手可及」,助力中国 AI 开源生态蓬勃发展。
来源:互联网



