
同时,官方公布了DeepSeek-V4系列的API定价:DeepSeek-V4-Pro在输入命中缓存的情况下为1元/百万tokens,输入未命中缓存则为12元/百万tokens,输出为24元/百万tokens;DeepSeek-V4-Flash在输入命中缓存仅0.2元/百万tokens,未命中输入1元/百万tokens,输出2元/百万tokens。

此外,这一模型应该暂时还不支持视觉能力,上传图像后还是会进行文字提取,没有文字的图像会显示无法处理。

这意味着,过去难以实际运行的超长链路任务(如多轮Agent规划、长文档处理),开始进入可执行范围。
三、推理、知识、代码三线抬升,开源模型逼近闭源上限从能力结构来看,DeepSeek-V4-Pro的提升是推理、知识与Agent能力的同步抬升。
在知识与推理类任务中,其在SimpleQA、Apex、Codeforces等评测中均超过当前主流开源模型,并在多项任务上接近GPT-5.4与Gemini 3.1 Pro。例如在Apex Shortlist中达到90.2分,已经超越顶级闭源模型;在Codeforces等竞赛类任务中,也维持在第一梯队水平。
在Agent能力相关任务中,DeepSeek-V4-Pro在SWE Verified、Terminal Bench等指标上表现稳定,SWE Verified达到80.6,接近Claude Opus 4.6,明显高于多数开源模型。其表现同样超过GLM-5.1 Thinking、Kimi K2.6 Thinking等模型

整体来看,DeepSeek-V4-Pro已是目前开源模型的“天花板”。
四、Agent能力专项优化,开始围绕真实工作流打磨这一代DeepSeek-V4明显强化了对Agent场景的适配。其针对Claude Code、OpenClaw、CodeBuddy等主流Agent框架进行了专项优化,在代码生成、文档生成等多步骤任务中表现更稳定。下图为DeepSeek-V4-Pro在某 Agent框架下生成的PPT内页示例:

从实际定位来看,DeepSeek-V4-Pro已经被DeepSeek内部作为Agentic Coding模型使用,侧重点在于“完成任务”。在简单任务上,V4-Flash已可与Pro版本接近,而在复杂任务中仍存在明显差距。
本质上是在为Agent应用提供两种“算力档位”。DeepSeek-V4-Flash在简单Agent任务中已经能够与Pro“旗鼓相当”,但在复杂任务中仍有差距。这种差异,本质上是推理深度与上下文利用能力的差别。
结语:DeepSeek-V4亮相,国产算力与开源路线的落地之光DeepSeek-V4的发布不仅展现了团队在技术和架构上的积淀,也标志着开源大模型在国产算力生态下的实际落地能力。
经过对华为昇腾、寒武纪等国产芯片的适配优化,DeepSeek-V4系列实现了百万token上下文的稳定支持和高效推理,使长链路任务与多步Agent执行成为可能。
这一版本将Pro与Flash的不同定位落到实处,在性能上逼近闭源旗舰模型,在成本上保持高性价比,为国内开发者提供了前所未有的开放选项。
更重要的是,这次发布显示出开源模型不仅能在全球竞争中站稳脚跟,也能够借助国产算力和优化架构,将技术潜力转化为实际可用的生产力。DeepSeek-V4或许是中国开源力量在高性能AI赛道上迈出的关键一步,也为国内AI生态的创新和落地提供了明确指引。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263660 电子证书1157 电子名片68 自媒体105909