DeepSeek-V4 - 深度求索发布的新一代模型系列预览版
DeepSeek-V4是什么
DeepSeek-V4 是深度求索发布的模型系列预览版,已同步开源并开放 API。系列采用 MoE 架构,包含 V4-Pro(1.6T 参数 / 49B 激活)与 V4-Flash(284B 参数 / 13B 激活)双版本,均支持百万 Token 超长上下文,依托 DSA 稀疏注意力机制大幅降低长文本计算成本。V4-Pro 在 Agent 编码、数学推理与世界知识等维度表现优异,性能比肩 Claude Opus 4.6 与 GPT-5.4;V4-Flash 则以更低成本提供接近的推理能力。模型同时支持思考 / 非思考双模式,并针对 Claude Code 等主流 Agent 框架深度优化。

DeepSeek-V4的功能特色
- DeepSeek-V4-Pro:总参数1.6万亿,激活参数490亿,采用混合专家(MoE)架构,支持百万token上下文。
- DeepSeek-V4-Flash:总参数2840亿,激活参数130亿,同样支持百万token上下文,侧重高效部署。
- 混合注意力机制:结合压缩稀疏注意力(CSA)和重度压缩注意力(HCA),大幅降低长上下文计算量和显存占用,1M上下文下单token推理计算量仅为前代模型的27%(Pro版)或10%(Flash版)。
- 流形约束超连接(MHC):增强残差连接稳定性,提升深层网络信号传播效率。
- Muon优化器:加速训练收敛,提高训练稳定性。
- reasoning ability:V4-Pro在数学、STEM、竞赛代码等任务中超越多数开源模型,比肩顶级闭源模型;V4-Flash在简单任务中与Pro版表现接近,高难度任务差距较小。
- Agent能力:V4-Pro在智能体编程、工具调用等场景表现突出,交付质量接近顶尖闭源模型非思考模式。
- 世界知识:V4-Pro在世界知识测评中大幅领先开源模型,稍逊于顶尖闭源模型Gemini-Pro-3.1。
- 开源与成本:完全开源,采用MIT协议,可在Hugging Face和ModelScope平台下载。API定价亲民,V4-Pro每百万token输入1元(缓存命中)/12元(缓存未命中),输出24元;V4-Flash分别为0.2元、1元、2元。
DeepSeek-V4的核心优势
- 百万 Token 超长上下文:1M 上下文长度成为官方服务标配,依托 DSA 稀疏注意力机制,计算量与显存占用随序列长度增长大幅降低,长文本处理成本显著优于传统方案。
- MoE 架构极致高效:V4-Pro 拥有 1.6T 总参数、49B 激活参数,V4-Flash 为 284B 总参数、13B 激活参数,单次推理仅激活少量专家网络,兼顾顶级性能与可控算力消耗。
- 开源 + API 全面开放:模型权重已在 Hugging Face 与 ModelScope 开源,同时提供官方 API 服务,开发者可本地部署或云端调用,灵活性极高。
- Agent 能力大幅跃升:SWE Verified 达 80.6%,Terminal Bench 2.0 达 67.9%,公司内部评测显示使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式。
- 推理与知识性能顶尖:在数学、STEM、竞赛型代码(Apex Shortlist 90.2%、Codeforces 3206 分)及世界知识测评中,成绩比肩 Claude Opus 4.6 与 GPT-5.4,领先其他开源模型。
- 双版本覆盖全场景:V4-Pro 主打极致性能,适合复杂 Agent 与深度推理;V4-Flash 以更低价格提供接近的推理能力,满足高频、轻量任务需求。
- 思考 / 非思考双模式:均支持两种推理模式,思考模式可设置 high/max 强度,复杂 Agent 场景建议开启 max 强度以获得最佳效果。
- 主流 Agent 生态深度适配:针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 框架专项优化,代码生成与文档处理任务表现全面提升。
DeepSeek-V4官网是什么
- HuggingFace Model Library:https://huggingface.co/collections/deepseek-ai/deepseek-v4
- Technical Papers:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
使用DeepSeek-V4的操作步骤
- API 接入(模型名切换):保持原有 base_url 不变,将 API 请求中的 model 参数修改为
deepseek-v4-promaybedeepseek-v4-flash,即可调用对应版本;接口兼容 OpenAI ChatCompletions 格式与 Anthropic Format. - 开启思考模式(复杂任务):在 API 调用中设置
reasoning_effortparameters arehighmaybemax,建议 Agent 编码、深度推理等复杂场景直接使用max强度以获得最佳效果;网页端/App 可在设置中切换思考模式。 - 旧模型迁移:现有
deepseek-chattogether withdeepseek-reasoner两个旧模型名将于 2026 年 7 月 24 日停用,当前已分别自动映射至 V4-Flash 的非思考模式与思考模式,建议尽快更新代码中的 model 名称。 - 本地部署(开源权重):访问 Hugging Face 或 ModelScope 的 DeepSeek-V4 模型仓库,下载开源权重后按官方技术报告与部署文档进行本地推理或私有化部署。
DeepSeek-V4的适用人群
- 软件开发工程师与 Agent 开发者:V4-Pro 在 SWE Verified(80.6%)与 Terminal Bench 2.0(67.9%)表现优异,且深度适配 Claude Code、OpenClaw 等主流 Agent 框架,适合需要高强度代码生成、自动化编程与工具调用的开发者。
- Researchers and Data Analysts:数学与 STEM 推理能力顶尖(Apex Shortlist 90.2%、HMMT 95.2%),支持百万 Token 上下文,适合处理长论文、实验数据与复杂数学建模。
- 企业技术团队与架构师:模型完全开源(Hugging Face / ModelScope),支持本地部署与私有化推理;MoE 架构激活参数低,便于在企业内部 GPU 集群上高效运行。
- 内容创作者与知识工作者:世界知识储备丰富(Chinese-SimpleQA 84.4%),1M 超长上下文可一次性处理整本书籍、长篇报告或大量素材,适合深度写作、资料整理与知识问答。
- Students and educators:解题与逻辑推理能力强,Flash 版本成本极低(输入 1 元/百万 Token),适合作为日常学习辅导、竞赛备赛与教学演示的 AI 助手。
- 初创公司与独立开发者:API 定价极具竞争力(Flash 版输入低至 0.2 元缓存命中),开源权重可免费本地部署,大幅降低 AI 应用的原型开发与运营成本。
DeepSeek-V4的常见问题
Q:如何通过 API 调用 V4?旧模型名还能用吗?
A:base_url 保持不变,将 model 参数改为 deepseek-v4-pro maybe deepseek-v4-flash 即可。旧有的 deepseek-chat together with deepseek-reasoner will be published in 2026 年 7 月 24 日 停用,当前阶段它们分别自动映射至 V4-Flash 的非思考模式与思考模式,建议尽快迁移。
Q:API 定价是多少?
A:V4-Pro:缓存命中输入 1 元/百万 Token,缓存未命中输入 12 元/百万 Token,输出 24 元/百万 Token;V4-Flash:缓存命中输入 0.2 元/百万 Token,缓存未命中输入 1 元/百万 Token,输出 2 元/百万 Token。两者上下文长度均为 1M。
Q:Pro 版本目前有什么限制?
A:受限于高端昇腾算力,V4-Pro 当前服务吞吐十分有限,价格相对较高。预计下半年昇腾 950 超节点批量上市后,Pro 的 API 价格会大幅下调。
Q:思考模式如何开启?
A:V4-Pro 与 V4-Flash 均支持思考模式。在 API 调用中设置 reasoning_effort parameters are high maybe max,复杂 Agent 场景建议设置为 max。网页端与 App 可在对话设置中手动切换思考模式。
Q:V4 支持哪些 Agent 工具或框架?
A:官方针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行了专项适配与优化,在代码任务、文档生成等场景表现均有提升。
Q:V4-Pro 与 Claude Opus / GPT-5.4 相比表现如何?
A:在 SWE Verified、Apex Shortlist、Codeforces 等核心评测中,V4-Pro 已超越当前所有已公开评测的开源模型,部分指标(如 Codeforces 3206 分)比肩甚至超过 GPT-5.4-xHigh 与 Claude-Opus-4.6-Max。公司内部评测反馈,V4-Pro 的 Agentic Coding 使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式。
© Copyright notes
Article copyright AI Sharing Circle All, please do not reproduce without permission.
Related posts
No comments...




