一、写在 V4 发布当天
2026 年 4 月 24 日上午 10:56,DeepSeek 官方微信公众号弹出一条推送:「DeepSeek-V4 预览版:迈入百万上下文普惠时代」。
没有发布会,没有倒计时,就这么 quietly 上线了 —— 然后瞬间在技术圈炸开了锅。
作为一个从 V1 追到 R1 再到今天的开发者,我必须说:DeepSeek V4 不只是一次常规的版本迭代,它是国产开源大模型在三个关键维度上的一次质变:百万级长上下文真正可用、原生 Agent 能力质的飞跃、以及模型与国产算力的深度绑定。
本文基于官方公告、技术报告和 API 文档的第一手信息,从开发者视角为你拆解 V4 到底变了什么、为什么值得兴奋、以及怎么最快上手。
二、两个版本,两种定位
DeepSeek V4 这次按大小分为 Pro 和 Flash 两个版本,这种分层设计在开源模型里并不常见,但对开发者来说非常实用。
2.1 DeepSeek-V4-Pro:性能比肩顶级闭源模型
Pro 版是 V4 系列的旗舰,核心指标可以用一句话概括:开源模型里的最强,与顶级闭源模型的差距正在无限缩小。
官方给出的三大核心亮点:
Agent 能力大幅提高:在 Agentic Coding 评测中达到当前开源模型最佳水平。内部实测使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 的非思考模式
丰富的世界知识:大幅领先其他开源模型,仅稍逊于 Gemini-Pro-3.1
世界顶级推理性能:在数学、STEM、竞赛型代码评测中,超越所有已公开评测的开源模型,取得比肩世界顶级闭源模型的成绩
对开发者来说这意味着什么?如果你在用 Claude Code 或 Cursor 做 AI 辅助编程,现在有一个开源、便宜、效果接近的替代方案了。
2.2 DeepSeek-V4-Flash:性价比之王
Flash 版可以理解为 Pro 的"精简蒸馏版":
推理能力接近 Pro,世界知识储备稍逊
参数和激活量更小,响应更快
API 价格仅为 Pro 的约 1/10
在 Agent 评测中,Flash 在简单任务上与 Pro 旗鼓相当,高难度任务有差距。如果你的应用场景以日常对话、文档处理、简单代码生成为主,Flash 完全够用。
三、三大技术突破:这不是堆参数,是重新设计
3.1 百万上下文:从"能跑"到"好用"
V4 最大的标签是 1M token 上下文。注意,这不是"技术上支持 1M",而是全量开放、默认可用、已经上线。
官网、App、API 均已同步支持。API 最大输出长度达 384K tokens。
支撑这一切的是 V4 的两大架构创新:
Token 维度压缩的全新注意力机制:直接在 token 层面做压缩,而非传统的层间或头间压缩
DSA(DeepSeek Sparse Attention)稀疏注意力:大幅降低长序列下的计算和显存需求
对开发者来说,1M 上下文意味着什么?
可以直接把整个项目的源代码(甚至多个相关项目)一次性塞进去,让模型理解全局架构后再做修改
可以处理整本书、整份法律合同、整个数据库 schema 而不需要切片
可以在一次对话中保持长达几十万字的连贯记忆
3.2 Agent 原生设计:不是后加的,是内置的
V4 的 Agent 能力不是简单的"支持工具调用",而是从训练阶段就针对 Agent 场景做了专项优化:
针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品做了适配优化
支持 reasoning_effort 参数(high/max),可以在"快速响应"和"深度思考"之间灵活切换
支持非思考模式(类似 V3)和思考模式(类似 R1),一个模型两种用法
这里有一个重要的 API 变更:旧的 deepseek-chat 和 deepseek-reasoner 接口将于 2026 年 7 月 24 日停止使用,统一迁移到 deepseek-v4-pro 和 deepseek-v4-flash。
3.3 双 API 格式:OpenAI + Anthropic 全兼容
这是 V4 最贴心的开发者体验升级之一:
OpenAI ChatCompletions 格式:
https://api.deepseek.comAnthropic API 格式:
https://api.deepseek.com/anthropic
这意味着你现有的代码几乎不用改。用 openai SDK 的改个 base_url 就行;用 Anthropic SDK 的同理。DeepSeek 终于不再只是"兼容 OpenAI",而是"兼容整个行业"。
四、API 定价:依然良心,但分层了
V4 的定价延续了 DeepSeek 的低价策略,但 Pro 和 Flash 拉开了明显差距(单位:每百万 token):
几点观察:
Flash 的 Cache Hit 价格几乎是白送($0.028/1M ≈ ¥0.2/1M),对于多轮对话、重复前缀的场景,成本可以忽略
Pro 的定价明显对标 Claude Opus/GPT-4 级别,但仍然是闭源模型的几分之一
旧接口
deepseek-chat和deepseek-reasoner即将弃用,建议尽快迁移
对于大部分开发者来说,我的建议是:开发调试用 Flash,生产上线关键任务用 Pro。
五、开发者上手指南
5.1 最简单的调用方式
from openai import OpenAI
client = OpenAI(
api_key="sk-your-key",
base_url="https://api.deepseek.com"
)
# V4-Pro 思考模式(默认)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "You are a senior software engineer."},
{"role": "user", "content": "Refactor this legacy Java class to use modern patterns..."}
]
)
# V4-Flash 非思考模式(更快更便宜)
response = client.chat.completions.create(
model="deepseek-v4-flash",
messages=[...],
extra_body={"thinking": {"type": "disabled"}} # 关闭思考模式
)5.2 1M 上下文的正确打开方式
# 把整个项目的 README + 核心源码一次性塞进去
with open("project/README.md") as f:
readme = f.read()
with open("project/src/main.py") as f:
code = f.read()
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "system", "content": "你正在审查一个 Python 项目。请分析代码结构并提出优化建议。"},
{"role": "user", "content": f"README:\n{readme}\n\n核心代码:\n{code}"}
],
max_tokens=16000
)5.3 Anthropic 格式的调用
如果你在用 Anthropic SDK 或工具链:
import anthropic
client = anthropic.Anthropic(
api_key="sk-your-key",
base_url="https://api.deepseek.com/anthropic"
)
message = client.messages.create(
model="deepseek-v4-pro",
max_tokens=4000,
messages=[{"role": "user", "content": "Hello!"}]
)六、冷静的反思:V4 依然不完美
作为一篇有诚意的开发者文章,不能只吹不黑。V4 预览版发布当天,我有几个观察:
✅ 做得极好的
1M 上下文不是噱头,是真的开放:对比某些厂商的"支持长上下文但限制多多",DeepSeek 直接全量开放,值得尊重
双 API 格式大幅降低迁移成本:现有项目接入 V4 几乎零门槛
Agent 能力不再是短板:从"代码能力强但 Agent 弱"到"Agent 达到开源最佳",这是一个关键跨越
Flash 版本的存在是神来之笔:让低成本场景真正可用
⚠️ 需要注意的
Pro 版定价不低:$1.74/$3.48 每百万 token 的定价,对于高频调用的生产环境来说,成本需要认真计算
思考模式的延迟:V4-Pro 的思考模式(默认开启)在复杂任务上可能会有明显的"思考时间",实时交互场景建议用 Flash 或非思考模式
旧接口即将弃用:2026 年 7 月 24 日停止
deepseek-chat和deepseek-reasoner,存量项目需要规划迁移1M 上下文的实际效果待验证:虽然官方开放了,但超长篇的注意力衰减、信息检索准确率还需要社区的大量实测反馈
七、展望:V4 之后是什么?
DeepSeek V4 的发布,标志着一个明确的技术路线:不堆参数量,不烧训练成本,而是通过架构创新(DSA 稀疏注意力、Token 压缩)和场景深耕(Agent 原生、长上下文)来构建竞争力。
这条路线的可持续性很强。当其他厂商还在比拼谁的总参数量更大时,DeepSeek 证明了:用更聪明的架构,可以用更少的资源,做出更好的效果。
对于开发者来说,V4 的发布意味着:
国产大模型已经真正可用:不是"差不多能用",是"在某些场景下比闭源模型更好用"
长上下文应用的设计范式将被改写:1M token 的窗口让很多之前不可行的应用变成可行
Agent 工具的选型将重新洗牌:开源模型 + 低成本 + 强 Agent 能力,这对闭源商业模型是实实在在的威胁
写在最后
2025 年初,DeepSeek V3 用开源和低价震动了行业。一年后的今天,V4 用百万上下文和 Agent 能力证明了那不是一个偶然。
作为开发者,我乐于看到这样的竞争。工具越来越好用、越来越便宜,最终受益的是每一个写代码的人。
"探索未至之境" —— DeepSeek 官网的标语。
V4 的探索,值得每一个开发者亲自体验。
本文基于 DeepSeek V4 预览版官方公告(2026.4.24)、API 文档及技术报告撰写。随着正式版发布,部分细节可能有所调整。
参考链接:
DeepSeek V4 预览版深度解析:百万上下文 + Agent 时代的国产大模型标杆
https://www.lanzlz.cn/archives/1777017173636
评论