DeepSeek V4通过CSA+HCA混合注意力、MoE稀疏激活、KV Cache压缩及国产芯片深度适配等技术创新,首次实现万亿参数级大模型在华为昇腾950、寒武纪等国产算力上的高效稳定推理,显著降低1M上下文场景下的调用成本,推动AI模型从依赖英伟达CUDA生态转向国产化落地路径。
文 | 世界模型工场
DeepSeek V4,又一次让全中国震动了。
参数规模、上下文长度、基准分数……这些技术指标已经被各种报道反复对比。
但如果只停留在表面数据,就错过了这次发布最具战略意义的核心。
过去三年,中国大模型始终困在一个尴尬的现实里:训练靠英伟达,推理也靠英伟达,国产芯片只算备份选项。
英伟达一断供,整个中国模型圈都要为之焦虑。
但今天,DeepSeek V4用实力证明:
一个前沿的万亿参数级大模型,也可以在国产算力上稳定高效地跑起来。
这件事的意义,已经超过了模型技术指标本身。
要真正理解这次国产化适配的难度,就得先明白英伟达的芯片帝国。
英伟达拥有的不只是芯片,而是一个高度闭环的完整生态:
硬件上,有GPU芯片家族,加上NVLink、NVSwitch实现芯片间互联的高速网络;
软件上,CUDA是英伟达十几年精心打造的AI操作系统。
它像一座高度优化的工厂,从最底层的算子(模型计算的基本单元),到并行计算、内存管理、分布式通信,全链路都为英伟达GPU量身定制。
换句话说,英伟达不只卖发动机,它还把道路、加油站、维修厂、导航系统都修好了。
全球顶级大模型几乎都生长在这片生态上。
切换到国产算力,面临的却是完全不同的情形。
硬件架构不同、互联方式不同、软件栈成熟度不同、工具生态仍在快速追赶。
DeepSeek想要适配国产芯片,根本不是简单的换个引擎,而是给一辆已经在高速公路上高速行驶的赛车,切换到一条仍在铺设中的山路。
稍有不慎,就会出现抖动、失速,甚至整车无法前行。
这一次,DeepSeek V4没有选择只沿着CUDA路径继续优化,而是开始同时进入国产算力的软件栈适配链路。
从公开信息看,V4在基于国产推理芯片已实现了突破,深度适配华为昇腾950芯片,寒武纪在模型发布当日也可稳定运行,真正实现Day 0适配。
这意味着,前沿模型开始具备在国产芯片体系内落地的可能性。
DeepSeek V4是如何做到的?
第一步,发生在模型架构层。
V4没有选择让国产芯片硬扛1M上下文,而是先把模型自身变得更省。
官方技术报告里最关键的设计,是CSA + HCA混合注意力机制,以及KV Cache压缩等长上下文优化。
简单说,传统的长上下文推理,是让模型每次回答问题,都把一整座图书馆摊开来翻,显存、带宽和算力都会被迅速吃满。
V4的做法,是先把图书馆里的资料重新索引、压缩和筛选,只把最关键的信息送进计算链路。
这样一来,1M上下文不再完全依赖硬件蛮力,而是先通过算法把计算账和显存账做小。
这对国产芯片非常关键。
如果模型仍然高度依赖显存带宽和成熟CUDA库,国产芯片即使能跑,也很难跑得便宜、跑得稳。
V4先降低推理负担,本质上是在给国产算力减压。
第二步,发生在MoE架构和激活参数层。
V4-Pro虽然总参数达到1.6万亿,但每次推理只激活约490亿参数;V4-Flash总参数2840亿,每次激活约130亿参数。
这意味着它不是每次调用都把全部参数拉出来计算,而是像一个大型专家团队,任务来了只叫相关专家上场。
对国产芯片来说,这同样重要。
它减少了每次推理必须承受的计算压力,也让长上下文和Agent场景更容易被推理卡承接。
第三步,是算子和Kernel层的适配。
CUDA生态最强的地方,是大量底层计算已经被英伟达打磨成熟,很多高性能计算可以直接调用。
V4的意义在于,它部分关键计算从英伟达黑盒里抽出来,变成更可迁移、可适配的自定义计算路径。
通俗一点说,V4像是把发动机里最关键的零件拆开,让华为昇腾、寒武纪等厂商可以按自己的芯片结构重新调校。
第四步,是推理框架和服务层。
国产芯片适配如果只停留在“跑Demo”,产业意义并不大。真正值得关注的,是它能否进入可调用、可计费的服务体系。
据内部测试,在昇腾950PR上,V4 推理速度较早期版本获得显著提升,能耗也有明显下降,单卡性能在特定低精度场景下达到英伟达特供H20的2倍以上。
DeepSeek官方提到,当前V4-Pro受限于高端算力,服务吞吐有限,预计下半年昇腾950超节点批量上市后,价格会大幅下调。
这表明,随着昇腾等国产硬件批量量产,V4未来吞吐量和性价比还将进一步优化。
但值得注意的是,V4并没有全面替代英伟达的GPU和CUDA。模型训练可能还离不开英伟达,但推理已经可以逐步国产化。
这其实是非常现实的商业路径。
训练是阶段性投入,训练一次、调一次、迭代一次。推理是持续性成本,每天千万、亿级用户调用,每次都要花算力。
模型公司真正烧钱的大头,长期会越来越偏向推理。谁能更便宜、更稳定地承接推理需求,谁就能在产业应用里获得真实优势。
DeepSeek V4第一次让中国前沿模型的推理部署,出现了一条不以英伟达CUDA为默认前提的路线。
这一步已经足够有分量。
如果说国产芯片适配回答的是能不能跑起来,那么价格回答的就是另一个更现实的问题:
企业用不用得起?
过去DeepSeek最厉害的地方,正是它能把接近前沿模型的能力,压到极低价格。
V3、R1时代如此,V4依然如此。
区别在于,这一次它不是在普通上下文窗口里打价格战,而是在1M上下文+Agent能力的前提下继续压价。
按照DeepSeek官方价格:
V4-Flash的缓存命中输入0.2元/百万tokens,缓存未命中输入1元/百万tokens,输出2元/百万tokens;
V4-Pro的缓存命中输入1元/百万tokens,缓存未命中输入12元/百万tokens,输出24元/百万tokens。
把它放进同类国产模型里看:
与阿里Qwen3.6-Plus在256K-1M档位相比,V4-Pro输出价约为其一半,V4-Flash更低。
与小米MiMo Pro Series在256K-1M档位相比,V4-Flash和V4-Pro都明显更便宜。
Kimi K2.6的上下文为256K,相比之下,V4-Pro上下文更长、价格更低;V4-Flash 则直接把高频调用成本压到另一个量级。
这对企业应用意义极大。
因为1M上下文,意味着模型可以一次读完整代码仓、厚厚的合同包、几百页招股书、长期会议纪要,或者一个Agent连续执行任务时积累下来的历史状态。
过去很多企业应用卡在这里,模型能力够,但上下文不够;上下文够,价格又太贵;价格能接受,模型能力又不够稳。
比如,一个企业做投研Agent,要让模型同时读公司年报、财报电话会、行业报告、竞品新闻和内部纪要。
上下文只有128K或256K时,系统往往要不断切片、检索、摘要,信息在多次压缩中丢失。
1M上下文可以让模型保留更多原始材料,减少看漏和断片。
再比如代码Agent。
它不是一次性写几行代码,而是要读仓库、理解依赖、修改文件、运行测试、根据报错再修复。这个过程会反复消耗tokens。
如果每一步都很贵,Agent就只能做演示,但如果tokens足够便宜,它才可能进入真实研发流程。
这也是V4的产业价值。
它未必是最强模型,但可能成为企业最高频的模型。
DeepSeek再次让AI从少数大厂的专属玩具,变成千行百业都能规模化部署的生产力工具。
当1M上下文以极低价格走向产业一线时,DeepSeek V4的真正分量才显露出来。
这一切,是建立在国产算力尚不成熟的底座之上。
面对国产芯片生态的系统性差距,DeepSeek团队没有选择等生态成熟再上线。
他们把发布窗口一再推迟,投入数月时间,与华为等伙伴展开深度联合调试,这样的工程难度,远超外界想象。
正因如此,V4在国产算力上实现接近顶级闭源模型的推理与Agent能力,才显得格外不易。
V4用自身证明,即使面对硬件生态的阶段性差距,中国团队依然可以通过极致的工程投入和软硬件协同创新,跑出有竞争力的性能。
当然,距离完全成熟仍有差距。
昇腾平台的工具链完善度、超大规模集群的稳定性、以及更多垂直场景的深度优化,都需要产业各方继续共同努力。
但V4的成功,已为后续模型铺设了一条可借鉴的路径。
它为整个AI供应链的自主可控,注入了一剂强心针。
在外部环境充满不确定性的当下,这份在限制中仍能突破的韧性,比单纯的参数指标更值得尊重。
“不诱于誉,不恐于诽,率道而行,端然正己”。
这句来自DeepSeek官方的文字,正是它最好的注脚。