2026年5月14日,爱建证券发布了一篇电子行业的研究报告,报告指出,DeepSeek V4发布,国产算力乘风起航。
报告具体内容如下:
投资要点: 事件:2026年4月24日,DeepSeek发布并同步开源了其全新大模型产品DeepSeekV4预览版。该版本的核心亮点为1M超长上下文能力,同时在Agent交互、世界知识储备与推理性能上,均实现了开源大模型领域的全面领先。 DeepSeek以开源为核心战略,凭借极致成本控制与技术迭代快速崛起。2023年11月,DeepSeek发布首个开源代码大模型DeepSeekCoder,支持多语言生成与调试,性能超越CodeLlama。同期开源通用大模型DeepSeekLLM67B,对标LLaMA270B,中英文任务表现领先。2024年12月,通用模型迭代至DeepSeek-V3,训练成本仅550万美元,性能对标国际闭源模型,生成速度提升3倍。2025年1月20日,发布第一代推理模型DeepSeek-R1-Zero和DeepSeek-R1,补齐复杂逻辑推理能力短板。此后公司持续迭代核心能力,2026年4月24日,正式发布DeepSeekV4预览版并同步开源。
本次发布的DeepSeekV4包含两款MoE模型,全系拥有1M超长上下文能力,同时在Agent交互、世界知识储备等方面表现突出。DeepSeek-V4-Pro总参数1.6万亿、激活参数49B,主打高性能研发场景,综合能力对标行业顶级闭源大模型;DeepSeek-V4-Flash总参数2840亿激活参数13B,侧重轻量化部署与低成本高吞吐,可满足大规模日常推理需求。技术层面,模型创新融合CSA与HCA混合注意力架构,通过KV压缩与稀疏注意力协同优化长上下文推理效率,在1M上下文长度下,V4-Pro单Token计算量仅为前代V3.2的25%,KV缓存占用进一步降至10%,并首次将百万级超长上下文能力设为全系标配,为大模型规模化商用奠定坚实基础。性能方面,DeepSeekV4Pro综合表现已比肩行业顶级闭源大模型,其中Agent与编程能力位居开源第一梯队,世界知识储备领先同类产品,可全面支撑编程开发、工具调用、数学推理等高阶复杂任务。价格端具备显著竞争优势,据DevTk.AI,V4-Pro调用价格显著优于同级别ClaudeSonnet4.6;V4-Flash主打高吞吐场景,性价比优势更为突出,显著降低了企业级ai应用(886108)的落地成本与门槛。
寒武纪(688256)、摩尔线程(688795)、沐曦股份(688802)、海光信息(688041)等厂商相继完成DeepSeek-V4系列模型的部署。寒武纪(688256)依托自研算子库对模型核心模块专项加速,深度优化热点算子并在vLLM框架中全面支持混合并行技术,充分释放硬件底层算力;摩尔线程(688795)在旗舰级MTTS5000GPU上完成全链路工程化适配,其原生支持FP8的硬件架构可高效匹配模型“FP4+FP8”混合精度策略,相比BF16/FP16传统精度降低50%显存带宽压力,形成差异化优势;沐曦联合FlagOS与KernelSwift智能算子迁移系统完成Day0适配,通过核心算子优化实现国产芯片端平均3.4倍推理加速,大幅缩短模型适配周期(883436);海光依托自研DTK异构计算平台与集成超2000个算子的DAS软件系统,对模型实现全栈深度调优,达成业界领先的计算效率。
投资建议:DeepSeekV4模型实现超长上下文、推理及Agent能力全面升级,叠加CSA/HCA混合注意力架构带来显著成本与性能优势,同时华为昇腾(886058)、寒武纪(688256)、摩尔线程(688795)、沐曦股份(688802)、海光信息(688041)等国产算力厂商完成快速适配,芯模协同生态持续完善,有望带动AI大模型及国产算力产业链需求加速释放。建议关注国产AI芯片产业链的投资机会。
风险提示:
1)技术迭代不及预期风险;
2)商业化落地放缓风险;
3)行业竞争加剧风险。
声明:本文引用第三方机构发布报告信息源,并不保证数据的实时性、准确性和完整性,数据仅供参考,据此交易,风险自担。
