大摩——亚太科技行业洞察:深度求索(DeepSeek)——以少求多
精华翻译
一、核心技术突破:Engram模块的创新价值
• 技术原理:DeepSeek推出的Engram模块通过“条件记忆+可扩展查找”机制,将大语言模型(LLM)的静态记忆与动态推理解耦,把模型存储的信息“库”卸载至通用DRAM(系统内存),仅在需要时通过O(1)时间复杂度快速检索,避免高速缓存(HBM)过载,同时为复杂推理任务释放算力。
• 核心优势:在不增加计算量(FLOPs)或参数规模的前提下,提升模型推理准确性与长上下文处理能力;减少对昂贵HBM的依赖,降低基础设施成本,尤其适配中国市场HBM获取受限的现状,仅需约200GB系统DRAM即可满足基础运行需求(对比Vera Rubin系统每CPU 1.5TB DRAM配置)。
• 性能表现:基于270亿参数模型的测试显示,Engram模块在长上下文检索、推理任务中表现更优,且使模型在MMLU、GPQA等标准基准测试中接近全球前沿水平,同时降低推理成本。
二、中国AI发展的核心逻辑:约束驱动创新
• 发展路径:中国头部AI模型(如DeepSeek-V3.2、阿里通义千问-3、字节跳动豆包-Seed-1.8等)未依赖“参数规模蛮力扩张”,而是通过稀疏混合专家(MoE)架构、训练与推理流程优化、长上下文注意力机制等效率驱动型创新,快速缩小与ChatGPT 5.2等全球前沿模型的性能差距。
• 长期价值:这种“约束诱导创新”模式推动中国AI生态更具成本效益、可扩展性与适应性,降低高端智能的边际成本,减少对无限制算力增长的依赖,为全球AI竞争提供差异化路径。
• 模型对标:DeepSeek-V3.2在MMLU(约88.5%)、GPQA(约82%)、编码任务(SWE-Bench约72%)等指标上表现突出,与ChatGPT 5.2(MMLU约92%、GPQA约89%+)差距持续收窄,且支持128K上下文长度与多模态功能。
三、下一代展望:DeepSeek V4的潜力
DeepSeek下一代大语言模型V4将搭载Engram内存架构,重点突破编码与推理能力,预计可在消费级硬件(如RTX 5090)上运行。市场期待其公布详细硬件规格、推理成本对比及编码等核心场景的基准测试目标,有望成为中国AI模型性能跃升的关键里程碑。
四、投资启示与标的
• 核心逻辑:AI行业下一阶段增长动力将来自“架构效率优化”而非单纯算力扩张,内存与半导体国产化主题受益显著——模型架构向“计算+内存均衡配置”转型,推动DRAM需求提升,同时国产半导体设备、封装企业将持续受益于AI产业链本土化。
• 推荐标的:
1. 北方华创(002371.SZ):评级“增持”,目标价514.2元,受益于中国半导体资本开支周期与自身研发突破;
2. 中微公司(688012.SS):评级“增持”,目标价364.32元,凭借半导体设备领域的结构性地位,充分享受晶圆厂扩产红利;
3. 长电科技(600584.SS):评级“持有”,目标价49.49元,有望受益于通信、计算、消费电子需求复苏及先进封装技术落地。
获取原研报长按下方二维码
进入后即可免费领取
(若下方过期,至公众号最新一条)



