推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机型号  减速机  履带  带式称重给煤机  链式给煤机  无级变速机 

大摩——亚太科技行业洞察:深度求索(DeepSeek)——以少求多(附下载)

   日期:2026-02-07 09:03:51     来源:网络整理    作者:本站编辑    评论:0    
大摩——亚太科技行业洞察:深度求索(DeepSeek)——以少求多(附下载)
免费体验「高时效」国际投行研报「T+0至T+1」
「原研报」可至底部下载

大摩——亚太科技行业洞察:深度求索(DeepSeek)——以少求多

精华翻译

一、核心技术突破:Engram模块的创新价值

• 技术原理:DeepSeek推出的Engram模块通过“条件记忆+可扩展查找”机制,将大语言模型(LLM)的静态记忆与动态推理解耦,把模型存储的信息“库”卸载至通用DRAM(系统内存),仅在需要时通过O(1)时间复杂度快速检索,避免高速缓存(HBM)过载,同时为复杂推理任务释放算力。

• 核心优势:在不增加计算量(FLOPs)或参数规模的前提下,提升模型推理准确性与长上下文处理能力;减少对昂贵HBM的依赖,降低基础设施成本,尤其适配中国市场HBM获取受限的现状,仅需约200GB系统DRAM即可满足基础运行需求(对比Vera Rubin系统每CPU 1.5TB DRAM配置)。

• 性能表现:基于270亿参数模型的测试显示,Engram模块在长上下文检索、推理任务中表现更优,且使模型在MMLU、GPQA等标准基准测试中接近全球前沿水平,同时降低推理成本。

二、中国AI发展的核心逻辑:约束驱动创新

• 发展路径:中国头部AI模型(如DeepSeek-V3.2、阿里通义千问-3、字节跳动豆包-Seed-1.8等)未依赖“参数规模蛮力扩张”,而是通过稀疏混合专家(MoE)架构、训练与推理流程优化、长上下文注意力机制等效率驱动型创新,快速缩小与ChatGPT 5.2等全球前沿模型的性能差距。

• 长期价值:这种“约束诱导创新”模式推动中国AI生态更具成本效益、可扩展性与适应性,降低高端智能的边际成本,减少对无限制算力增长的依赖,为全球AI竞争提供差异化路径。

• 模型对标:DeepSeek-V3.2在MMLU(约88.5%)、GPQA(约82%)、编码任务(SWE-Bench约72%)等指标上表现突出,与ChatGPT 5.2(MMLU约92%、GPQA约89%+)差距持续收窄,且支持128K上下文长度与多模态功能。

三、下一代展望:DeepSeek V4的潜力

DeepSeek下一代大语言模型V4将搭载Engram内存架构,重点突破编码与推理能力,预计可在消费级硬件(如RTX 5090)上运行。市场期待其公布详细硬件规格、推理成本对比及编码等核心场景的基准测试目标,有望成为中国AI模型性能跃升的关键里程碑。

四、投资启示与标的

• 核心逻辑:AI行业下一阶段增长动力将来自“架构效率优化”而非单纯算力扩张,内存与半导体国产化主题受益显著——模型架构向“计算+内存均衡配置”转型,推动DRAM需求提升,同时国产半导体设备、封装企业将持续受益于AI产业链本土化。

• 推荐标的:

1. 北方华创(002371.SZ):评级“增持”,目标价514.2元,受益于中国半导体资本开支周期与自身研发突破;

2. 中微公司(688012.SS):评级“增持”,目标价364.32元,凭借半导体设备领域的结构性地位,充分享受晶圆厂扩产红利;

3. 长电科技(600584.SS):评级“持有”,目标价49.49元,有望受益于通信、计算、消费电子需求复苏及先进封装技术落地。

获取原研报长按下方二维码

进入后即可免费领取

(若下方过期,至公众号最新一条)

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON