
HBM4:计划于 2026 年推出,是 HBM 技术迈入模块化架构的起点。其 I/O 数量达 2048,数据速率为 8Gbps,总带宽突破 2TB/s。堆叠层数扩展至 12 或 16 层,单颗容量提升至 24Gb,整颗模块可达 36 至 48GB。正式引入定制化基底芯片,将近存计算 NMC 处理器与 LPDDR 控制器集成其中,系统级内存容量可提升 40%。
HBM5:预计 2029 年问世,重点转向 “计算靠近内存” 的 3D 异构架构。保留 8Gbps 速率,通过将 TSV 数量扩展至 4096 通道,带宽提升至 4TB/s,容量升至 80GB。处理器核心与 L2 缓存 die 堆叠于 DRAM 之上,实现了 3D NMC 近存计算,显著提升 GEMM 类任务的计算强度,对于内存受限场景能实现 3 倍性能增益。
BTW:HBM4 使用的液冷方法是将冷却液施加到封装顶部的散热器上,面临不少局限性,而 HBM5 结构预计将采用浸没式冷却,将基座芯片和整个封装都浸入冷却液中。可以预见,未来冷却可能会成为 HBM 的关键竞争因素。
HBM6:将于 2032 年推出,数据速率提升至 16Gbps,带宽跃升至 8TB/s,容量达 96 至 120GB。结构上采用 “四塔结构” 整合四个堆叠单元,在硅中介层上与 GPU 形成宽带连接,可使大模型推理吞吐量相较 HBM4 提升超过一倍。同时引入硅 - 玻璃混合中介层,以解决硅中介层在尺寸与成本上的限制。还内嵌 L3 缓存,可有效减少 HBM 访问量 73%,整体能耗降低 40%。
HBM7:预计 2035 年推出,以内存 - 存储一体化为目标,构建由 HBM 与高带宽闪存 HBF 联合构成的异构存储网络体系。数据速率进一步提升至 24Gbps,总带宽达 24TB/s,单颗模块容量上探至 192GB,I/O 数量增至 8192 通道。通过堆叠 128 层 NAND 闪存构成 HBF,与 HBM 间通过高带宽 H2F 链路连接,形成 17.6TB 容量的分层存储架构。
HBM8:将于 2038 年问世,以 “全 3D 集成” 和 “内存中心计算” 为核心理念。数据速率攀升至 32Gbps,总带宽高达 64TB/s,模块容量扩展至 240GB,I/O 数量倍增至 16384 通道。将 GPU 堆叠至 HBM 之上,计算延迟下降 50%,还将矩阵运算的执行路径直接移入 HBM 模块,token 生成速率提升近 7 倍。
#算力 #芯片 #半导体 #未来科技趋势 #科技前沿与未来 #人工智能发展 #大模型 #科技前沿与未来 #行业研究
HBM5:预计 2029 年问世,重点转向 “计算靠近内存” 的 3D 异构架构。保留 8Gbps 速率,通过将 TSV 数量扩展至 4096 通道,带宽提升至 4TB/s,容量升至 80GB。处理器核心与 L2 缓存 die 堆叠于 DRAM 之上,实现了 3D NMC 近存计算,显著提升 GEMM 类任务的计算强度,对于内存受限场景能实现 3 倍性能增益。
BTW:HBM4 使用的液冷方法是将冷却液施加到封装顶部的散热器上,面临不少局限性,而 HBM5 结构预计将采用浸没式冷却,将基座芯片和整个封装都浸入冷却液中。可以预见,未来冷却可能会成为 HBM 的关键竞争因素。
HBM6:将于 2032 年推出,数据速率提升至 16Gbps,带宽跃升至 8TB/s,容量达 96 至 120GB。结构上采用 “四塔结构” 整合四个堆叠单元,在硅中介层上与 GPU 形成宽带连接,可使大模型推理吞吐量相较 HBM4 提升超过一倍。同时引入硅 - 玻璃混合中介层,以解决硅中介层在尺寸与成本上的限制。还内嵌 L3 缓存,可有效减少 HBM 访问量 73%,整体能耗降低 40%。
HBM7:预计 2035 年推出,以内存 - 存储一体化为目标,构建由 HBM 与高带宽闪存 HBF 联合构成的异构存储网络体系。数据速率进一步提升至 24Gbps,总带宽达 24TB/s,单颗模块容量上探至 192GB,I/O 数量增至 8192 通道。通过堆叠 128 层 NAND 闪存构成 HBF,与 HBM 间通过高带宽 H2F 链路连接,形成 17.6TB 容量的分层存储架构。
HBM8:将于 2038 年问世,以 “全 3D 集成” 和 “内存中心计算” 为核心理念。数据速率攀升至 32Gbps,总带宽高达 64TB/s,模块容量扩展至 240GB,I/O 数量倍增至 16384 通道。将 GPU 堆叠至 HBM 之上,计算延迟下降 50%,还将矩阵运算的执行路径直接移入 HBM 模块,token 生成速率提升近 7 倍。
#算力 #芯片 #半导体 #未来科技趋势 #科技前沿与未来 #人工智能发展 #大模型 #科技前沿与未来 #行业研究


