推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  无级变速机  链式给煤机  履带  减速机 

行业调研|超节点中的光互联交流纪要

   日期:2026-04-11 22:19:55     来源:网络整理    作者:本站编辑    评论:0    
行业调研|超节点中的光互联交流纪要
1、Scale-up架构与互联基础要求
·Scale-up与超节点概念辨析:Scale-up架构与超节点为相互独立的概念,不存在从属关系,仅部分相关架构具备超节点的部分特征。Scale-up是计算领域使用的架构模型,核心特征为纵向集成,即沿同一个机柜的纵向方向集成更多计算单元,提升单个机架系统的计算能力。AI计算领域所指的节点是整体计算单位,二者定义存在明确差异,需避免概念混淆的认知误区。
·Scale-up互联方式与性能极限:Scale-up架构的连接方式主要分为三类,分别是板间及芯片间互联、计算单元跨层互联、背板连接,不同场景下的连接介质选型规则如下:
a. 同一板层的计算芯片之间互联通信,一般采用PCIe芯片或微线缆实现;
b. 跨层互联现阶段的NVLink7.2和14.4版本仍保留部分铜缆连接;
c. 同一个机柜内距离达到3米以上的长距连接,采用VR系列短距光模块实现;
d. 演进到NVLink256/512这类超前连接方式时,未来背面连接或将采用正交背板替代铜缆。
当前电学通道的物理极限为224G比特,覆盖PCB走线、内部铜连接、GPU间通信连接等所有铜线及板间连接场景。若单通道速率超过224G,需要引入更高阶的调制方式或材料实现更高性能连接。可预见未来单通道速率达到448G per lane时,必然需要采用光学纯连接方案,这也是NPU和CPU未来必须演进的技术方向。
2、超节点互联方案对比
·国产超节点互联方案:现阶段国产超节点互联方案根据不同场景采用差异化技术路线,覆盖三类场景的连接逻辑与介质选型:
a. 单服务器及单超节点内跨服务器场景:单个机柜通常集成8个服务器,最高可超过12个形成大型服务器单元,该场景下优先选择铜缆作为连接介质,性价比优势突出。当前服务器主流配置CX7/CX8网卡(CX7应用占比更高),采用400G AEC/DAC铜缆即可满足传输需求,若要保障最优传输性能,优先选用AEC电缆,可通过交换机跳转实现多服务器互联。
b. 跨机柜场景:相邻跨机柜若距离较近,仍可采用铜缆连接,400G DAC、AEC均为可选方案;若跨2个及以上机柜,则需采用VR系列光模块(VR指甚短距离Very Short Range传输),2025年主流选用400G VR光模块。
·海外厂商超节点互联方案:海外头部厂商的超节点互联方案各有侧重,核心分为两类主流落地路线:
a. 英伟达方案:英伟达采用设备与连接器(包含光模块、铜缆)捆绑的联合售卖模式,目前已推出NV72、NV144两款成熟商用方案,配套VR系列光模块与铜缆共同推向市场。
b. 亚马逊AWS方案:亚马逊更侧重成本优化,相邻机柜互联全部采用铜缆方案,例如A、B、C三个相邻机柜中,B机柜与A、C机柜的连接均采用铜缆。
3、互联方案优劣与厂商推进逻辑
·不同互联方案优劣势对比:当前互联方案主要分为铜缆、可插拔光模块、共封装光学交换机(原文表述为CPU方案)三类,三类方案的适用场景、性能上限、量产进展差异显著:
a. 铜缆方案:在EnvLink 144、256场景下仍具备适用性,当前算力容量下400G、800G铜缆均可正常使用;400G速率下可采用无源DAC或搭载线性均衡放大器的ACC方案,AEC铜缆在可弯折性、线缆柔软性上表现突出,400G AEC传输距离可达7-8米,800G AEC传输距离可达5米,可覆盖柜内及跨机柜互联需求;但当速率超过800G后,受传输距离、线缆可弯折程度限制,铜缆适用性大幅下降,将逐步被其他方案替代。
b. 可插拔光模块:当算力和传输速率进一步提升后,铜缆无法满足需求,需采用VR系列光模块;2026年受Ruby Ultra GPU、NVLink 5.0尚未普及的影响,传统800G/1.6T可插拔光模块仍有较大发货量,是2026年市场主流供货产品。
c. 共封装光学交换机:其应用元年尚未到来,高良率量产仍需时间,当前量产良率仅约60%;厂商宣称2026年将实现量产,原定全年交付目标为1万台,预计该目标将跳票,2026年全年预计可交付约5000台,整体出货规模有限,2026年互联方案仍以铜缆、可插拔光模块等传统连接方案为主。
·英伟达推进光通信核心原因:英伟达2026年配合新产品推动光通信、共封装光学交换机落地,核心原因有三点:
a. 低延迟需求:Ruby及Ruby Ultra GPU计算量、计算速率大幅提升,产生的token数量显著增加,对高速传输依赖度极高;Scale-up架构对传输延迟敏感度极高,单链路传输延迟需低于40纳秒,若采用可插拔光模块,多端口延迟累积易突破毫秒级阈值(如72口交换机的延迟累积可达毫秒级),无法满足超高算力场景下的低延迟要求。
b. 能耗压力:可插拔光模块能耗随速率提升快速增长,800G可插拔光模块常温能耗为14-15瓦,1.6T光模块能耗可达20-23瓦,在美国110伏电网架构下,能耗压力尤为突出,降能耗需求迫切。
c. 生态构建需求:英伟达此前已通过CUDA构建了成熟的软件生态,为打造软硬件一体化的独立生态,规避博通、Arista等传统交换机、芯片厂商的技术限制,斥资6-8亿美元收购以色列交换机厂商迈洛斯布局自有交换机产品线,推动光通信、共封装光学方案落地是其统一硬件标准、巩固生态话语权的核心动作。
4、光互联落地节奏与前景展望
·光互联落地节奏规划:Scale-up场景下光互联产品形态迭代与部署规模按时间节点有序推进:a. 2026年,Scale-up架构中的光连接以800G铜缆、1.6T光模块为主,配合Spectrum交换机使用,在英伟达生态下采用1.6T为主、800G为辅的搭配模式,其中800G模块主要部署在单个server unit上,对接下层1.6T交换机;CPO整体部署规模仅约5000台,无法完全覆盖所有计算单元,尚未形成上量态势。b. 2027年,CPO生产良率将逐步提升,预计在Scale-up模型中的纯CPO交换机部署规模可达3-4万台。c. 2029年,CPO出厂良率将得到大幅提升,Scale-up架构中的1.6T可插拔光模块将逐步淡出,被纯CPO交换机形态替代。
·可插拔光模块应用前景:当前市场存在CPO将全面替代可插拔光模块的认知误读,实际上CPO的适用场景存在明确边界,仅适用于超大计算单元的Scale-up场景、Rubin Ultra等特定大计算量的计算单元节点内,无法实现大规模铺开应用。可插拔光模块仍具备充足的长期应用空间:超大计算单元的计算数据需要向外发散传输,在中小计算节点、数据对外发散传输等场景中,可插拔光模块仍有广泛用武之地。此外,XPO联盟的成立将进一步拓展可插拔光模块在非超大规模计算节点的应用场景,有效延长其商用生命周期。
5、CPO供应链与成本结构分析
·CPO核心供应链梳理:CPO各核心生产环节技术壁垒较高,供应商格局整体呈现独家或有限厂商竞争的特征,各环节核心供应商梳理如下:光电共封环节由台积电独家供应,完成共封装芯片生产后,外围封装环节由日月光独家承接芯片外围封装工作,目前行业内暂无其他厂商可承接该环节的CPU交换芯片封装需求。光学耦合封装环节的合格供应商包括天孚通信、Coherent、Lumentum。上游激光器工艺环节,核心供应商包括Lumentum、Coherent、源杰,其中源杰若美国工厂建成落地,可生产200G DWDM激光器。外围光纤连接等配套环节,头部供应商为US Conec、More like。目前传统光模块行业中能够切入CPO供应链的企业数量较少,若相关企业想要布局该赛道,多倾向于从NPU方向切入。
·CPO成本结构拆解:CPO交换机及相关核心零部件的成本随产品型号、工艺迭代存在差异,当前各核心部件的单价水平清晰,且成本随工艺成熟度提升存在明确的下行趋势,具体成本拆解如下:a. 相关配套芯片:若采用当前市场较为常见的Ruby型号GPU,单颗售价约为2万美元;其中用于和光引擎封装的核心ASIC交换芯片当前普遍采用3nm工艺,常规51.2T规格的3nm ASIC交换芯片成本约为2万美元,随着技术迭代,未来104T以上规格的交换芯片成本将上升至3万美元以上;b. 光引擎:采用8英寸或12英寸硅光晶圆生产,单价相对较低,当前单颗价格在300-400美元区间;c. FAU:作为配套部件,在CPO交换机中的单颗价格约为25-30美元;d. CW激光器芯片:是光引擎内部的核心组件,单颗售价在50-80美元区间。当前披露的所有成本均为现有工艺成熟度下的水平,随着生产工艺的持续优化成熟,各零部件的成本将逐步下行,2027年、2028年相关部件的成本将较当前有明显回落。
·CPO未来价格趋势:参考光模块行业过往降本增效的成熟经验,从2026年算起至2028年,CPO整体成本降幅预计超过40%,降本核心驱动为工艺成熟度提升带来的各环节生产效率优化与单位成本摊薄。
6、海内外厂商超节点布局情况
·海外云厂商互联方案:谷歌自研的TPU系列芯片已实现量产,目前已推出第四代产品,亚马逊自研芯片当前仍处于实验室测试阶段,暂未披露太多scale-up互联方案的核心细节。若参考谷歌成熟的互联架构推演,亚马逊未来的scale-up互联大概率采用以下架构:机柜内由12个小型服务器组成大的服务单元,服务单元到TOR层交换机的连接选用800G AEC(200G per lane×4)的光模块,这一选型主要是因为亚马逊AWS对AEC青睐度较高,该方案性价比更优,且亚马逊已为200G per lane×4的相关产品预留了充足的采购预算空间;TOR层交换机到Spine-Leaf层则采用1.6T光模块进行灵活组合。目前仅能基于现有对外公开信息及相关采购订单情况做方向性推导,非内部人士很难精确判断亚马逊自研芯片的实际商用进展及落地细节。
·国内厂商超节点布局现状:国内厂商超节点布局及商用落地进展分化明显,各厂商的技术路线和应用场景差异较大:
a. 华为:其自研AI计算卡性能表现不佳,内部对相关业务信心不足,并未吃到本轮AI产业发展的红利。华为云对外推出的搭载自研计算卡的相关产品市场销量较差,目前腾讯、字节、阿里等国内主流互联网厂商均未大规模采用华为的计算卡,最新推出的950P2系列产品也暂未获得头部互联网厂商的采购,仅Deepseek公开宣称其V4模型是采用华为的卡训练完成,但该信息并无第三方佐证。
b. 曙光:其超节点相关方案可重点关注,不过该方案2026年初才刚刚对外公布,目前公开的技术细节较少,且方案侧重scale-out场景,并非针对scale-up场景设计。
c. 寒武纪、昆仑芯、天枢之星:这类厂商的计算卡产品主要供应国有企业、事业单位、军工企业及军队等内部场景,并未在民用互联网市场实现大规模放量,腾讯、字节、阿里等头部互联网厂商的机房中均没有大规模部署这类厂商的计算卡,仅可能有少量独立机房作为展示使用。
当前国内主流互联网厂商的算力采购均倾向于海外先进算力卡,主要采购英伟达的H20、H200、GB200等型号,例如字节的飞书大模型便是在海外采用GB200算力卡完成训练的。
7、行业技术趋势与机会提示
·博通与Marvell CPO布局逻辑:英伟达与博通、Marvell的CPO布局方向存在差异,英伟达目标构建自有生态,形成技术垄断;博通与Marvell则从标准化出发,在scale-out场景推进相关方案。Marvell的CPU方案更接近NPU,保留了较强的可维护性。博通主打通用化CPO方案,核心目标是将传输距离提升至500米,可覆盖小型数据中心,其核心诉求是制定行业统一标准,避免英伟达形成生态垄断。
·PCIe switch替代阈值分析:PCIe switch有明确的适用性能边界,448G是光、电传输的共同物理瓶颈,10厘米以内的短距传输场景下,448G PCIe仍具备明显的性价比优势。若超过该速率或传输距离阈值,PCIe方案将不再适用,需更换独立switch ASIC芯片,背后的技术限制来自光、电两方面:
a. 光传输层面,纯硅光调制无法达到448G以上的调制速率,且相关薄膜材料成本尚未下降到合理区间;
b. 电传输层面,高速传输下铜线会出现明显趋肤效应,引发EMI/EMC兼容性、布板布线等衍生问题。
·滤光片供需与相关机会:高性能滤光片属于光模块核心无源器件,生产具备一定技术门槛,供应链整体呈现强者恒强的特征,1.6T及以后速率下暂无明显供需缺口。北美厂商对供应链稳定性要求高,器件认证流程严格,不会随意更换供应商,暂无新进入玩家改变现有供应格局的迹象。国产算力领域2026年有望迎来放量加速,国产DSP是当前值得重点关注的方向。
Q&A
Q: Scale-up架构与超节点的概念区别是什么?Scale-up架构中芯片间互联的性能要求及主流连接方式有哪些?
A: Scale-up与超节点是两个独立概念:Scale-up指在纵向集成更多计算单元以提升单机架计算能力,而超节点是AI计算领域的完整计算单位。Scale-up架构互联分为三类:板间互联、跨层互联、机柜内远距离互联。当前电学通道物理极限为224Gbps,超过此速率需引入光学方案;448Gbps每通道时必然采用纯光学连接。
Q: 国产超节点在单个服务器内部及跨服务器场景下,当前采用的互联方案是什么?
A: 单个超节点内跨服务器连接目前以铜缆为主,例如采用400G AEC或DAC电缆连接至TOR层交换机;单机柜通常集成8至12个服务器单元,单元间连接亦使用铜缆方案。
Q: 国内超节点在单个计算节点内跨机柜互联的方案有哪些?
A: 跨相邻机柜连接可采用铜缆;若跨越两个以上机柜,则需使用VR系列光模块,以满足传输距离与带宽需求。
Q: 英伟达与亚马逊在跨机柜高速互联方案上分别采用何种技术路径?
A: 英伟达联合方案中,跨机柜连接倾向采用VR系列光模块或DAC铜缆;亚马逊则偏好使用铜缆连接相邻机柜,因其与供应商合作紧密且注重成本效益。
Q: 铜缆、可插拔光模块与CPO方案在Scale-up架构中的优缺点及适用前景如何?
A: 铜缆在400G/800G速率下仍具优势:400G可用无源DAC或ACC,800G AEC可支持5-8米距离,适用于柜内及短距跨柜;速率进一步提升后铜缆受限于传输距离与弯折性。可插拔光模块今年仍是主流,适配Spectrum交换机;CPO方案2026年量产目标约5000台,2027年预计提升至3-4万台,但高良率量产仍需时间。CPO适用于超大计算单元内部低延迟场景,而可插拔模块在向外发散的小节点及XPO联盟推动的非超大规模场景中仍将长期存在。
Q: 英伟达为何在2026年推动光通信及CPO方案进入Scale-up架构?
A: 核心动因有三:一是Ruby/Ruby Ultra芯片计算量大、Token生成多,对互联延迟极度敏感,可插拔模块累积延迟在超高速计算中不可接受;二是能耗管理,800G光模块功耗约14-15瓦,1.6T模块达23瓦,在110伏电网环境下耗电显著;三是构建硬件生态闭环,通过收购Mellanox强化交换机标准,与CUDA软件生态协同,减少对Arista、博通等外部厂商依赖。
Q: 未来三年光互联技术在Scale-up架构中的产品形态与渗透节奏如何?
A: 2026年仍以800G铜缆、800G/1.6T可插拔光模块为主,CPO交换机出货量有限;2027年CPO良率提升,预计部署3-4万台,在超大计算单元中逐步替代可插拔模块;2028-2029年CPO在超大型节点内渗透率显著提升,但可插拔模块在小规模计算节点及数据向外发散场景中仍有应用空间,XPO联盟发展亦将延长其生命周期。
Q: CPO交换机的核心供应链构成及关键零部件成本结构如何?
A: 供应链方面:光电共封由台积电完成,外围封装由日月光负责;光学耦合封装涉及天孚通信、Coherent、Lumentum;激光器芯片供应商包括Lumentum、Coherent、源杰;连接器环节有US Conec、Molex。成本结构:GPU单颗约20,000美元;3nm制程交换ASIC芯片约20,000美元;光引擎300-400美元;FAU约25-30美元;单颗CW激光器芯片50-80美元。成本随工艺成熟呈下降趋势。
Q: 2027至2028年CPO相关零部件成本预计下降幅度如何?
A: 参考光模块行业降本经验,从2026年起至2028年,CPO核心零部件整体成本降幅预计超过40%,具体取决于技术成熟度与量产良率提升进度。
Q: 亚马逊自研芯片在Scale-up架构中的互联方案现状及推演逻辑是什么?
A: 亚马逊自研芯片目前处于实验室测试阶段,细节未公开。参考Google TPU模型推演:单机柜内由12个服务器单元组成,单元至TOR层采用800G光模块或高性价比800G AEC电缆;TOR至Spine-Leaf层采用1.6T光模块组合。AWS对AEC方案青睐度高,预留较大采购预算以保障性价比。
Q: 华为、寒武纪、海光、昆仑芯等国内厂商超节点方案的发展现状与市场应用情况如何?
A: 华为超节点方案市场信心不足,其AI计算卡性能较弱,华为云相关模型销量不佳;中科曙光方案于2026年初公布,侧重Scale-out架构,市场可见度有限;寒武纪、昆仑芯、天数智芯等产品主要应用于国企、军工及事业单位内部场景,互联网头部企业机房未见规模化采用,市场放量较小。
Q: 博通与Marvell为何侧重在Scale-out场景推广CPO方案?与英伟达在Scale-up推CPO相比,落地节奏有何差异?
A: Marvell的CPO方案保留可维护性,更接近NPU特性;博通旨在推动通用型、标准化互联方案,以打破潜在技术垄断、促进行业互操作。英伟达聚焦Scale-up低延迟生态闭环,博通/ Marvell侧重Scale-out标准化与长距传输。标准化路径需产业链协同,落地节奏相对更稳健;英伟达方案依赖自有生态推进,在特定超算场景可能更快渗透。
Q: 芯片间互联在何种性能条件下会从PCIe Switch转向专用Switch ASIC?
A: 448Gbps是当前电/光互联的物理瓶颈:短距PCIe方案仍有优势;突破此速率将面临硅光调制材料成本、铜缆趋肤效应引发的EMI/EMC及布线挑战。当算力持续提升、互联带宽需求超越448Gbps时,需采用新型技术标准与专用Switch ASIC方案。
Q: 1.6T及以上速率光模块中滤光片的供应链格局与供需趋势如何?
A: 高性能滤光片作为无源核心器件,具备较高技术门槛,供应链呈现强者恒强特征。北美设备商对材料变更认证严格、倾向维持稳定供应商体系,目前未观察到显著供需结构变化或新玩家大规模切入迹象。
Q: 专家对国产DSP领域有何投研提示?
A: 专家提示国产DSP近期市场关注度显著提升,予以重点关注。
 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON