➕关注备用号防失联!!!
欢迎各位一起来交流学习,最丰富的调研内容,和最具时效性的报告解析应有尽有:星球内容进一步丰富升级+参与方法
这周的周策略已经很明显了,假期效应+一季报定价是主旋律,今晚还有硅光王和PCB大哥胜宏交作业。

本周,Ornn计算价格指数(Ornn Compute Prlce Index)显示的NVIDIA最新GPU租赁价格达到每小时4.95美元,较3月初的2.31美元上涨了114%,而这一涨幅仅用了六周时间。
算力租赁这个讲好久的了,近期也是一直在追踪这一块:
光通信的路在何方+剑桥和pcb物料q1解读+近期算力租赁调研

一共是三篇研报:
第一篇是算力租赁的调研内容:(关键词已匿,完整版可到星球查看,总共有两篇)
当前算⼒租赁⾏业的整体景⽓度如何?以英伟达B 系列GPU 为例,其现货与期货市场的价格情况是怎样的,并且您预估此轮⾼景⽓周期将持续多久?
算⼒租赁赛道⼀直存在,但近两三年规模显著扩⼤,尤其是在2023 年A800 GPU 出现短缺后,各公司的对外租赁需求明显增加。核⼼驱动因素在于英伟达⾼端GPU ⽆法正常进⼊中国市场,预计未来⼀到三年内,这种旺盛的市场需求将持续存在。当前,以⼤模型为主导的应⽤需求,特别是模型选代速度极快,导致国内主要⼚商如Ali、Kimi、智谱AI、DeepSeek 及其他⼤型企业的⾼端算⼒严重不⾜,供需缺⼝巨⼤。这⼀缺⼝主要依赖第三⽅算⼒租赁来填补,因为需求具有确定性和刚性。第三⽅租赁公司规模相对较⼩,不易成为制裁⽬标,只要在国内获得政策许可并正常纳税,就能形成商业闭环。因此,当前是国内算⼒租赁市场发展的良好时机。从需求端看,⽆论是现货还是期货,市场需求都⾮常旺盛。企业在2023 年和2024 年主要采购H系列,到2025 年则转向200
⾃2025 年下半年起,订单开始转向B 系列GPU 的期货,例如200和300关于B 系列GPU 的价格⾛势,您认为其价格上涨趋势是否会持续,从⽽使服务器⻓期维持在⾼价位⽔平?
价格预计将持续上涨。这主要是由供需关系决定的:需求确定存在,但供给受限。由于英伟达的GPU ⽆法通过正常渠道进⼊,导致供给⽆法满⾜旺盛的需求,尤其是来⾃⼤型企业的需求。虽然租赁市场能够获得部分货源,但这些GPU 在故障率、稳定性、完整性和规模性⽅⾯存在⼀定瑕疵。租赁商难以⼀次性采购数万张规模的GPU,因为这会增加被监管的⻛险。此外,这些GPU 通常需要拆分运输⽽⾮整机交付,这些因素共同导致了供给的稀缺性,从⽽推动价格持续⾛⾼
像阿⾥巴巴这样的⼤型企业是否也⾯临“⼀卡难求”的局⾯?⽬前在阿⾥巴巴的算⼒租赁供应商中,哪些公司占据了主要份额,整个竞争格局如何?
是的,⼤型企业同样⾯临GPU 短缺的问题。只要供应商资质符合要求,阿⾥巴巴这类公司对于算⼒租赁合作的意愿是很强的。
⼤型科技公司在选择算⼒租赁服务商时,会重点考量哪些特质?
⼤型科技公司选择算⼒租赁服务商时,主要考量以下⼏个关键因素:
⾸先是算⼒规模,由于内部流程涉及法务、财务等多个部⻔,协调成本较⾼,因此服务商⾄少需要具备千卡规模,万卡规模则更具吸引⼒,⼏⼗张卡的规模不具备商谈的可⾏性。所以卡的数量重要。其次是数据中⼼的位置,考虑到数据迁移的便捷性和合规性,靠近公司机房的数据中⼼更具优势。例如,若算⼒服务商的数据中⼼位于⼴东,⽽客户(如⼴汽)的数据主要存储在公司云上,远距离的数据迁移会引发合规问题
第三是算⼒集群的稳定性,公司会对算⼒集群进⾏稳定性及故障率等指标的测试,并设有相应的标准。
第四是价格。
最后,服务商的背景和资质也⾄关重要。具备强⼤背书,如英伟达为其NCP (NVIDIACloud Provider)伙伴协创提供的背书,能显著增强信任。对于新晋服务商,获得如运营商(例如联通)的背书,或拥有良好的财务状况和银⾏信⽤背书,有助于快速进⼊采购渠道
结合当前市场需求紧缺的背景,未来哪些算⼒服务商在B 系列GPU 集群的竞争中可能更具发展前景?
当前市场算⼒需求⾮常紧缺,即便是快⼿这类规模的公司也⾯临算⼒不⾜的困境。在此背景下,能够获得B 系列GPU (如200和300)资源的供应商将拥有显著的竞争优势,因为市场对此类资源的需求没有上限。
在国内市场,协创、盈峰、利通、宏景等⼏家公司在2026 年据了解已具备获取B 系列GPU 的能⼒,因此有机会参与市场竞争。其中,协创作为英伟达的NCP ,拥有富⼠康等稳定的ww货源渠道,在2025 年已是市场重要的算⼒来源除了获取GPU 的能⼒,服务商的综合实⼒同样关键。具备雄厚资⾦实⼒、丰富渠道资源以及与⼤型科技公司历史合作经验的服务商。此外,盈峰在绿电⽅⾯的布局也是⼀个加分项,因为使⽤绿电可以获得地⽅政府的补贴,符合⼤型科技公司对可持续发展的要求。
尽管合同中可能约定了交付罚则, 但从2025 年的实践来看, 若供应商因故⽆法按时交付,虽⽆实际经济惩罚(其实有保证⾦惩罚),但会失去未来的合作机会
除了传统的算⼒租赁模式,市场上是否出现了新的合作与计费模式?
是的,市场上正在探索⼀种新的合作模式,即T oken 分成模式,也称为T oken 租赁。在这种模式下,模型公司与算⼒服务商不再采⽤传统的按时或按卡付费的租赁⽅式,⽽是基于模型产⽣的T oken 进⾏收益分成。这种深度的绑定合作⽅式,能够促使双⽅进⾏更深层次的系统级落地与协同,从⽽建⽴更稳固的合作关系。若算⼒服务商能与⼤型科技
公司达成此类深度合作,将有助于其在市场竞争中占据更有利的地位。
在算⼒租赁业务中,基础的租赁费⽤模式与新兴的T oken 分成模式有何不同?后者实现的条件、潜在优势以及对租赁市场可能产⽣的影响是什么?
算⼒租赁的商业模式正在演变。传统模式下,会有⼀个基础的租赁费⽤,例如⼀张H系列卡每⽉租⾦约为25 万⾄30 万元,这保障了算⼒提供⽅的基本收⼊。在此基础上,当算⼒使⽤超出约定阈值时,例如⽇均T oken 处理量超过10 亿或30 亿,算⼒利⽤率也随之提升,便会触发分成机制。⼀种新兴的模式是“算电融合"或“电算融合”,即基于T oken 产出的分成模式。这种模式的实现需要租赁双⽅进⾏深度合作,确保T oken 的输⼊与输出对双⽅都是透明可⻅的。算⼒提供⽅需要具备独特的优势,例如能够提供绿电资源,从⽽吸引云⼚商或⼤模型公司进⾏合作。通过利⽤绿电政策,算⼒提供⽅可以降低单个T oken 的成本,当T oken 产出量超过⼀定阈值时,其收益便能与服务商必须能够精确计算出这⼀成本与收益的平衡点,才能具备与云⼚商谈判的资格。对于⼤模型⼚商⽽⾔,尤其是⼀些初创公司如智谱AI,这种分成模式也颇具吸引⼒。它们可以将⼤部分(例如60%⾄80%)的T oken 销售收⼊分给算⼒提供⽅,⾃身保留剩余部分。由于⼤模型⼚商在此模式下没有前期⾼昂的算⼒硬件成本,只赚取技术服务费,因此依然能够盈利。这种基于T oken 分成的模式为租赁市场带来了新的可能性。它改变了传统租赁模式中因租赁周期短(如仅6 个⽉)⽽导致的⾼闲置成本⻛险。服务器⼀旦闲置,成本极⾼,⼀台⽉租30 万的服务器若闲置6 个⽉,就很难收回成本,⽽通常算⼒卡的回收周期在11 个⽉到1 年半之间。基于分成的模式则有望实现⻓期且可持续的盈利。不过,这种模式并⾮普遍适⽤,与腾讯、阿⾥、字节跳动等⼤⼚谈判此类合作的⻔槛较⾼,除⾮存在深度的战略合作关系,否则他们未必会接受
从算⼒供给⻆度看,当前国内市场⾯临的主要挑战是什么?这些挑战如何影响算⼒服务的价格,并对相关公司的核⼼竞争⼒提出了哪些要求?
当前国内算⼒供给⾯临的核⼼挑战是⾼端GPU 卡的严重短缺,这导致了算⼒服务价格的持续上涨。由于美国的限制政策以及管制,⾼端NVIDIAGPU 卡⽆法像过去那样通过正常渠道⼤规模进⼊国内市场,⽆法获得官⽅的售后保障。预计今年(2026年)市场主⼒是B 系列芯⽚,明年(2027 年)将是Rubin 架构芯⽚,但需求将持续⽆法得到满⾜。
进⼊国内的卡数量⾮常有限,预计总量不到正常状态下供应量的20%.巨⼤的需求缺⼝与有限的供给形成鲜明对⽐,使得算⼒短缺成为⼀个⻓期存在的刚性问题。在这⼀背景下,企业的核⼼竞争⼒体现在以下⼏个⽅⾯:⾸先是资⾦实⼒,必须有雄厚
的资本⽀持。其次是“拿卡能⼒”,即获取GPU 卡的渠道能⼒,这成为最关键的因素。谁能打通更多通道,谁就能获得更多卡,效率也更⾼。这种能⼒不仅指购买,还包括⼀系列复杂的操作流程:在海外购买后进⾏拆解,运⾄国内后再进⾏分装、组装和压⼒测试。这个过程需要具备强⼤技术背景的专业团队和⾼效的⼯⼚流⽔线作业能⼒,以确保拆解后的GPU 卡在国内重新组装后能够正常运⾏。最后,数据中⼼的选址也⾄关重要。因此,未来具备成⻓性的公司,必须是在资⾦、拿卡渠道及后续处理能⼒上都具备优势的企业
在当前的算⼒市场格局下,哪些公司与A 公司的合作较为紧密?预计A 公司今年(2026年)的GPU 卡需求量以及潜在的合作⽅有哪些?
去年(2025 年),宏景和协创是市场上出货量较⼤的⼏家公司。对于今年(2026 年),A 公司的GPU 卡需求量预计在10 万张左右是⽐较可靠的估算,尽管有传闻称总需求可能达到⼆⼗万张以上。这个预估也考虑到了A 公司可能会扩⼤其⾃研芯⽚(如菊花芯⽚)的使⽤规模。在潜在的合作⽅中,盈峰,其拥有的绿电资源以及资⾦优势可能成为今年(2026 年)获取
合作机会的⼀⼤优势。
盈峰公司2026 年的算⼒集群规划是怎样的?其在华南地区的选址布局是否具备竞争优势?
在新的万卡份额中,盈峰可能获得⽐较多集群的份额,盈峰在阿⾥的业务中仍有较⼤机会,主要得益于其优越的选址。特别是在华南地区,盈峰有两处选址颇具吸引⼒,⽽A公司去年的业务主要集中在华北和华东
对于A 公司这类⼤型云⼚商⽽⾔,与其合作的算⼒集群需要满⾜怎样的最低规模要求?具体的业务合作流程是怎样的?
A 公司这类⼤型云⼚商对合作的算⼒集群有明确的规模⻔槛,通常最低要求是千卡级别。⼀个仅有⼏⼗或⼏百张⾼端卡的集群,它们基本不会考虑合作。因为这些算⼒资源最终是提供给其客户使⽤的,如果集群规模过⼩,⽆法满⾜客户的需求,客户不会采购,A 公司⾃然也不会采购。业务合作是⼀个完整的项⽬制流程,例如,当客户提出1,800 张卡的明确需求,且对某处集群的位置满意,相关部⻔便会启动项⽬。该项⽬需经过内部申报、报价、法务、财务等多个环节的审批,最终由业务⽅确认买单。此外,终端客户通常需要预先签订合同并⽀付⼀定⽐例(如30%或40%)的预付款,整个项⽬才能顺利推进。若客户需求为18.000 张卡,⽽供应商只能提供1.800 张,项⽬则⽆法成⽴。
算⼒租赁⾏业的净利润率⽔平和回报周期是怎样的?税收返还和绿电等因素对利润有何影响?
算⼒租赁⾏业的净利润率⽐较稳定。在理想情况下,特别是与⼤⼚签订⻓期租赁合同(如三年或五年),回报周期可以缩短⾄两年左右。根据内部测算,通常在2 ⾄2.5 年内可以实现回本。⾄于退税等额外利润贡献,并⾮普遍情况,主要取决于地⽅政府的扶持政策。
例如,如果能够获得绿电资源,将⼤幅降低电⼒成本,从⽽显著提升净利润率当前算⼒租赁的租⾦定价模式是怎样的,是固定价格还是会根据服务器价格浮动?
租⾦价格会浮动,但并⾮跟随服务器价格,⽽是根据客户情况⽽定。具体⽽⾔,定价基于获取算⼒(例如B系列的成本。在此基础上,业务部⻔可以根据具体情况将价格再上浮30%⾄40%.即使客户⽆法接受较⾼的溢价,出于内部财务审核要求,也⾄少会象征性地增加⼀定利润。
能够对客户提价的主要原因是什么?是因为当前算⼒需求旺盛,供不应求吗?
需求旺盛是其中⼀个⽅⾯,但更根本的原因在于平台⾃身的价值和能⼒。公司拥有强⼤的平台调度能⼒和infra 能⼒,能够对算⼒资源进⾏池化和超配,从⽽最⼤化利⽤算⼒。例如,1,000 台服务器在公司平台内能产⽣的token 量远超普通部署,可能是数倍甚⾄数⼗倍。这种通过技术能⼒从固定硬件中榨取更多价值的能⼒,是主要的利润来源,⽽不仅仅是赚取租⾦差价。因此,结算⽅式也并⾮固定的租⾦模式,⽽是更多地通过token和API 进⾏,其收益是指数级增⻓的。基于这种盈利模式,对于上游供应商的价格,只能保证⾃身利润空间,态度会相对宽容。
既然通过token 分成模式可以实现轻资产运营,为什么公司更倾向于采⽤固定价格的租赁模式,⽽不是与供应商进⾏token 超额分成?
采⽤固定价格租赁模式能将所有超额收益留在公司内部。公司的平台和调度能⼒可以从算⼒中榨取出远超预期的token 产出,如果采⽤token 分成模式,意味着产⽣的token 越多,需要分给供应商的也越多,这在公司看来并不划算。因此,除⾮供应商能提供某些极具吸引⼒的条件,否则公司更愿意以固定成本锁定算⼒,独享通过技术能⼒创造的全
部增值收益。不过,token 分成作为⼀种新的商业模式也被纳⼊考虑,尤其是在不想预先垫付资⾦成本的情况下。可以寻找合作渠道商,由其提供硬件并承担成本,公司则负责提供客户并进⾏token 分成,这种模式对扩⼤token 使⽤量和市场话语权有战略意义。
公司在采购算⼒卡时是否存在上限?如果市场需求持续旺盛,是否会继续增加供应?
⽬前来看,采购算⼒卡没有上限。只要业务能持续盈利,公司就不会限制该部⻔的扩张。核⼼逻辑在于,该业务部⻔能够形成⼀个⾃负盈亏的闭环:只要有客户需求,并且能获得算⼒卡供应,就可以持续进⾏。业务扩张不需要公司额外拨付预算,⽽是⽤赚取的利润进⾏再投资。因此,只要“有卡”和“有客户”这两个条件同时满⾜,算⼒规模的增⻓就
没有上限。
公司是否会向MiniMax、智谱AI 等模型⼚商竞争对⼿销售算⼒,并利⽤算⼒供应来限制其竞争优势?
公司确实会向这些模型⼚商提供算⼒,并且在策略上会利⽤算⼒供应来影响市场竞争格局。虽然存在⼀定的原则,但核⼼⽬标是将token 卖出去以掌握市场话语权。当前阶段,销售英伟达的算⼒卡(或基于其的算⼒服务)是实现这⼀⽬标最有效的⽅式,因为这是客户的选择。在公有云市场上,客户普遍优先选择NVIDIA 的算⼒。
国产算⼒卡与英伟达的卡在性能上存在多⼤差距?能否满⾜类似DeepSeek-V4 这类模型的推理需求?
国产卡可以运⾏这类模型,但在性能上存在显著差距。以每秒处理的token 数量为例,菊花卡910B ⼤约是600 个token/秒,鲲鹏920 ⼤约是2,500-2,600 个token/秒,H系列⼤约是2000 个token/秒。相⽐之下,199的性能⼤约是H系列 的4 到5 倍,⽽B系列 的性能则更为领先。尽管英伟达卡价格更⾼,但云⼚商可以通过资源池化、分时复⽤等技术⼿段,将单卡在单位时间内的价值最⼤化,从⽽提⾼其性价⽐。此外,客户采购算⼒不仅⽤于推理,还⽤于训练,尤其是⼀些增强学习或模型蒸馏等任务,对于这类有训练需求的客户,如果能获得英伟达卡,他们基本不会考虑国产卡
作为公司的算⼒供应商,是否需要缴纳保证⾦?
是否需要缴纳保证⾦取决于具体项⽬情况。通常,如果⼀个项⽬对公司⾄关重要,且客户交付时间⾮常紧急,为了防⽌供应商违约影响客户,可能会要求缴纳⼀定⽐例(如10%以内)的保证⾦。但如果项⽬没有绑定的最终客户,或者客户交付时间不那么紧张,则通常不需要保证⾦。在这种情况下,供应链的合作模式更为直接:供应商报出价格,公司同意后即供货。如果供应商到期⽆法交付,虽然不会有保证⾦损失,但未来将失去参与项⽬的机会。能否成为供应商,关键在于已经是公司的合作渠道,或者有内部⼈⼠为其背书。
1、从⾏业层⾯来看,2026 年以来算⼒租赁市场与2025 年相⽐有何显著变化?
2026 年以来,算⼒租赁市场的供需⽐例严重失衡。由于AI 智能体爆发及⼤模型训练等需求的增⻓,当前国内算⼒供给仅能满⾜整体需求的50%左右,呈现出结构性失衡。同时可以参考另外⼀个⻆度-HBM 存储,⼤致2025 年底为满⾜⼤模型训练对⾼端GPU显存(如HBM)的需求,许多国外内存⼚商将原有⽣产传统内存条的晶圆产能转向⽣产⾼端显存,导致传统内存产线失衡,PC 内存等价格也随之暴涨。由于内存上游关键原材料晶圆的新产线筹备周期⾄少需要三年,供应链被打乱,整体预期全球算⼒在近两年内都将处于紧缺状态。
2,当前国内算⼒租赁市场主要使⽤哪类算⼒卡?如何看待后续国产算⼒卡的租赁市场发
展?
⽬前国内算⼒租赁市场仍以英伟达的算⼒卡为主。英伟达卡占据主导地位的原因在于其
⽣态系统较为成熟,例如英伟达很早就在全球各⼤⾼校开设CUDA 课程,许多国内科研
⼈员,特别是海归学者,倾向于将国外的英伟达技术模式引⼊国内
相⽐之下,国产算⼒⽣态尚未完全成熟。华为在前两年曾尝试打开市场缺⼝,但国产算
⼒的应⽤场景⽬前主要局限于部分有强制国产化要求的军⼯等领域,或⽤于满⾜特定国
产算⼒经费项⽬的验收要求,⽽在实际应⽤中可能仍会使⽤英伟达的算⼒(当前国产主⼒
异腾、寒武纪均为ASIC,与通⽤GPU 是接受度上存在明显差异).
3,国内算⼒租赁⼚商在补充英伟达⾼端卡⽅⾯现状如何?
在补充英伟达⾼端卡⽅⾯,由于贸易管制,H系列等⾼端卡在国内的供应受到
限制。尽管中国市场占英伟达约30%的份额,但北美不希望中国⾼端算⼒⼤⼒发展,从⽽限制了供应。因此,国内⼚商难以直接在国内建⽴使⽤这些⾼端卡的超算中⼼。国外的芯⽚价格也在同步上涨
4,2025 年下半年以来,国内算⼒租赁⼚商是否主要依赖存量英伟达卡进⾏运营?这对数据中⼼的新建项⽬产⽣了何种影响?
是的,⽬前市场主要依赖存量算⼒。2026 年算⼒供给尤其紧张,⼀个关键原因是许多数据中⼼在2025 年底制定了2026 年的建设计划和预算,但到2026 年过完农历新年后,整体硬件价格翻了三倍。这导致原计划建设100 台服务器的预算现在仅能采购30 台,使得项⽬前期的可⾏性分析完全失效,⽆法满⾜原有客户的规模要求,许多新建数据中⼼项⽬因此中途停滞。这种情况对原计划新建的项⽬影响巨⼤,尤其是部分由央企、国企主导的,涉及⾼端卡的项⽬基本都⽆法推进。虽然互联⽹⼤⼚也⾯临硬件涨价和年度设备增量预算受限的问题,但其受影响程度相对较⼩
5,当前算⼒市场的供需失衡对租赁价格产⽣了怎样的影响
供需失衡导致市场定价逻辑发⽣逆转。在往年,采购量越⼤,单价越有优势。⽽当前市
场,由于⼤规模的算⼒集群⾮常稀缺,需求⽅为了找到能满⾜其规模需求的供应商,愿
意接受更⾼的价格。因此,出现了租赁规模越⼤,单价越贵的反常现象。
与此同时,个⼈⽤户对算⼒的需求也在激增,随着⾖包、Kimi 等应⽤普及,每个⼿机⽤
户都成为后台算⼒的消费者,进⼀步加剧了算⼒短缺。
6,您提到当前算⼒供给仅能满⾜需求的50%左右,这⼀⽐例是如何估计的?
50%是综合⼀些国内具有⼀些权威性的⾏业⽂章及个⼈判断,虽然不⼀定100%精确,但
根据市场实际情况判断,供给满⾜率⼤约在50%⾄60%之间。算⼒缺⼝主要体现在⾼端
市场,包括⼤语⾔模型的训练与推理、新能源汽⻋的智能驾驶研发等。例如,⻋企需要
⼤规模算⼒对其⾃动驾驶系统以及⻋载的视频、语⾔模型进⾏训练,这些都是算⼒消耗
的主要领域
7,以您了解到的具体算⼒卡为例,其租赁价格⾃2025 年年中⾄今经历了怎样的波动?
市场价格波动剧烈,尤其是在⾮闭⼝合同中,价格⼏乎每周都在上涨。以8 卡H系列 服
务器为例,在2025 年上半年,
⼀个⽉的租赁价格约为55000 元;⽽到2026 年4 ⽉,价格
已上涨⾄85000 元/⽉,涨幅达到50%以上,并且仍在持续上涨,可能每两周就会上涨1000
元。价格上涨最快的时期是2026 年农历新年之后。
由于涨价预期强烈,市场上甚⾄出现了供应商宁愿⽀付3%-5%的违约⾦也要撕毁旧合同,
再以更⾼价格转售的情况,因为涨价后的利润远超违约⾦。除了H系列和消费级的4090、5090 等显卡价格也都在上涨。
8,⼀般客户在选择租赁H系列等不同型号的算⼒卡时,主要基于哪些因素进⾏决策?
客户选择何种算⼒卡主要取决于其模型的适配性和性价⽐。部分客户的模型对各类算⼒
卡兼容性较好,选择时更看重通⽤性。⽽另⼀些客户的模型则具有特殊性,例如,某个
模型从100迁移到200,虽然价格更⾼,但性能提升可能并不显著;⽽对另⼀些客户的
模型⽽⾔,这种迁移可能带来显著的性能提升。因此,客户最终会根据其特定模型在不
同算⼒卡上运⾏的实际性能提升幅度来综合评估性价⽐,从⽽做出最合适的选择。
9,在AI 模型训练与推理任务中,H系列以及B 系列等不同型号GPU 的性能表现和兼容性是否存在显著差异
市场上并不存在某款GPU 绝对优于另⼀款的情况,具体性能表现与模型的兼容性密切
相关。例如,部分模型可能因其内部参数设置,只能在A系列 上⾼效运⾏,⽽⽆法兼容
或在H系列 上实现性能提升。 早期模型对A系列 和A的兼容性⾮常强, 后续迁移⾄H系列
时,若未经代码优化和更新,性能提升可能并不显著,部分⼚商因此选择继续使⽤A系列
对于推理任务,B 系列GPU 能够实现显著的性能提升,是当前性能最佳的选择。H系列主要⽤于训练,虽然也能执⾏推理任务,但性价⽐不如B 系列。相较之下,B系列GPU 在训练⽅⾯的性能提升有限,与H 系列相⽐,其⾼昂的价格使其训练性价⽐
不⾼
10,从算⼒租赁客户的需求来看,当前GPU 主要⽤于模型训练还是模型推理?2026 年以
来算⼒租赁价格上涨的主要驱动⼒是哪⼀类需求?
市场需求结构发⽣了显著变化。2023 年⾄2024 年,市场主要由少数⼏家⼤型⼚商(如智谱AI、MiniMax 等)进⾏⼤规模模型训练,呈现“百团⼤战”的格局。当前,这些⼤型⼚
商的平台训练已基本完成,其算⼒需求趋于稳定,主要以项⽬制形式出现。例如,为满⾜
特定项⽬需求,可能会临时增加128 张卡的租⽤量,项⽬结束后便不再需要。
当前市场的增量需求主要来⾃⼤量涌现的中⼩型⼚商。这些⼚商数量众多,可能基于⼤
⼚的平台进⾏特定⾏业的⼆次训练或推理,因此其需求涵盖了训练和推理两个⽅⾯。尽
管单个⼩⼚商的需求量不⼤,但庞⼤的⼚商数量共同推⾼了整体算⼒需求。⽬前,市场上
的算⼒资源基本处于饱和运⾏状态,新增需求通常需要排队等待,没有显著的存量市场。
11,⼀般租赁公司是否能准确掌握客户租⽤算⼒后的具体⽤途,例如是⽤于模型训练还是
推理?
租赁公司能够⼤致了解客户的⽤途,但没有进⾏全⾯的、细化的统计。在客户接治初期,
客户会沟通其平台类型和使⽤的软件,公司会基于技术层⾯分析,推荐性价⽐最⾼的
GPU 型号和配置⽅案。因此,公司对客户的初始意图有⼀定了解。然⽽,客户在实际使
⽤中可能会根据资源可⽤性进⾏调整,例如在H系列 缺货时转用由于英伟达不同型号算⼒卡在单精度和双精度上性能存在差异,但核⼼架构仍有共通之处,
⼀般的替换是可⾏的,只是性价⽐会有所不同。总体⽽⾔,⼀般租赁公司都是基于个案(case by case)了解部分客户信息, 但并未对2026 年以来整体需求爆发中训练与推理的具体⽐例进⾏系
统性统计。
以下就是存储的调研了:
海外存储市场调研:
关于美光提及的3至5年期长期供货协议,闪迪是否有类似的协议,以及这类协议的具体执行方式和约束力如何?
闪迪确实有与客户签订为期3至5年的LTA。这类协议的核心在于锁定供应量而非价格,并且通常每年都会对下一年的锁定供应量进行刷新。未来几年的需求量会作为预测提供给供应商参考,但并非硬性锁定。协议中的违约惩罚条款也主要针对未来一年未能履行的供应量。
考虑到当前NAND市场需求持续增长,以及客户(尤其是CSP客户)不断追求更大容量的新产品,锁定价格是不现实的。例如,今年闪迪可能主推128GB的产品,但下半年可能就会转向256GB,新产品的价格在当前难以预估,因此价格无法被长期锁定。
从历史角度看,这类3至5年期的LTA是从何时开始签订的?与过去消费电子产品为主的周期相比,当前由AI驱区动的周期下,这类协议的签订和执行有何不同?
闪迪与上游供应商从2019至2020年就开始签订类似的3至5年期LTA。在过去以消费类产品(如手机、PC)为主的周期中,由于市场需求存在明显的季节性波动(通常上半年低迷,下半年迎来高峰),美光并未特别关注LTA的签订。而当前,随着客户结构转向CSP等大型企业,这类长期协议变得更为普遍。然而,这类协议的约束力仍然有限,历史上曾出现过大客户在需求下滑时未能完全兑现协议的情况。
2026年第一季度的产品价格涨幅情况如何?对第二季度的价格走势有何预期?
2026年第一季度的产品价格整体上涨幅度与市场公开信息基本一致。预计第二季度价格将继续上涨,但具体的涨幅目前无法预测。
从供给端来看,2026年第二季度和第四季度出货量的增长分别是由哪些因素驱动的?为何第三季度的总出货量与第二季度基本持平?
第二季度出货量的增长主要源于新增的苹果订单以及部分超大容量eSSD(QLC产品)开始出货。第四季度相较于第三季度的增量,也主要由超大容量QLC eSSD的持续放量贡献。至于第三季度出货量与第二季度基本持平,这主要是基于当前对QLC产能爬坡速度的保守预估。
目前的预测显示,第三季度eSSD的增幅可能不甚明显,而第四季度情况会更好。这只是一个初步展望,如果未来几个月QLC的月度出货量增长超出预期,第三季度的eSSD出货量预测数据也可能会进行相应调整。
新工厂的QLC产线目前的良率水平如何?未来的爬坡预期是怎样的?
新工厂于2025年10月开始投产,主攻超大容量的QLC NAND。由于初期良率不理想,第一季度基本没有有效产出。目前(2026年第二季度)的良率爬升仍有难度。
贵司从2026年第二季度开始重新向苹果供货,其订单价格与之前相比有何变化?
美光在2025年第四季度曾拒绝了苹果的订单。
此次从2026年第二季度恢复供货,是在原先与苹果合作的订单价格基础上实现了涨价后才接受的。
关于超大容量eSSD(企业级SSD)的价格,例如128TB的产品,市场售价大概是多少?
对于128TB这类超大容量eSSD的具体价格并不清楚,因为此前没有销售过此类产品。内部询问得到的信息差异巨大,有的说法是每盘5,000
美金,也有说法是上万美金,价格区间过大导致无法确定。
从2025年Q4开始,超大容量eSSD的主要客户有哪些?2026年Q1和Q2的出货量和客户需求有何变化?
2025年Q4,超大容量eSSD产品获得了Google
和Meta的认证。因此,2026年的主要出货客户就是这两家公司。在2026年Q1未,Meta出现了砍单情况。这导致2026年Q2的企业级SSD出货量预测从最初的10亿美金下调。Meta砍单的原因有两种说法:一是可能存在过度预订的情况;二是有传闻称Meta可能改变策略,不再自建用于温冷数据的存储数据池,而是转向通过租赁OpenAI或Oracle等平台的服务来满足需求。
目前eSSD业务的客户结构如何?是否有正在认证的新客户,以及其进展情况?
当前eSSD业务的主要客户是Google和Meta,其中Google的需求相对稳定。另有第三家客户正在认证中,但尚未获得最终结果。这家正在认证的客户是微软,从2025年Q4开始进行验证,预计到2026年下半年才会有结果。通常,这类产品的验证周期很长,超过6个月是正常的,因为需要将产品安装在服务器上进行生命周期测试。
2026年Q3和Q4的eSSD出货量预测是否包含了微软的需求?如果微软验证通过,将对出货量产生什么影响?
目前的出货量预测仅基于已通过验证的客户(即Google和Meta)的需求,并未包含微软的潜在订单。如果微软在Q3验证通过,那么Q4的eSSD整体出货量预测有可能会上修。这部分增量不会影响cSSD(消费级SSD)的产量,因为两者产线不共用。
消费级SSD业务在2026年的需求趋势如何?
2026年全年cSSD的整体需求已经经历了大幅下调。从数据上看,2025年Q4的cSSD出货量为14.4亿美金,而预测到2026年Q4将降至6亿美美金。由于已经下修很多,预计后续不会因为eSSD增产而进一步下调cSSD的产量。
在SSD、零售及其他产品线中,哪类产品的利润率最高?
K2工厂是近期投产的新增产能,除此之外没有建设新NAND工厂的计划。未来的产能增加将主要通过技术迭代来实现,例如将原计划2027年下半年或2028年才投产的第十代
BiCS NAND产品,提前至2026年下半年出样、2027年开始量产。这种技术升级本身就是一种扩产形式。与铠侠合作的K2工厂是目前唯一的新增产能项目。之前关于和力积电合作的传闻不属实,力积电后被美光收购。
K2工厂的产能规划、目前的爬坡进展以及面临的技术瓶颈是什么?
K2工厂的满产目标是每月20万片晶圆。目前,该工厂在技术上遇到了瓶颈,导致爬坡进度不明朗,无法给出明确的时间规划。技术瓶颈主要在于高堆叠层数(如218层)的QLC NAND产品。QLC本身要求在一个存储单元内划分4个电压状态,这使得电压窗口非常窄。随着堆叠层数增加,工艺的纵横比要求变得极高,任何微小的工艺偏移都可能导致整片晶圆报废,这已接近物理极限。良率问题是当前爬坡的主要障碍,一旦技术问题解决,量产速度可能会迅
eSSD作为高端产品,其价格和利润率是最高的。零售产品的利润率则比较复杂,难以一概而论。因为零售产品线包含USB、SD卡以及配合游戏机的内嵌式扩展存储卡等多种产品,不同产品的利润率差异很大,其中低端产品的利润率可能相对较低。
公司在NAND产能方面,未来的投产计划和护产节奏是怎样的?
K2工厂的满产目标是每月20万片晶圆。目前,该工厂在技术上遇到了瓶颈,导致爬坡进度不明朗,无法给出明确的时间规划。技术瓶颈主要在于高堆叠层数(如218层)的QLC NAND产品。QLC本身要求在一个存储单元内划分4个电压状态,这使得电压窗口非常窄。随着堆叠层数增加,工艺的纵横比要求变得极高,任何微小的工艺偏移都可能导致整片晶圆报废,这已接近物理极限。良率问题是当前爬坡的主要障碍,一旦技术问题解决,量产速度可能会迅速提升。对于2026年,如果能爬坡到每月10万片就已经是非常不错的进展。
行业内其他主要厂商,如美光和三星,是否有明确的NAND扩产计划?
行业内其他厂商对扩产也持谨慎态度。例如,有消息称美光计划在新加坡投资一个新工厂,但其计划是到2027年才开始逐步放量。三星的P5工厂项目也类似,对外释放的信号都是逐步、谨慎地增加产量。这些厂商似乎都在观察市场热度,以决定是否进行大规模投产。
HBF项目在公司内部的研发投入和受重视程度如何?
HBF项目在内部受到了高度重视,研发投入力度非常大,且保密等级极高,许多内部员工对其具体形态并不了解。该项目需要与海力士和英伟达进行沟通协调。目前明确的时间节点是2026年下半年送样,2027年实现量产。
从市场的角度看,当前存储行业有哪些值得关注的新变化或发展方向?
一个值得关注的方向是ICMS(In-Context Memory System),即英伟达提出的上下文内存储层。其核心作用是承载HBM无法容纳的上下文数据。在这一领域,HBF是解决方案之一,同时其他厂商也在推出相应技术,例如铠侠的AISSD,同样旨在解决AI推理过程中因KV Cache等中间态数据量过大而导致的存储容量不足问题。随着AI应用日益广泛,推理模型越来越大,对存储的依赖性将持续增强,算力已不再是唯一瓶颈,存储问题正变得愈发关键。因此,各家厂商为扩展ICMS存储能力而推出的不同技术方案,如美光在GDC大会上展出的包含AISSD机柜的集群,可能是一个长期的发展趋势和关注点。