社会热点
AI算力行业深度分析
2023-08-06 21:40  浏览:30


1

产业概况


相关概念


算力是人工智能三要素之一,已成为人工智能产业化进一步发展的关键。所谓算力,就是计算能力,是指对数据的处理能力,它被视为数字经济时代的新生产力,是推动数字经济发展的核心力量。

其中,算力的大小代表着对数字化信息处理能力的强弱。从原始社会的手动式计算到古代的机械式计算、近现代的电子计算,再到现在的数字计算,算力指代了人类对数据的处理能力,也集中代表了人类智慧的发展水平。

伴随着云计算技术和5G通信技术的发展,使得算力的分布和调度更加灵活,有助于满足各种场景下对高性能计算的需求。未来随着技术的进步和应用场景的不断拓展,算力将继续发挥重要作用,推动整个人工智能行业的创新和发展

算力:ChatGPT发展的核心基础底座


ChatGPT能够实现当前如此强大的交互,离不开背后庞大的算力支撑。根据绿色节能数据中心官方公众号,ChatGPT的总算力消耗约为3640PF-days。

按近期在国内落地的某数据中心为参照物,算力500P耗资30.2亿落成,若要支持ChatGPT的运行,需要7—8个这样数据中心支撑,基础设施投入需以百亿计。

因此,随着AI等新技术的发展,对高可靠、高性能、高安全算力需求更加突出,全球正掀起一场算力的“军备竞赛”,数据中心、AI芯片、服务器等环节作为算力基础设施,有望被高度重视。

AI算力市场呈高速增长态势,算力成为AI突破的关键因素


数据、算力及算法是人工智能发展的三要素。在这三要素中,数据与算法都离不开算力的支撑。

随着AI算法突飞猛进的发展,越来越多的模型训练需要巨量算力支撑,才能快速有效实施,同时数据量的不断增加也要求算力配套进化。如此看来,算力成为AI突破的关键因素。

ChatGPT引发新一轮AI算力需求爆发。根据OpenAI发布的《AIandCompute》分析报告中指出,自2012年以来,AI训练应用的算力需求每3-4个月就会翻倍,从2012年至今,AI算力增长超过了30万倍。

据OpenAI报告,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7-8个算力500P的数据中心才能支撑运行。


全球算力规模将呈现高速增长态势。根据国家数据资源调查报告数据,2021年全球数据总产量67ZB,近三年平均增速超过26%,经中国信息通信研究院测算,2021年全球计算设备算力总规模达到615EFlops,增速达44%。

根据中国信通院援引的IDC数据,2025年全球算力整体规模将达3300EFlops,2020-2025年的年均复合增长率达到50.4%。

结合华为GIV预测,2030年人类将迎来YB数据时代,全球算力规模达到56ZFlops,2025-2030年复合增速达到76.2%。

资本市场对氢能的关注持续升温


AIGC模型硬件以GPGPU为主,GPU市场规模有望在2030年超过4000亿美元。GPU在并行计算方面具有性能优势,在AI领域分化成两条分支:一条是传统意义的GPU,专门用于图形图像处理用途;

另一条是GPGPU,作为运算协处理器,增加了专用指令来满足不同领域的计算需求。

使用GPGPU在云端进行模型训练算法,能够显著缩短海量训练数据的训练时长,减少能源消耗,从而降低人工智能的应用成本,目前全球人工智能相关处理器解决方案仍以GPGPU为主。

根据VerifiedMarketResearch报告,2021年全球GPU芯片市场规模已经达到了334.7亿美元,并预计到2030年将达到4,773.7亿美元,CAGR高达33.3%。

GPU市场保持着高速增长态势,其在人工智能领域中仍然是不可或缺的计算资源之一。

2

产业发展现状


当前大模型的实现,需要强大的算力来支持训练过程和推理过程


大模型的实现,需要十分强大的算力来支持训练过程和推理过程。根据OPENAI数据,训练GPT3175B的模型,需要的算力高达3640PF-days。

2018年以来,大模型的参数量级已达到数千亿参数的量级规模,对算力的需求将呈现指数级增长。


AI芯片性能提升,成为决定大模型从理论实践到大规模应用的关键要素


供给端,AI芯片厂商推出了性能越来越强的新产品来应对人工智能发展的算力需求。以英伟达为例,2020年,英伟达推出了A100GPU芯片,相比上一代V100GPU芯片,A100GPU芯片性能大幅提升。针对大模型,A100GPU芯片相比V100GPU芯片可提供高达3倍的训练速度。

大模型将为全球和中国AI芯片和AI服务器市场的增长,提供强劲动力

随着全球和中国人工智能厂商布局大模型,大模型将为全球和中国AI服务器市场的增长提供强劲动力。


根据《2022年北京人工智能产业发展白皮书》数据,截至2022年10月,北京拥有人工智能核心企业1048家,占我国人工智能核心企业总量的29%。以此计算,我国人工智能核心企业总数约为3614家。

假设其中有2%的企业自建IDC训练和推理大模型,那么单一企业自建IDC推理和训练大模型的算力成本约为4.78(4.03+0.75)亿美元,以此估算,大模型将为我国AI服务器市场带来约345.50亿美元的市场空间。

以2021年我国AI服务器市场规模占全球AI服务器市场规模的占比估算,则将为全球AI服务器市场带来约910.44亿美元的市场空间。市场空间巨大,相关芯片和服务器厂商将深度受益此次ChatGPT浪潮。

3

供需格局分析


需求端:大算力消耗带来训练成本上升,算力霸权时代或将到来


大算力消耗带来训练成本上升,训练ChatGPT需要使用大量算力资源。据微软官网,微软Azure为OpenAI开发的超级计算机是一个单一系统,具有超过28.5万个CPU核心、1万个GPU和400GB/s的GPU服务器网络传输带宽。

据英伟达,使用单个Tesla架构的V100GPU对1746亿参数的GPT-3模型进行一次训练,需要用288年时间。

此外,算力资源的大量消耗,必然伴随着算力成本的上升,据Lambda,使用训练一次1746亿参数的GPT-3模型,所需花费的算力成本超过460万美元。

虽然GPT3.5在模型参数量上有了明显下降,但考虑到GPT-3、GPT-3.5均为OpenAI独家拥有,其他厂商复刻难度较高,巨量参数或仍将是模型开发过程的必经之路,我们预计未来大模型开发的算力成本仍将较高。

模型算力需求增速超越芯片性能增速,算力霸权时代或将到来。据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。

而摩尔定律认为,芯片计算性能大约每18-24个月翻一番。因此,AI训练模型算力需求增长与芯片计算性能增长之间的不匹配,或将带来对算力基础设施供给需求的快速增长。

考虑到算力对于AI模型训练效果的关键性作用,拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的AI模型,算力霸权时代或将开启。


具体来看,AI大模型对于算力资源的需求主要体现在以下三类场景:

模型预训练带来的算力需求


模型预训练过程是消耗算力的最主要场景。ChatGPT采用预训练语言模型,核心思想是在利用标注数据之前,先利用无标注的数据,即纯文本数据训练模型,从而使模型能够学到一些潜在的跟标注无关的知识,最终在具体的任务上,预训练模型就可以利用大量的无标注数据知识。

在Transformer的模型架构下,语言预训练过程可以根据上下文一次处理所有输入,实现大规模并行计算。

通过堆叠多个解码模块,模型的层数规模也会随着提升,可承载的参数量同步增长。与之相对应的,模型训练所需要消耗的算力也就越大。

预计训练一次ChatGPT模型需要的算力约27.5PFlop/s-day。据OpenAI团队发表于2020年的论文《LanguageModelsareFew-ShotLearners》,训练一次13亿参数的GPT-3XL模型需要的全部算力约为27.5PFlop/s-day,训练一次1746亿参数的GPT-3模型需要的算力约为3640PFlop/s-day。

考虑到ChatGPT训练所用的模型是基于13亿参数的GPT-3.5模型微调而来,参数量与GPT-3XL模型接近,因此我们预计训练所需算力约27.5PFlop/s-day,即以1万亿次每秒的速度进行计算,需要耗时27.5天。


日常运营带来的算力需求


预计ChatGPT单月运营需要算力约4874.4PFlop/s-day,对应成本约616万美元。在完成模型预训练之后,ChatGPT对于底层算力的需求并未结束,日常运营过程中,用户交互带来的数据处理需求,同样也是一笔不小的算力开支。

据SimilarWeb数据,2023年1月ChatGPT官网总访问量为6.16亿次。据Fortune杂志,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元。

基于此,我们测算得2023年1月OpenAI为ChatGPT支付的运营算力成本约616万美元。

据上文,我们已知训练一次1746亿参数的GPT-3模型需要3640PFlop/s-day的算力及460万美元的成本,假设单位算力成本固定,测算得ChatGPT单月运营所需算力约4874.4PFlop/s-day。

Finetune带来的算力需求


模型调优带来迭代算力需求。从模型迭代的角度来看,ChatGPT模型并不是静态的,而是需要不断进行Finetune模型调优,以确保模型处于最佳应用状态。


这一过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和PPO策略,对模型进行大规模或小规模的迭代训练。

因此,模型调优同样会为OpenAI带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。

供给端:核心环节有望率先受益


算力芯片:AI算力基石,需求有望大规模扩张
GPU架构更适合进行大规模AI并行计算,需求有望大规模扩张。从ChatGPT模型计算方式来看,主要特征是采用了并行计算。

对比上一代深度学习模型RNN来看,Transformer架构下,AI模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。

而从GPU的计算方式来看,由于GPU采用了数量众多的计算单元和超长的流水线,因此其架构设计较CPU而言,更适合进行大吞吐量的AI并行计算。

基于此,随着大模型训练需求逐步增长,下游厂商对于GPU先进算力及芯片数量的需求均有望提升。


(2)服务器:AI服务器有望持续放量

ChatGPT主要进行矩阵向量计算,AI服务器处理效率更高。从ChatGPT模型结构来看,基于Transformer架构,ChatGPT模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。

而AI服务器中往往集成多个AIGPU,AIGPU通常支持多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,AI服务器往往较GPU服务器计算效率更高,具备一定应用优势。


大模型训练需求有望带动AI服务器放量。随着大数据及云计算的增长带来数据量的增加,对于AI智能服务器的需求明显提高。

据IDC数据,2021年全球AI服务器市场规模为156亿美元,预计到2025年全球AI服务器市场将达到318亿美元,预计22-25年CAGR将达19.5%。

2021年中国AI服务器行业市场规模为350.3亿元,同比增长68.6%,预计22-25年CAGR将达19.0%。

随着ChatGPT持续火热,国内厂商陆续布局ChatGPT类似产品,AI服务器采购需求有望持续增长,市场规模或将进一步扩张。


(3)数据中心:核心城市集中算力缺口或将加剧

IDC算力服务是承接AI计算需求的直接形式。ChatGPT的模型计算主要基于微软的Azure云服务进行,本质上是借助微软自有的IDC资源,在云端完成计算过程后,再将结果返回给OpenAI。

可见,IDC是承接人工智能计算任务的重要算力基础设施之一,但并不是所有企业都需要自行搭建算力设施。

从国内数据中心的业务形态来看,按照机房产权归属及建设方式的角度,可分为自建机房、租赁机房、承接大客户定制化需求以及轻资产衍生模式四种。

AI训练需求有望带动IDC市场规模快速增长。据中国信通院,2021年国内IDC市场规模1500.2亿元,同比增长28.5%。随着我国各地区、各行业数字化转型深入推进、AI训练需求持续增长、智能终端实时计算需求增长,2022年国内市场规模达1900.7亿元,同增26.7%。


互联网厂商布局ChatGPT类似产品,或将加大核心城市IDC算力供给缺口。据艾瑞咨询,2021年国内IDC行业下游客户占比中,互联网厂商居首位,占比为60%;其次为金融业,占比为20%;政府机关占比10%,位列第三。

而目前国内布局ChatGPT类似模型的企业,同样以互联网厂商为主,如百度宣布旗下大模型产品“文心一言”将于2022年3月内测、京东于2023年2月10日宣布推出产业版ChatGPT:ChatJD。

另一方面,国内互联网厂商大多聚集在北京、上海、深圳、杭州等国内核心城市,在可靠性、安全性及网络延迟等性能要求下,或将加大对本地IDC算力需求,国内核心城市IDC算力供给缺口或将加大。

4

AI服务器产业格局

AI服务器和AI芯片是算力发展中极为重要,同时也是企业争相突破的环节,其发展状况,对于整个人工智能行业的发展至关重要,以下我们就分别对AI芯片和AI服务器两部分展开分析。

1、AI服务器:人工智能发展核心算力底座,算力升级催化其加速渗透

AI服务器是采用异构形式的服务器,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。而普通的服务器是以CPU为算力的提供者,采用的是串行架构。

在大数据、云计算、人工智能及物联网等网络技术的应用下,数据呈现几何倍数的增长,CPU的核心数已经接近极限,但数据还在持续增加,因此必须提升服务器的数据处理能力,AI服务器应运而生。通常AI服务器需要承担大量的计算,一般配置四块以上的GPU卡。


AI服务器性能要求持续提升,产品不断迭代。大规模AI计算模型,不仅仅对AI服务器的空间和算力提出了极高的要求,还在冷却技术、算力资源调度和灵活性方面,推动着高性能、高技术水平产品的诞生。

国内代表性企业推出的AI服务器产品,在CPU和GPU芯片性能、功率、计算平台和扩展等关键指标上达到了较高水平,支持互联网、数据库、分布式存储和加速计算等行业多样化的应用场景。

例如,浪潮信息的NF5688M6服务器是为超大规模数据中心专门研发,空间达到6U,采用GPU:计算IB:存储IB=8:8:2的高性能配比,适用于对算力要求较高的大规模的模型训练。

5

AI芯片产业格局

1、AI芯片提供算力基础,国内外市场都将保持快速增长

全球市场:全球人工智能技术发展逐渐成熟,数字化基础设施不断建设完善,推动全球人工智能芯片市场高速增长。IDC全球范围调研显示,人工智能芯片搭载率(attachrate)将持续增高。

根据Tractica、寒武纪招股书相关数据,全球人工智能芯片2022年市场规模预计约395亿美金,预计到2025年将达到726亿美金,年复合增长率达到22%。
国内市场:22-24年复合增速有望达到46%。随着大数据的发展和计算能力的提升,根据寒武纪招股书,2022年中国人工智能芯片市场规模预计达368亿元,预计2024年市场规模将达到785亿元,复合增速有望达到46%。

2021年国内仍以GPU为主实现数据中心计算加速。根据IDC数据,2021年中国人工智能芯片市场中,GPU的市场占有率近90%,ASIC,FPGA,NPU等非GPU芯片市场占有率超过10%。
2、AI芯片赋能算力基石,英伟达垄断全球市场

AI算力芯片主要包括GPU、FPGA,以及以VPU、TPU为代表的ASIC芯片。其中以GPU用量最大,据IDC数据,预计到2025年GPU仍将占据AI芯片8成市场份额。

然而,相较传统图形GPU,通用型算力GPU在芯片架构上缩减了图形图像显示、渲染等功能实现,具有更优的计算能效比,因而被广泛应用于人工智能模型训练、推理领域


根据在网络中的位置,AI芯片可以分为云端AI芯片、边缘和终端AI芯片;根据其在实践中的目标,可分为训练(training)芯片和推理(inference)芯片。

云端主要部署高算力的AI训练芯片和推理芯片,承担训练和推理任务,具体有智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;

边缘和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。
3、性能与生态构筑AI算力芯片高壁垒

评价AI芯片的指标主要包括算力、功耗、面积、精度、可扩展性等,其中算力、功耗、面积(PPA)是评价AI芯片性能的核心指标:

算力:衡量AI芯片算力大小的常用单位为TOPS或者TFLOS,两者分别代表芯片每秒能进行多少万亿次定点运算和浮点运算,运算数据的类型通常有整型8比特(INT8)、单精度32比特(FP32)等。AI芯片的算力越高,代表它的运算速度越快、性能越强。

功耗:功耗即芯片运行所需的功率,除了功耗本身,性能功耗比是综合衡量芯片算力和功耗的关键指标,它代表每瓦功耗对应输出算力的大小。

面积:芯片的面积是成本的决定性因素之一,通常来讲相同工艺制程之下,芯片面积越小良率越高,芯片成本越低。此外,单位芯片面积能提供的算力大小,亦是衡量AI芯片成本的关键指标之一。

除PPA之外,运行在AI芯片上的算法输出精度、AI应用部署的可扩展性与灵活性,均为衡量AI芯片性能的指标。
4、国产AI算力芯片正起星星之火

全球AI芯片市场被英伟达垄断,然而国产AI算力芯片正起星星之火。目前,国内已涌现出了如寒武纪、海光信息等优质的AI算力芯片上市公司,非上市AI算力芯片公司如沐曦、天数智芯、壁仞科技等亦在产品端有持续突破。
5、自主可控受高度重视,国产AI算力芯片迎“芯“机遇

加快实现高水平科技自立自强,是推动高质量发展的必由之路。结合前期数字中国建设规划落地、浪潮集团被美国商务部列入”实体清单“等事件,国产AI算力芯片迎来发展“芯“机遇,自主可控亟待加速。

自主可控受高度重视,高水平科技亟需自立自强。国家相关部门在“两会”期间组建国家数据局,负责统筹推进数字经济发展、推进数据基础设施布局建设等任务,有望加速推进数字中国建设落地;

重组科技部,并组建中央科技委员会,亦有望加速推动国内高水平科技实现自立自强。AI算力芯片作为数字中国的算力基础,国产突破势在必行,国产AI算力芯片迎来发展”芯“机遇。

数字中国建设对AI芯片国产化提出新要求。在2月27日印发的《数字中国建设整体布局规划》中,提出要夯实数字基础设施和数据资源体系“两大基础”;

数字中国基础设施的建设有望拉动以数据中心、超算中心、智能计算中心为代表的算力基础设施建设,从而带动服务器与AI算力芯片的需求快速增长。

同时,《规划》提出要构筑自立自强的数字技术创新体系,上游AI芯片作为算力基础,自主可控需求凸显,数字中国建设对AI芯片国产化提出新要求。

6

产业瓶颈及突破路径

1、算力是制约中国发展大模型的主要瓶颈

算力是制约中国发展以ChatGPT为代表的大模型主要瓶颈之一。据OpenAI,大模型训练所需算力每3-4个月增长1倍,增速远超摩尔定律(18-24个月/倍)。

随着GPT-4等下一代大模型出现,算力需求还有望进一步大幅增长。当前美国对华出口限制,主要造成中国先进工艺发展短期受限,国产替代方案或推高大模型训练成本/时间两大影响。

(1)先进工艺对提升芯片性能至关重要,中国大陆发展短期受限

发展先进制程意义在于持续提升晶体管密度,提升芯片性能,降低功耗。根据WikiChip,台积电5nm芯片每平方毫米晶体管数量是10nm3.3倍,16nm5.9倍,3nm晶体管密度有望比5nm提升70%,性能提升11%,功耗降低27%。

美国限制16/14nm及以下先进逻辑工艺技术及设备向中国出口,对中国先进制程短期发展造成较大阻力。

进入3nm制程以下,目前主流FinFET将走向物理极限,GAAFET将成为主流技术,但美国对中国禁售相关EDA软件。同时,荷兰EUV及先进DUV光刻设备目前均无法对中国出口。

(2)A100进口限制阻碍大模型发展,国内替代方案或推高成本

22年8月美国限制英伟达、AMD对华出口高端GPU芯片,尽管后来有替代版本A800推出,但由于对高速互联总线的带宽做部分裁剪,在使用性能和功耗上面仍与A100有部分差距。

目前H100性能是A100的4.5倍,而A800理论性能相比A100降低约1/3,随着算力需求不断增加,国内由于A100以上芯片的进口限制,导致大模型训练时间/成本或显著提升,客观上阻碍了我国大模型的发展。

因中国企业进行14nm以下半导体代工,受到技术及设备限制,及美国限制海外代工企业为中国设计企业生产性能超过A100的芯片,短期内,中国芯片公司能够生产超过A100的AI芯片的难度也较高。

2、突破路径

(1)异构计算:后摩尔时代,加速实现能源效率提升

异构集合助推全球计算芯片快速发展。异构计算从后端制造创新出发,充分利用计算资源的并行和分布计算技术,将不同制程和架构、不同指令集、不同功能硬件进行组合,成为解决算力瓶颈更为经济的一种方式。

目前比较常见AI芯片异构有以英伟达GraceHopper为代表的CPU+GPU路线,以Waymo为代表的CPU+FPGA路线以及以MobileyeEyeQ5芯片和地平线征程系列为代表的CPU+ASIC路线。
(2)先进封装:助力超越摩尔定律,国内公司积极布局2.5/3D等领域

产业将从2.5D逐步走向3D封装,先进封装助力高性能计算芯片实现超越摩尔定律。

高性能计算领域,先进封装是超越摩尔定律的一项重要路径,其能提供更高的系统集成度与芯片连接密度,芯片系统将持续实现性能提升,同时兼顾功耗和面积。

目前行业正从芯片/Chiplet在平面上通过中介层、硅桥、高密度RDL等方式连接的2.5D封装,逐步走向把存储、计算芯片在垂直维度进行堆叠的3D封装。

我们看到2.5D/3D封装领域主要方案提供者为:台积电(3DFabric平台),英特尔(EMIB/Foveros)、三星(3DTSV/X-Cube)、日月光(VIPack)等。

7

产业链及相关企业

1、产业链概况

目前,我国算力产业链已经初步形成,涵盖由设施、设备、软件供应商、网络运营商构成的上游产业,由基础电信企业、第三方数据中心服务商、云计算厂商构成的中游产业,由互联网企业、工业企业以及政府、金融、电力等各行业用户构成的下游产业。

当前,算力产业主要包含云计算、IDC、人工智能等细分产业;通信产业主要包括基站、接入网和核心网等细分产业。

随着信息通信技术从云网融合向算网一体迈进,算力和网络产业的边界日益模糊,形成以“算+网+协同”为主线的算力网络产业格局,上游为底层硬件基础设施,中游为算力网络相关平台、服务及关键技术,下游为赋能的应用场景及最终用户,产业链关键环节如下图所示。
2、相关分析

当前,我国算力供给水平大幅提升,先进计算创新成果涌现。算力产业加速壮大升级,我国已经形成体系较完整、规模体量庞大、创新活跃的计算产业,在全球产业分工体系中的重要性日益提升。

我国计算产业规模约占电子信息制造业的20%,规模以上企业达2300余家。

整个产业链来看,运营商涉及算力网络产业链上、中、下游多个环节,已在网络领域拥有不可复制的业务优势,因此站在运营商视角,算力网络建设的核心在于“泛在高品质的算力”和“灵活强协同的调度”。

海量数据集中化处理、分布化计算需求爆发式增长,数据中心和边缘计算行业是实现泛在高品质算力的关键;

算网业务的实现需要算力和网络以一体化形态对外提供服务,具备智能化编排管理能力的算网大脑是支撑灵活强协同调度的核心。

我国算力赋能效应不断激发,智改数转进入纵深发展。算力深度融入互联网、电信、金融、制造等下游行业,为各行业各领域的智能化改造和数字化转型提供支撑。

算力助推信息消费持续扩大升级,虚拟现实与元宇宙有望成为推动算力下一个增长阶段的驱动力。

数字经济时代,算力不仅是关键生产力,也将成为普遍应用。随着算力基础设施建设的推进,算力应用的新模式、新业态正加速涌现;

算力深度融入制造、交通、教育、航空航天、金融、传媒等更多行业,同时,算力调度、算力管理、算力交易也成为业界探索的重点。

2022年3月,工业和信息化部正式公布首批国家新型数据中心典型案例名单,共有32个大型以上数据中心和12个边缘数据中心入选。

8

产业发展前瞻


1、基础设施支持层面:云商/运营商积极推进AI领域算力基础设施建设

北美云厂商资本支出向技术基础设施和新数据中心架构倾斜。22Q4亚马逊资本支出主要用于技术基础设施的投资,其中大部分用于支持AWS业务增长与支持履行网络的额外能力。

预计未来相关投资将延续,并增加在技术基础设施方面的支出。谷歌指引2023年资本开支与2022年基本持平,其中技术基础设施有所增加,而办公基础设施将减少。

Meta2022年资本开支为314.3亿美元,同比增长69.3%,但同时Meta略微调低其2023年资本开支预期至300-330亿美元(此前预期为340-370亿美元),主要原因系减少数据中心建设的相关支出,转向新的更具成本效益的、同时支持AI和非AI工作量的数据中心新架构。


作为算力基础设施建设的主力军,三大运营商目前已经进行前瞻性的基础设施布局。

通信运营商自身拥有优质网络、算力、云服务能力,同时具备天然的产业链优势,依靠5G+AI技术优势,为下游客户提供AI服务能力,是新型信息服务体系中重要的一环,助力千行百业数字化转型。

在移动网络方面,中国运营商已建设覆盖全国的高性能高可靠4/5G网络;在固定宽带方面,光纤接入(FTTH/O)端口达到10.25亿个,占比提升至95.7%;

在算力网络方面,运营商在资本开支结构上向算力网络倾斜,提升服务全国算力网络能力。

在AI服务能力方面,加快AI领域商业化应用推出,发挥自身产业链优势,助力千行百业数字化转型。
海内外云商均具备自己的超大规模数据中心。StructureResearch在其报告中测算,到2022年全球超大规模自建数据中心总容量达到13177兆瓦(MW)。

全球四大超大规模数据中心平台——AWS、谷歌云、Meta和微软Azure——约占该容量的78%。

全球占主导地位的超大规模数据中心企业仍然是亚马逊、谷歌、Meta和微软,在中国,本土企业阿里巴巴、华为、百度、腾讯和金山云都是领先的超大规模数据中心企业。

超级数据中心是具有更大规模和更高计算能力的数据中心。随着对数据处理数量和速率需求的提升,数据中心的可扩展性需求也在迅速提升。

超级数据中心在规模和性能上较传统数据中心都有了大幅升级,能够满足超高速度扩展,以满足超级需求的能力。
InfiniBand网络满足大带宽和低时延的需求,成为超算中心的主流。InfiniBand(简称IB)是一个用于高性能计算的计算机网络通信标准,主要应用于大型或超大型数据中心。

IB网络的主要目标是实现高的可靠性、可用性、可扩展性及高性能,且能在单个或多个互联网络中支持冗余的I/O通道,因此能够保持数据中心在局部故障时仍能运转。

相比传统的以太网络,带宽及时延都有非常明显的优势。(一般InfiniBand的网卡收发时延在600ns,而以太网上的收发时延在10us左右,英伟达推出的MetroX-3提升长距离InfiniBand系统带宽至400G)。

作为未来算力的基本单元,高性能的数据中心越来越多的采用InfiniBand网络方案,尤其在超算中心应用最为广泛,成为AI训练网络的主流。


政策环境层面:工业和信息化部持续推进算力产业工作

持续推动算力基础设施建设。统筹布局绿色智能的算力基础设施,推进一体化大数据中心体系建设,加速打造数网协同、数云协同、云边协同、绿色智能的多层次算力设施体系,实现算力水平的持续显著提升,夯实数字经济发展“算力底座”。

聚力推进核心关键技术攻关。充分发挥我国的体制优势和市场优势,提升自主创新能力,加快高端芯片、新型数据中心、超算等领域研发突破,加强先进计算、算网融合等技术布局,推动算力产业向高效、绿色方向发展。

不断激发算力“引擎”赋能效应。深入挖掘算力在数字政府、工业互联网、车联网、金融科技等创新应用场景下的融合应用,提高算力在医疗、交通、教育等传统行业的应用水平,加快推进算力在更多生产生活场景的应用落地。

END


来源:智慧云创全球招商

发表评论
0评