推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机  减速机型号  履带  带式称重给煤机  无级变速机  链式给煤机 

AI大模型商业模式与市场竞争格局分析(30页报告)

   日期:2026-01-18 17:53:24     来源:网络整理    作者:本站编辑    评论:0    
AI大模型商业模式与市场竞争格局分析(30页报告)

本文为节选内容

如需更多报告,联系客服购买

可购买单份报告或打包(300元,300多份人工智能报告,覆盖具身智能、工业机器人、人形机器人、“人工智能+”)

1.AI市场高速扩张,有望引领新一代工业革命

1.1.AI推动生产变革,行业步入蓬勃发展期

(1)人工智能(Artificial Intelligence,AI)是一种模拟人类智能的技术,旨在使机器能够像人类一样思考、学习和解决问题。AI涵盖了多种技术和方法,包括深度学习、机器学习、计算机视觉和自然语言处理等。自1956年达特茅斯会议首次提出AI概念之后,AI经历了早期的萌芽式发展,20世纪70年代出现的专家系统实现了AI从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破,但后续AI因为一系列问题陷入发展瓶颈,进入21世纪,随着网络技术的发展,数据的获取变得更加容易,云计算的兴起提供了强大的计算能力,为深度学习的应用提供了土壤,2010年起,以深度神经网络为代表的AI技术蓬勃发展,应用落地场景多点开花,尤其在近几年,大规模预训练模型时代开启,海内外以ChatGPT、DeepSeek等为代表的AI模型竞赛如火如荼,标志着AI进入了一个新的纪元。

(2)按照智能程度划分,AI主要分为狭义人工智能(ANI)、通用人工智能(AGI)和超级人工智能(ASI),目前AGI和ASI尚处于理论和探索阶段。ANI(Artificial Narrow Intelligence)又称弱人工智能指专注于特定任务的人工智能系统,能够高效执行特定功能,但其能力局限于预设任务,不具备通用智能。AGI(Artificial General Intelligence)指具备与人类相当的综合智能,能够理解、学习和执行任何智力任务,具备自主学习和推理能力。ASI(Artificial Super Intelligence)指在几乎所有领域超越人类智能的人工智能,具备自我改进能力,可能在科学、艺术等领域远超人类。目前,ANI已广泛应用于图像和语音识别、自动驾驶等场景,AGI尚未有实际应用,仍处于理论阶段,但Sora的问世无疑使我们离AGI更进了一步。

(3)生成式人工智能(Generative Artificial Intelligence,Gen AI)是AI领域的重要分支,不同于传统的AI仅对输入数据进行处理和分析,Gen AI能够学习并生成具有逻辑的新内容。Gen AI可以学习并模拟事物的内在规律,是一种基于算法和模型生成具有逻辑性和连贯性的文本、图片、声音、视频、代码等内容的技术。早期Gen AI主要针对单一模态,如 GPT系列生成文本、StyleGAN生成图像。随着技术进步,Gen AI 开始结合多模态模型,依赖于复杂的机器学习模型,实现异构数据的生成式输出,创建跨模态原创内容(例如文本、图像、视频、音频或软件代码)以响应用户的提示或请求。在应用层面,Gen AI可显著提升生产效率,根据贝恩,Gen AI可在营销方面缩减30%-50%内容创造所需的时间消耗,在软件开发方面缩短15%的代码编写时间。

(4)AI具有算力、算法、数据三大要素,其中基础层提供算力支持,通用技术平台解决算法问题,场景化应用挖掘数据价值。数据是AI学习和成长的基石,决定了算法是否能得到有效的训练和优化,数据的质量和数量也直接影响到AI模型的准确性和效率;算法是AI的灵魂,决定了AI如何处理数据和解决问题,其设计和选择直接关系到AI的性能和应用效果;算力是AI运行的动力,算力提供了执行算法和处理数据所需的计算资源,强大的算力可以支持复杂和大规模的AI应用。其中算力指计算设备在单位时间内处理数据的能力,

AI算力是专门针对AI任务(如矩阵运算、神经网络训练)优化的计算能力,需支持高并行性和大规模数据处理,通常用浮点运算次数(FLOPS)衡量,衍生的还有TFLOPS(万亿次/秒)、PFLOPS(千万亿次/秒)等常见单位,算力的核心硬件包括GPU、ASIC、FPGA等。

1.2.AI产业链涵盖基础设施到应用落地多个环节

(1)AI产业链可大致分为基础设施层、模型层、平台层、应用层及服务层,其中基础设施层包含芯片、存储、网络等,模型层包含通用模型、行业模型等。上游基础设施层是AI产业链的基础,主要涉及数据、算力等基础软硬件,包括AI芯片,代表厂商寒武纪、英伟达等;计算、存储、网络方面,代表厂商亚马逊、微软、阿里、三星电子等。模型层是AI产业链的核心部分,包括通用大模型和行业大模型等。平台层和模型层深度绑定,使大模型更便于使用和普及。随着AI大模型的发展,平台中多种模型选择、如何将大模型高效且可靠地部署于生产环境是当前的核心问题。应用层是AI产业链的终端环节,主要涉及AI在各个领域的应用和落地,而大模型的不断更新升级有助于加速应用场景的创新及商业化落地。

(2)2024年全球AI市场规模有望达到6.16万亿美元,同比增长30.1%。根据Frost & Sullivan,自2020年起,全球AI市场规模以高于20%的同比增速呈现迅猛增长的态势,从2019年的1.91万亿美元有望扩张至2024年的6.16万亿美元,同比增速逐年上升,2025年开始虽然预计增速同比放缓,但整体市场有望在2027年扩张至11.64万亿美元,体现出全球AI行业井喷式的发展速度。

2.AI大模型是AI变革的重要环节之一

2.1.“Scaling Law”驱动大模型不断进步

(1)AI大模型指使用大规模数据和强大的计算能力训练出来的“大参数”模型,通常具有高度的通用性和泛化能力,可以应用于自然语言处理、图像识别、语音识别等领域。2022年11月30日,伴随着ChatGPT的推出,其亮眼的语言生成能力掀起了全球范围内的AI大模型热潮,Gemini、Llama、文心一言、SORA、DeepSeek等各类大模型如雨后春笋般涌现。大模型作为AI产业链中的核心环节,推动了自然语言处理、计算机视觉等领域的突破,显著提升了AI的理解和生成能力,并且在医疗、金融、教育、自动驾驶等多个行业中得到广泛应用,有望引领人类步入第四次工业革命。

(2)按照输入数据类型的不同,大模型可分为大语言模型、视觉大模型、多模态大模型三大类;从训练范式看,大模型也可分为基座模型、推理模型和多模态模型。1)从输入数据类型看,大语言模型(LLM,Large Language Model)是指在自然语言处理(Natural Language Processing,NLP)领域中的一类大模型,通常用于处理文本数据和理解自然语言,它们在大规模语料库上进行了训练,以学习自然语言的各种语法、语义和语境规则;视觉大模型是指在计算机视觉(Computer Vision,CV)领域中使用的大模型,通常用于图像处理和分析,这类模型通过在大规模图像数据上进行训练以实现各种视觉任务,如图像分类、目标检测、人脸识别等;多模态大模型(MLLM,Multimodal LLM)是指能够处理多种不同类型数据的大模型,例如文本、图像、音频等多模态数据,这类模型结合了NLP和CV的能力,以实现对多模态信息的综合理解和分析,能更全面地理解和处理复杂的数据。2)从训练范式看,除去上文提到的多模态模型,基座模型(Foundation Models)是一种大规模的预训练模型,通常用于提供基础的语言理解和生成能力,特点是参数数量庞大,能够处理复杂的语言任务;推理模型(Inference Models)是在基座模型的基础上进行进一步训练和优化的模型,它专注于提升模型的推理能力,通常通过强化学习等技术来增强模型的性能,能够处理更复杂的任务,具备自主规划和决策的能力。

(3)深度学习作为机器学习中的重要分支,也是大模型提供了强力的技术支撑,深度学习涵盖训练和推理两个阶段,其中训练又分为预训练、后训练两个步骤。训练(Training)是指通过给定的训练数据集,利用深度学习算法来不断地调整和优化神经网络模型的参数,使其能够从数据集中学习并形成对未知数据的预测能力。其中预训练(Pre-training)通常发生在模型开发的早期阶段,目的是在大规模数据集上学习通用特征,为后续任务奠定基础,预训练不针对特定任务,而是追求广泛的适用性。后训练(Post-Training)发生在预训练之后,模型部署前或部署初期,后训练针对特定的任务或数据集进行额外训练,以优化模型性能,包括Supervised Fine-tuning(SFT,监督微调)和Reinforcement Learning from Human Feedback(RLHF,人类反馈的强化学习)等环节。推理(Inference)是指在经过训练后,将已经训练好的模型应用到真实的数据上,让模型对真实的数据进行预测或分类。

(4)Scaling Law作为大模型预训练第一性原理,仍是驱动模型进步的重要定律。规模定律(Scaling Law)也称尺度定律、缩放定律等,在AI领域中被业界认为是大模型预训练第一性原理,描述了在机器学习领域,特别是对于大语言模型而言,模型性能(L,模型在测试集上的交叉熵损失)与模型的参数量大小(N)、训练模型的数据大小(D)以及训练模型使用的计算量(C)之间存在一种可预测的关系。这种关系通常表现为随着这些因素的增长,模型性能会按照一定的幂律进行改善。预训练阶段的Scaling Law依然是目前GPT范式中成本最高的训练阶段,99%的计算在预训练阶段中。

(5)大模型中存在一种“涌现”现象,进一步证明模型参数量等属性大小的重要性。“涌现”在物理学中的解释是指系统的量变引起行为的质变,在AI领域中,涌现能力(Emergent Abilities)在较小的模型中不出现,通常只在大模型中出现,尤其是大语言模型。下图显示了对于GPT-3等模型针对涵盖数学、历史、法律等等一系列主题的基准测试,结果显示,对于GPT-3、Gopher和Chinchilla,小于等于10B参数时,准确率等表现结果并没有超过随机太多,但一旦参数量达到70B-280B时,性能大大超越了随机效果,这个结果或意味着跨越某个阈值,模型解决大量以知识为基础的、涵盖多个领域的问题的表现会出现质的飞跃(对于没有检索或访问外部内存的稠密语言模型来说),进一步体现模型参数量、数据量等大小的重要性。

2.2.大模型商业化模式有望通过AI Agent实现转型

(1)未来五年全球大模型行业市场规模的CAGR有望达到36.23%。随着AI技术的不断进步和应用场景的日益丰富,大模型的市场规模日益扩展,2021年,全球大模型市场规模同比增长132%,2020年至2024年,全球大模型市场规模有望从25亿美元飞速扩张至280亿美元,增长十倍以上,2025年或将扩张至366亿美元,同比增长30.71%,虽然增速有所放缓,但未来五年,全球大模型行业市场规模有望以36.23%的年复合增长率扩张至2029年的1314亿美元。

(2)目前,大模型的主要盈利模式是基于用量的一种商业模式,核心理念是通过API调用收费,此外还有广告、模型推理部署方向的业务模式。基于用量的收费模数主要按照Tokens、调用次数、时间区间等维度来收费,也是当前主流的盈利方式。除此之外,模型在云端或者本地部署也是模型盈利的重要形式,还有一些AI大模型相关的app因为下载量巨大,吸引到部分商家投放广告,进而形成了广告收入。

(3)模型API 本质是一种MaaS(Model as a service)模式,是海外大模型的核心

商业模式,国内市场由于差异化程度较低,规模相对较小,低价竞争策略或将长期持续。API(Application Programming Interface,应用程序编程接口)是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节,在大模型层面,开发者通过API 这一标准化接口调用大模型功能,而无需从头训练模型,只需发送请求即可获得模型的输出。通过API 调用从而盈利的特点是简单易用、复杂性低和定制化程度低,模型能力是唯一的差异化之处,这本质是一种基于底层模型用量的模式,再增加一部分产品层的溢价构成定价。API 行业需求方较为碎片化,来自各个行业,从供给层面看,模型API 是海外大模型的核心商业模式,从国内市场看,由于国内模型能力缺乏差异化,行业低价竞争趋势等因素,整体市场规模较小,难以成为模型厂商的主要收入来源。

(4)按照Token计价是大部分大模型API的收费方式,国内外大模型对于Token的标准并不统一,定价也差别较大,其余还有按照时间区间计价、调用次数等计价模式。Token在大模型中的含义是最小文本单元,可以直观地理解为字或词,但目前Token和单个汉字、英文字母之间的关系并没有统一的计量标准,各大模型也各不相同,但总体来说1个token≈1-1.8个汉字,在英文文本中,1个token≈3-4个字母。定价方面,不仅对于不同大模型收费标准不同,对于一些大模型来说,在不同时间段使用的定价也不同。此外,按照时间区间计价主要是针对个人用户的订阅制收费模式,可按照年、月、周等维度购买服务(如ChatGPT),按照调用次数的计价模式则方便用户按需购买。

(5)定制化服务主要是指模型推理部署,包含云端、本地、边缘及混合部署,是国内大模型市场的核心业务模式,贡献了大部分营收,其中云端部署是目前最为普遍的大模型部署方式。1)云端部署是当前模型推理部署的主流方式,分为私有云部署和公有云部署,私有云部署是企业将模型部署在自己管理的云基础设施上,结合了本地部署的控制权和云的灵活性,公有云部署则是企业将模型和数据托管在云服务商提供的基础设施上; 2)本地部署需要企业有完善的IT基础设施,是将大模型部署在企业自己的物理服务器上,适用于需要极高数据隐私或对外部依赖有严格要求的场景;3)边缘部署是指将原本运行在云端或大型服务器上的大模型通过优化和压缩后,部署在靠近数据产生源头或应用场景的“边缘设备”(如手机、传感器、本地服务器、IoT设备等)上运行的技术方案,核心目标是通过本地化处理,减少对云端服务器的依赖,从而提升响应速度、保护数据隐私,并适应网络不稳定的环境;4)混合部署是将私有云和公有云结合使用,将一些关键任务(如训练、大规模数据处理)放在私有云中,而将推理任务或其他非机密任务放在公有云中。

(6)从国内大模型项目落地的应用领域看,2024年落地项目数量排在前三位的分别为通信、教科和政务,落地项目金额前三位分别是政务、教科和能源。从2024年国内公开披露的大模型落地项目看,在教科、通信、能源、政务、金融等行业数量和金额都相对较多。其中,从数量维度看,排名前五的行业分别为通信(25.99%)、教科(25.33%)、政务(11.38%)、能源(11.18%)和金融(8.75%),从金额维度看,排名前五的行业分别为政务(34.64%)、教科(15.95%)、能源(11.14%)、通信(11.04%)和金融(3.71%),总体来说,政务行业单个项目涉及金额较大,其次为能源。

(7)随着模型能力不断提升,业务不断成熟,未来以AI Agent为代表的基于结果和价值创造的商业模式有望逐步落地。大模型的三种应用模式分别为Embedding、Copilot和Agent,在Embedding模式中,大模型被集成到现有的应用程序或服务中;Copilot模式中,大模型充当助手的角色,为用户提供实时的建议和支持;Agent模式中,大模型被赋予了一定程度的自主权。近日,Manus作为“全球首款通用AI Agent”问世,引发市场热情。AIAgent以大模型为核心引擎,但是区别于用户基于提示词(prompt)与AI模型交互,AI Agent具备通过独立思考、调用工具逐步完成用户给定的目标的能力,主打“直接完成工作”,本质是一个控制大模型来解决问题的代理系统。与上文模型API不同,这种基于结果和价值创造的商业模式更加复杂,且需要可衡量的结果和交付价值,目前模型厂商的产品形态还几乎不支持对直接基于模型产生的实际效益去定价,但这种模式能更好地满足客户需求。目前,Copilot类产品首先实现商业落地,AI Agent或首先从垂直场景开始逐步探索,未来在模型能力不断上升、产品模式更加成熟后,有望成为新的下游应用增量点。

2.3.大模型竞争日趋白热,未来玩家格局或将逐步收敛

(1)大模型的能力日新月异,护城河不明确,规模效应尚未显现,厂商需要持续大量投入参与市场竞争。互联网时代,厂商可以根据用户画像进行相关推荐,形成了较强的用户关系网络,规模效应能够显著降低成本,且部分APP的迁移成本较高,头部厂家都形成了自己清晰的护城河,能够维持稳定较好的利润水平。区别于互联网,大模型目前产品较为同质化,迁移成本较低,用户关心的是模型的智能程度和成本,且目前行业仍处于前期大规模资本投入阶段,大模型能力不断突破上限,规模效应尚未显现,因此厂商仍需要长期大量投入从而参与市场竞争,维持领先地位。

(2)从海外大模型厂商来看,整体竞争格局日益白热化,尽管GPT拥有先发优势,但是以Claude、Gemini等为代表的大模型正在迅速追赶缩小性能差距。总体来说,模型能力决定市场份额,OpenAI在2023年初发布GPT-4时由于领先的模型能力在市场有较强的竞争力,但后续Anthropic、Google相继迭代旗下的大模型,目前Claude、Gemini的最新旗舰版大模型已经在性能上逐步赶上或在某些领域超越GPT系列模型,模型差距相比2023年显著缩小。

(3)目前,OpenAI、Anthropic、DeepMind形成了海外大模型的第一梯队玩家,第二梯队包括xAI、Meta等,第三梯队玩家逐步被头部厂商吸收,小模型厂商在激烈的市场竞争下被淘汰出清,未来竞争格局将逐步收敛至头部5家厂商。1)OpenAI目前和微软深度绑定,目前营收仍处于领先地位,主要来自于GPT的订阅服务。2)Anthropic营收构成与OpenAI差别较大,主要为API服务,目前和亚马逊绑定,近一年来市场份额快速增长。3)DeepMind背靠谷歌,与谷歌工作流进行整合,发力针对中小企业的API市场。4)马斯克带领的xAI目前正在迅速发展,近期发布的Grok3宣称在基准测试中击败GPT-4o,潜力巨大。5)区别于其他厂商,Meta选择了开源路线,目前尚未通过模型进行商业化,构造围绕Llama的开源生态。6)由于目前海外基础模型需要数百亿美元的持续投入,需要厂商本身较强的资本支撑和与巨头的深度合作带来资源支持,第三梯队的模型厂商已经进入出清时期,部分被头部模型厂商吸收合并,整体竞争格局已收敛。

(4)国内大模型厂商主要分为四类,分别为互联网云厂商、大模型创业公司、模型推理平台及技术类厂商,其中互联网云厂商在模型、生态和渠道优势各方面更为全面,具备较强的竞争力。对于大模型厂商来说,模型能力最为重要,其次是生态能力和渠道能力,国内互联网云厂商和大模型创业公司均具备较高的模型能力,云厂商的生态能力和渠道能力同样亮眼,优势更为全面,代表厂商包括阿里、字节、百度、腾讯等。大模型创业公司也拥有优秀的模型能力,但是生态能力和渠道能力弱于互联网云厂商,代表厂商包括DeepSeek、月之暗面、智谱AI等。模型推理平台通常不自己研发模型,而是整合开源模型生态,通过API盈利,如硅基流动、无问芯穹等。传统的技术类厂商拥有积累的较强的渠道能力,模型和生态能力也较强,代表厂商如商汤科技、科大讯飞、昆仑万维等。

(5)以阿里为例,其云业务相关营收占比总体营收在逐年提升,体现头部模型厂商在持续投入资源后,云业务或将成为其新的增长点。2020年,阿里云营收仅为555.76亿元,到2024年,其云业务营收翻倍,达到1134.96亿元,在总营收中的占比也从8.63%上升至11.56%,未来三年,阿里巴巴在云和AI基础设施上的资本开支将达3800亿元,体现了头部云厂商对AI相关基础建设的投入信心,AI业务有望成为头部互联网云厂商营收增长的重要支撑。

(6)由于通用基础模型领域竞争较为激烈,一方面,国内头部大厂将持续投入通用类产品,结合渠道实力打造生态壁垒,另一方面,部分模型厂商或将开始聚焦商业化层面,转型至相对垂直的细分场景进行服务,增强差异化竞争力。国内第一梯队的大模型厂商多数综合布局,能够承受大量投资和长期亏损的预期,且拥有丰富的消费端场景和自身现有业务产品背书,因此未来国内通用模型竞争格局同样将收敛至第一梯队的少数玩家。在这样的行业背景下,模型创业公司或针对B端模型客户将聚焦于更加垂直、细分的商业化场景。对于传统的技术类厂商来说,目前多数在自身已有的渠道中服务,如部分政府和行业大客户,未来或将尝试将重心转型至大模型。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON