推广 热搜: 采购方式  甲带  滤芯  带式称重给煤机  气动隔膜泵  减速机型号  无级变速机  链式给煤机  履带  减速机 

人工智能生成内容(AIGC):行业洞察与未来探索 2/3

   日期:2026-02-13 12:20:41     来源:网络整理    作者:本站编辑    评论:0    
人工智能生成内容(AIGC):行业洞察与未来探索 2/3

第三节 AIGC发展驱动力

3.1推动AIGC发展的关键因素

AIGC的迅猛发展与人工智能整体进步紧密相连,计算能力、数据资源和算法始终是AIGC发展的核心驱动力。用于模型训练的大规模高质量数据集显著提升了生成内容的准确性与多样性[40]。 高性能计算资源(如图形处理单元GPU和张量处理单元TPU)的普及,加速了大规模模型训练与推理进程[41]。生成内容的质量直接取决于算法性能,而算法性能又依赖于强大的数据资源和计算基础设施。图3-1展示了计算能力、数据与算法之间的相互依存关系[42]。

数据是AIGC的基础,驱动算法学习与优化,从而生成更智能、更精准的结果。计算能力是关键使能器,为高性能计算、大规模数据处理和复杂模型训练提供必要基础。算法作为AIGC的核心引擎,决定着数据与计算能力的调用方式,主导着计算与决策过程。作为AIGC系统的"大脑",算法掌控着其学习、推理和决策过程。三者共同构筑了AIGC的运作体系。计算能力、数据与算法构成相互依存的生态系统,共同推动AIGC发展。

图3-1 | 计算能力、数据与算法的关联关系

除核心驱动力外,基础技术的进步、市场需求的增长以及社会认知的提升,共同为AIGC发展注入强劲动能并拓展广阔空间。

云计算、物联网与大数据技术构成了AIGC发展的基础设施,通过提升响应速度、数据可用性、计算能力和分析能力,进一步推动技术成熟度与广泛应用。 云计算提供海量计算与存储资源[43],这对处理和存储AIGC产生的巨量数据至关重要。物联网凭借广泛的设备连接与数据采集能力[44],为AIGC模型训练与优化提供宝贵数据源。 大数据技术能从海量数据集中提取有效信息[45],持续推动AIGC进化。区块链技术的融合为AIGC产品增添生命周期管理功能,在保障安全的同时保护所有权与知识产权(IP)——这对建立信任机制及促进AI生成内容的无缝流通至关重要[46]。

日益增长的市场需求催生竞争与创新,有望加速AIGC技术的发展与普及。例如,随着消费者追求更个性化、高质量的内容,企业正越来越多地利用AIGC来提升产品与服务。需求增长往往推动更大规模的投资和研发投入,旨在开发更高效的AIGC解决方案以满足市场需求。 此外,全球及各国政府支持人工智能的政策直接推动了AIGC的技术研究、创新应用和市场增长。这些政策不仅提供实质性支持,例如不仅提供资金和税收优惠,还推动行业标准的建立和更强的知识产权保护。这些举措共同营造了有利于AIGC发展的良好环境,进一步激发了市场活力和创新潜力。

公众对AIGC技术的认知加深,正推动其应用场景与潜在价值获得更广泛认可。这种认知提升反过来又驱动着各行业及个人用户的需求增长,从而形成良性循环,加速拓展AIGC市场版图。 例如,随着家长和学生逐渐认识到AIGC提供个性化学习支持的能力,他们更倾向于采用此类技术提升教育质量。政府推动AIGC应用的举措也增加了技术曝光度和认知度,吸引了更广泛利益相关者的关注,进一步扩大了AIGC的影响力。

3.2计算能力提升

计算能力的提升是推动AIGC快速发展的关键驱动力。硬件技术的进步——尤其是计算效率的提升、GPU和TPU等高性能计算资源的普及,以及分布式计算框架和云平台的成熟——逐步降低了大型AI模型的训练成本。计算成本的下降使更多研究者和企业能够参与AIGC的研究与应用。

据国际数据公司(IDC)预测,全球人工智能计算市场将实现显著扩张,从2022年的195亿美元增长至2026年的346.6亿美元。值得注意的是,生成式人工智能计算市场预计将呈现指数级增长,从2022年的8.2亿美元飙升至2026年的109.9亿美元。这一趋势凸显了生成式AI计算日益增长的重要性,其在整体AI计算领域中的市场份额将从4.2%大幅跃升至31.7%。

AIGC的崛起与发展主要归功于计算能力的显著提升。这种增强直接影响了AI模型的规模和复杂性。近年来,神经网络模型的参数数量呈指数级增长,从数百万增长到数百亿甚至数千亿。例如,OpenAI的GPT-3模型拥有1750亿个参数,这在十年前是难以想象的成就。 如此大规模模型的训练需要海量计算资源,若计算能力不足将阻碍收敛进程,导致无法实现最优性能。

计算能力的进步推动了更大规模、更深层级、更复杂模型的开发,这些模型擅长处理复杂任务并生成精细优质的内容。根据一份报告显示,中国银行(BOC International)的投资部门指出,大型人工智能模型的参数不断增加,直接导致计算需求成比例上升。如图3-3[47]所示,计算能力的持续提升不仅是人工智能企业的必然需求,更是推动人工智能技术进步的关键驱动力。

除支持模型扩展外,计算能力的提升显著加快了训练速度与效率。传统中央处理器(CPU)已无法满足大规模模型训练需求,而具备并行计算能力的GPU和TPU则大幅缩短了模型训练周期。 借助GPU集群的计算能力,大型模型训练周期已从数月乃至数年缩短至数日。这种加速使研究人员能更高效地迭代模型、开展大规模实验,推动AIGC技术的持续创新,形成促进其快速演进的良性循环[48]。

计算能力提升的另一关键影响在于实时生成与交互体验的优化。早期受限于计算能力,AI生成内容需耗费较长时间处理,导致用户体验欠佳。如今即使在移动端和边缘设备上,实时生成AI内容也已成为可能,用户可即时获取生成的文本、图像和视频。这种显著改进极大提升了AIGC应用的实用性和吸引力。

综上所述,计算能力的提升是推动AIGC发展的关键驱动力:它加速了模型训练速度;促进了模型规模与复杂度的突破;增强了实时生成能力与交互体验;并推动了多模态内容生成、AIGC商业化及产业化的进程。

图3-3 | 大型模型参数与计算要求

3.3多模态数据的可用性

数据是驱动AIGC发展的另一关键要素。高质量的大规模数据集为模型提供了丰富的学习素材,从而提升生成内容的质量与多样性[49]。此外,数据的多样性与覆盖范围直接影响AI模型的泛化能力与适应性[50]。

AIGC专注于自动化内容生成,而传统AI更侧重模式识别、决策制定与任务执行。因此,传统AI主要依赖数值表格、标注数据集等结构化数据,AIGC则更重视图像、文本、音频等非结构化数据。此外,AIGC需要更高数据多样性以确保生成内容准确反映现实世界的复杂性与变异性[51]。

多模态数据对AIGC的影响深远,它不仅拓展了人工智能系统的感知能力,更显著提升了内容生成的准确性与多样性。多模态数据集整合了文本、图像、音频、视频等多重信息形式。传统AI模型通常仅基于单模态数据训练——例如自然语言处理(NLP)模型处理文本,计算机视觉(CV)模型处理图像。 

然而现实世界信息本质上具有多模态特性,单模态数据往往难以捕捉复杂情境中的微妙差异。

通过整合多模态数据,AIGC能够融合多元信息源,实现更全面细致的理解。 例如处理新闻报道时,同时接收文本描述及对应图像/视频的AIGC模型能更准确把握事件背景与细节,从而生成更精准生动的内容。这种融合不仅体现在理解层面:在内容生成过程中,AIGC可整体考量多源信息,产出更贴近人类认知模式的输出。

多模态数据的应用虽提升了训练门槛,却能显著改善性能表现。在模型设计层面,多模态数据要求具备跨模态关联与转换能力,促使研究者开发创新架构——如变体Transformer模型——通过建立不同模态间的关联来丰富信息表征。

此外,多模态数据的丰富性与多样性有助于缓解单模态数据集固有的偏差,提升模型泛化能力。例如在情感分析中,仅依赖文本可能无法捕捉微妙的情感差异,而整合语音语调与面部表情则能显著提升识别准确率。

多模态数据的引入标志着AIGC领域的变革性飞跃,不仅拓展了人工智能生成内容的边界,更推动人工智能朝着更具人性化、情境感知能力及多样化的应用方向发展。随着技术持续演进,AIGC有望在多个领域释放前所未有的创造力与影响力。

3.4算法进步

算法改进在推动AIGC发展中发挥着关键作用。过去几年间,随着计算能力的提升和数据量的扩张,算法进步已成为推动技术进步的核心驱动力之一。算法作为计算机科学的基础,定义了解决计算问题的途径[52]。通过持续优化与精进,研究人员得以应对日益复杂的挑战,开拓全新领域与方法论[53]。

算法的创新与优化是AIGC发展的核心驱动力。随着深度学习和生成对抗网络(GAN)技术的进步,算法在处理和生成复杂数据类型方面变得更加高效。这些改进使模型能够捕捉数据中的复杂模式,并生成创新的创意内容(包括文本、图像和音频),显著提升了AIGC输出的质量与多样性。 例如GAN采用生成器-鉴别器框架运作:生成器致力于创造逼真数据,鉴别器则学习区分真实与合成数据。这种对抗过程持续优化生成器,最终产出高度逼真的内容。预训练模型——如BERT、GPT系列及多模态预训练模型——通过大规模无监督学习显著拓展了AIGC能力,增强了泛化能力与内容生成效果。算法的持续迭代优化进一步提升了生成效率与效果,推动AIGC迈向更智能的创作阶段。 

GPT系列及多模态预训练模型——通过大规模无监督学习显著拓展了AIGC能力,增强了泛化能力与内容生成能力。算法的持续迭代优化进一步提升了生成效率与效果,使AIGC更接近人类创造力,某些情况下甚至超越人类创造力。

大型语言模型(LLMs)是基于海量数据集训练的人工智能模型,能够理解、生成和预测人类语言。这类模型(如GPT-3、GPT-4)通常包含数十亿甚至数万亿参数,使其在语言处理和内容生成方面表现卓越。 值得注意的是,现代LLM已突破文本处理的局限,日益展现出理解与生成图像、音频等多模态内容的能力。例如GPT-4既能根据文本输入生成图像,也能分析并描述用户上传的图片。

随着能力持续扩展,大型语言模型已成为AIGC的基础技术,在其发展进程中扮演着日益核心的角色。除推动文本类AIGC应用创新外,大型语言模型现已将影响力延伸至图像与音频生成领域,进一步拓展了其在多元领域的覆盖范围。这种演进深化了人工智能在内容创作中的作用,为用户提供了更丰富多元的体验。 图3-4展示了LLM的发展轨迹[54]。

大型语言模型的演进可追溯至2018年,当时的Word2Vec、GloVe和FastText等模型专注于开发能够捕捉基础语言单元(如单词)及其语义关系的嵌入向量。尽管这些早期模型在各类自然语言处理任务中表现出色,但仍难以理解词语间的复杂语境关系。

后续的BERT和GPT等模型引入了Transformer架构,实现了对上下文关系的更精细化理解。

图3-4 | 大型语言模型演化树

双向上下文建模(BERT)与单向生成建模(GPT)显著提升了机器阅读理解与文本生成能力。

2021至2022年间,侏罗纪-1、GPT-Neo和Chinchilla等模型相继涌现,在开源社区中崭露头角。这些模型降低了技术门槛,使更多研究者和开发者能积极参与这个快速演进的激动人心领域。它们在处理大规模数据集方面表现卓越,并针对特定任务引入结构化与算法优化,涵盖代码生成、文本摘要、及问答系统系统,提供定制化解决方案。2022年末发布的GPT-3成为新里程碑,展现了大型模型无需大量任务特定训练即可处理多重复杂任务的潜力。

至2023年,LLaMA-2、OPT-IML和Claude-2等模型进一步拓展了LLM应用边界,在更广泛任务中展现出更强的适应性和精准度。这些模型在理解人类语言时呈现出前所未有的深度与精细度。

2024年,LLM发展的关键趋势开始显现:AI agents built on LLMs gained随着应用场景日益复杂多样,优化大型语言模型能力以驱动自主人工智能代理成为重要焦点。与此同时,基于大型语言模型的个性化智能体引发广泛关注,促使多家机构提出个人大型语言模型智能体的概念,并探索如何提升这类个人人工智能系统的效率、安全性和功能性。此外,文本转视频生成技术成为热点,众多企业竞相开发能根据文字描述生成高质量视频内容的模型。

至2025年,以DeepSeek-R1为代表的深度推理模型通过降低计算成本实现高性能推理,重新定义了传统"计算力竞赛"。这些模型在保持强劲多任务泛化能力的同时,显著降低了推理阶段能耗。通过强化学习与离线知识蒸馏的结合,模型能基于用户反馈动态优化生成策略,并采用轻量化子网络确保隐私安全。这些算法模型不仅展现出强大的推理能力,更通过实时互联网搜索实现复杂信息检索并生成知情响应。尽管该技术突破推动了AIGC的广泛应用,为开发可信赖、高效且个性化的AI代理奠定基础,但也为计算资源需求与模型性能关系引入了新的不确定性。

在企业市场,大规模模型的应用持续扩张。金融、教育、医疗和能源等行业日益认识到这些模型的价值,积极推动部署以提升员工生产力和运营效率。 

传统人工智能依赖更广泛的算法体系,包括决策树、支持向量机和神经网络等。这些算法主要聚焦于分类、回归和聚类等任务,而非内容生成。相比之下,AIGC算法专为生成过程设计,通常需要更复杂的模型来处理序列数据、图像、音频及其他非结构化信息。

算法进步虽为AIGC开辟了新可能,但也带来新挑战。随着算法日益复杂,开发维护成本持续攀升。训练和优化算法所需的海量数据加剧了隐私与安全风险,而先进算法的不透明性及"黑箱"特性可能引发公众对人工智能驱动决策的信任危机。

但持续的研究与创新可助力解决这些问题并推动AIGC发展。未来研究不仅应提升算法透明度与可解释性,还需考量伦理影响和社会效应。跨学科协作将成为克服挑战、释放AIGC全部潜能的关键。

第4节 AIGC技术概述

4.1引言

AIGC技术主要围绕三大核心要素展开:算法、数据与计算能力。算法涵盖模型架构与参数设计,数据为模型训练提供必要样本,计算能力则支撑复杂模型的训练过程,从而生成满足特定性能与可扩展性要求的模型。 模型是通过数学公式、统计分布、逻辑规则或神经网络结构,对输入(数据)与输出(结果)之间关系的正式化表征。AI模型本质上捕捉了数据中的潜在模式。大型模型通常指参数数量庞大的深度学习模型,参数规模通常从数十亿到数万亿不等。

生成式AI算法架构(如Transformer模型和扩散模型)是推动AIGC发展的核心技术之一。生成式AI能够基于提示词或现有数据,创造全新的文本、音频及视觉(图像与视频)内容。这标志着重大变革——AI不再仅是复制人类智能,而是获得了独立生成原创内容的能力。

从算法视角看,人工智能从机器学习到深度学习再到生成式AI的演进,呈现出渐进式发展轨迹(如图4-1所示),每个阶段都在前代基础上深化能力。这种演变体现了人工智能从模仿人类智能的阶段,逐步迈向主动学习,最终实现自主内容创作。

图4-1 | 人工智能算法开发

自然语言处理(NLP)、生成式人工智能和GPT技术是人工智能的三大基础组件,它们各自发挥着关键作用,同时保持着独特的关系和功能。

NLP作为人工智能的子领域,致力于使计算机具备理解与生成人类语言的能力。其涵盖范围广泛,从句法解析、语义理解到情感分析、文本生成等复杂任务均属此列。NLP领域的突破性进展推动了机器翻译、语音识别、情感分析等实用系统与应用的开发。

生成式人工智能作为深度学习的子集,其核心能力在于生成全新内容,如文本、图像、视频及音频。通过学习海量训练数据集,生成式AI能识别潜在模式与结构,进而基于所学洞察创造新内容。其应用领域极为广泛,涵盖图像合成、音乐创作及文本生成等方向。

GPT技术代表了生成式人工智能最先进的实现形式,尤其在自然语言处理领域。作为自回归大型语言模型,GPT通过对数万亿词汇的预训练,能够根据输入文本预测最可能的下一个词。尽管最初设计用于NLP任务,GPT现已扩展至图像生成、视频生成及其他形式的内容。生成式AI、NLP与GPT之间相互关系的关联性如图4-2所示。

图4-2 | 生成式人工智能、自然语言处理与GPT之间的关系

综上所述,NLP、生成式人工智能与GPT之间的关系可概括如下:NLP构成一个广阔的研究领域,而生成式人工智能则是人工智能更广泛领域中的一个专业学科。GPT作为生成式人工智能在NLP领域中的创新应用应运而生。值得注意的是,尽管GPT起源于NLP领域内,其向多模态任务的拓展已成为更广泛人工智能研究的重要组成部分。例如多模态AI模型DALL·E能通过文本描述生成图像。同样,2024年4月发布的GPT-4o也集成了图像识别与文本处理等多模态功能。

此外,AIGC技术由实际应用驱动,其技术应用依据模型数据类型及源自应用系统分层结构的架构进行分类。在用户导向的应用层面,对模型评估方法、性能指标及影响因素的研究确保了实际应用的进步与可靠性。

图4-3 | AIGC技术整体架构

在大模型应用中,可区分三大核心技术模块:通用接口;记忆与上下文;推理与规划。

图4-4 | 大型模型应用的核心技术模块

1)通用接口

通用接口是大型模型与用户之间的桥梁。用户通过自然语言、图像、语音等多模态方式输入信息,系统对其进行解析处理。该模块需具备高效的输入解析能力及多模态交互支持,以适应多样化的用户需求和场景,通过更直观自然的交互方式提升用户体验。

2)记忆与上下文

记忆与上下文模块负责存储和处理输入信息。它使模型能够保留历史交互记录,从而更深入地理解当前情境。该能力能生成更精准相关的响应,尤其在处理复杂对话或任务时效果显著。通过动态更新和管理上下文信息,模型能持续学习并适应用户需求与偏好。

3)推理与规划

推理与规划模块是大型模型的核心智能。通过整合多元数据与信息,模型进行复杂推理并制定合理解决方案或行动计划。推理过程涉及逻辑分析、模式识别和预测建模,通常依赖深度学习与强化学习技术。其核心目标是在动态环境中提升决策能力。

大型模型的性能高度依赖训练数据的质量与管理。数据管理模块统筹数据采集、清洗与标注工作,通过优化数据集提升模型精度与效率,同时确保符合隐私及安全法规要求。

持续训练与更新对维持模型的尖端性能和适应性至关重要。模型训练模块依托大规模计算资源,运用最新算法与技术进行周期性更新,从而提升模型性能,使其能够适应不断变化的环境和用户需求。

这些核心技术模块共同构成了大型模型的基础架构,赋予其在多元应用场景中的广泛功能与适应能力。通过持续创新与优化,大型模型将在未来人工智能发展中发挥日益关键的作用。

4.2AIGC模型架构、参数规模与训练

传统人工智能主要侧重分析能力,即识别数据模式并据此应用。而AIGC强调生成新内容,标志着从感知理解世界到主动创造新现实的进化。

本节聚焦核心生成模型,概述经典架构,但不涉及数据预处理、输出优化及应用部署等环节。

4.2.1 生成模型的基本结构生成模型是深度学习应用的一种,旨在通过无监督学习生成可观察的非结构化数据。这类模型致力于学习训练数据的潜在结构(包括隐藏特征和概率分布),从而实现文本、图像、音频及视频等新内容的生成。

通常,生成模型包含三个层级:输入层、中间层和输出层。输入层接收数据,中间层处理并提取特征,输出层生成新内容。然而,生成模型的实际结构可能因其设计目的和底层原理而存在显著差异。以下是三种最常见的生成模型类型:

1)生成对抗网络(GANs)

生成对抗网络(GAN)通过两个核心组件的交互运作:生成器(G)与鉴别器(D)[55]。

生成器通常采用多层神经网络,从随机噪声或采样数据中创建合成样本。鉴别器(通常为二元分类器)则通过生成样本与真实训练数据的对比进行判别。对抗训练过程中,鉴别器不断降低分类误差,同时生成器持续提高生成数据被判定为真实数据的概率,最终实现生成数据高度逼真的平衡状态。

数据与生成样本。对抗训练过程中,判别器通过最小化分类误差,生成器则通过最大化生成数据被判定为真实数据的概率,最终在两者博弈中达成平衡,生成高度逼真的数据。

图4-5 | GAN模型架构

2)变分自编码器(VAEs)

变分自编码器(VAE)由编码器和解码器组成[56],通过学习复杂训练数据的概率分布并从中采样来生成新样本。

VAE引入潜在空间——一个低维连续空间,其中每个点代表编码关键数据特征的潜在变量向量。通过操控潜在变量,这些特征使模型能够生成多样化且结构一致的数据样本。 编码器将复杂输入数据映射至该潜在空间,实现原始数据编码与核心特征提取。解码器则从潜在表示中重建原始高维数据,生成最终输出。模型通过最大化观测数据的边缘似然函数,同时最小化生成数据与潜在变量间的库利-莱布勒散度(KLD)进行训练,从而确保对数据分布的精确表征。

图4-6 | VAE模型架构

3)扩散模型

扩散模型[57]受非平衡热力学启发,通过逐步添加噪声再消除噪声,模拟从有序到无序再回归有序的过程。该模型利用随机采样噪声生成高保真对应内容。

图4-7 | 扩散模型架构

该模型在两个关键阶段运行:正向扩散与逆向扩散(去噪)。正向扩散阶段,噪声被逐步添加至结构化数据,使其从有序状态转变为近乎完全随机状态,该转变遵循预设的噪声计划。逆向扩散作为核心阶段,涉及从噪声输入中学习重建原始有序数据。在此过程中,模型通过深度神经网络训练,能够有效地从高噪声样本中恢复干净数据。

4)Transformer模型

Transformer模型[58]作为深度学习框架,广泛应用于自然语言处理及其他序列到序列任务,构成了ChatGPT和BERT等大型模型的基础。

Transformer通过在编码器-解码器结构中引入注意力机制,捕捉输入序列中的长程依赖关系。位置编码保留词序信息,使模型能够区分序列元素。

编码器组件由多层结构构成,每层具有相同架构但独立参数。它将输入序列转换为稠密向量表示(即输入嵌入),通过位置编码保留序列顺序信息。这些输入嵌入随后应用多头自注意力层捕捉长程依赖关系,再经由前馈神经网络进行非线性变换与映射,从而提取特征并生成最终编码序列。

解码器采用类似结构,接收来自编码器的编码输入序列。它运用掩码多头自注意力层确保序列完整性,随后通过编码器-解码器注意力层生成感知上下文的输出令牌,最终通过前馈神经网络完成序列生成。

图4-8 | Transformer模型架构

4.2.2模型参数规模

生成模型的参数指需要学习和调整的变量或权重,这些参数直接影响模型的输出和性能。 参数规模受数据类型、训练目标、架构设计及模型层数等因素影响。通常参数规模增大能增强模型对复杂数据分布和任务需求的适应能力,提升生成输出的质量与多样性。但过大的参数规模会推高训练与推理成本,通常需要更多数据才能实现有效训练和验证。

常见生成模型的参数构成:GAN主要包含生成器与鉴别器的参数,总参数数取决于神经网络的深度与宽度;VAE由编码器和解码器参数构成;扩散模型主要涉及生成器和噪声扰动参数;Transformer模型则主要依赖注意力机制和前馈神经网络层的参数。

在参数规模方面,早期生成模型通常包含数千至数百万参数。但随着计算能力提升及模型任务复杂度增加,当前多数AIGC模型参数规模已达数十亿量级。例如:OpenAI的GPT-3模型[59]拥有1750亿参数;Facebook AI Research的Llama3-70B-Instruct模型[60]含700亿参数; 阿里巴巴的Qwen2-72B模型[61]拥有727亿参数;中科文格的YAYI2-30B模型[62]则拥有300亿参数。总体而言,生成模型正朝着更大参数规模和增强的多模态支持方向演进。

4.2.3模型损失函数

模型训练涉及基于适当的损失函数对参数进行迭代调整,直至达到收敛状态。当模型参数在训练数据集上趋于稳定时即发生收敛,这意味着参数更新不再显著影响训练损失或其他评估指标。通常,收敛可通过以下任一特征体现:损失函数趋于稳定;训练误差与验证误差之间存在微小且稳定的差异;或参数更新的频率与幅度趋于稳定。

生成式模型的典型损失函数包括:

1)负对数似然损失(NLL损失)

负对数似然损失(NLL)常用于分类与生成模型训练,通过量化模型预测概率分布与实际样本分布的偏差,广泛应用于变分生成模型(VAE)和生成对抗网络(GAN)。

若概率模型为给定样本分配各类别概率:

其中p为类别标签,x为样本。对于具有实际标签y(i)的样本xi,NLL损失定义为:

对于包含n个样本的训练集X,整体自然对数损失定义为:

2)重建损失

重建损失是生成模型中评估模型重建输入数据能力的度量指标。它反映了模型将输入数据编码到潜在空间表示后,再解码回原始输入时产生的误差。

以自编码器为例,重建损失通常表示为:

其中 xi为输入数据,xi为模型重建的输出,n 为样本数量。此处 ||xi-xi|| 代表选定的距离度量,通常为欧几里得距离或曼哈顿距离。

3)KLD

库尔巴克-莱布勒散度(KLD),又称相对熵,用于衡量用一个概率分布表示另一个概率分布所需的额外信息量。在信息论中,KLD常被用于量化两个概率分布之间的差异,广泛应用于生成模型,尤其在变分生成模型(VAE)中。

假设两个概率分布P(x)和Q(x)(x代表随机变量)描述同一事件不同观测结果的概率分布。KLD定义为:

4)交叉熵

交叉熵用于估算平均编码长度,通常在生成模型中用于衡量两个概率分布之间的距离。数值上,较小的交叉熵值表明两个概率分布值越接近,差异越小;数值越大则差异越大。交叉熵在计算生成对抗网络(GAN)中的对抗损失时起着关键作用。

假设使用概率分布q(x)近似概率分布p(x),交叉熵定义为:

4.3大型语言模型的训练

大型语言模型(LLMs)代表了人工智能领域的革命性突破。通过学习海量文本数据,这些模型逐渐具备理解和生成类人语言的能力。其训练过程需精心设计,以逐步掌握语言的复杂性与细微差别。大型语言模型的训练分为多阶段,每个阶段都旨在提升理解能力和文本生成质量。以GPT为例,其训练过程包含四个关键阶段,详见表4-1总结。

表4-1 | 大型语言模型训练的四个阶段

阶段

无监督预训练

监督式微调

奖励建模

强化学习

数据集

原始互联网文本(约数万亿词)。

低质量、大体量。

约1万-10万个标注数据集,由承包商创建。

高质量,低

数量。

100K-1M人工撰写的对比数据。

高质量、低体量。

10K-100K人工撰写提示词。高质量,低产量。

算法

语言建模,预测下一个标记。

语言建模,预测下一个二元分类,预测奖励

二元分类,预测奖励对齐输出。

强化学习,优化最大化奖励。

模型

基础模型

SFT模型

RM模型

RL模型

备注

1000+ GPU,

数月训练周期(例如GPT、LLaMA基础模型)。

1-100 个 GPU,数天训练。

1-100 个 GPU,数天训练。

1-100 个 GPU,数天训练(例如ChatGPT、Claude)。

第一阶段:无监督预训练。GPT在无特定任务指令的情况下,从海量文本数据中学习生成连贯句子。该阶段完全依赖文本数据,不使用标注数据或反馈。

第二阶段:监督式微调。GPT针对特定任务进行微调,以提升其在特定任务中的表现(例如对话、分类、摘要生成)。该阶段需要标注数据集,其中每个输入都配有对应的目标输出——例如,对话与其对应回复,或文章与类别标签的关联程度更紧密。

第三阶段:奖励建模。GPT基于人类反馈(如评分、点赞或评论)学习奖励函数。该函数作为质量与生成的文本有效性。该模型利用带有人类反馈注释的数据集,例如对话数据,其中每句话都关联着评分或参与度指标(例如点赞数)。

第四阶段:强化学习。GPT利用前期习得的奖励函数生成多个候选输出,并选择奖励信号最大化的方案。强化学习无需额外标注数据,而是依托奖励函数及前期阶段培养的生成能力。

4.3.1预训练

在自然语言处理领域,大型语言模型的预训练已成为关键环节。GPT-3等模型需通过海量文本数据集训练,以习得丰富的语言特征与知识。本阶段目标在于帮助模型掌握词汇、语法结构、语义等通用语言属性。

关系——使模型能够在多个层面上发展对语言的全面理解,从单个词汇和短语到复杂的句子和对话。

预训练阶段占据绝大多数计算工作量,约消耗99%的训练计算时间。由于其庞大的计算需求,预训练可能需要数千块GPU,耗时数月才能完成。相比之下,微调阶段所需GPU数量大幅减少,训练周期也显著缩短,仅需数小时至数天。

预训练需要海量数据。训练数据集通常整合自多个来源,包括Common Crawl、C4以及GitHub、维基百科、图书、ArXiv和股票交易所数据等高质量数据集。这些来源按预设比例组合采样,共同构成LLM的训练语料库,如图4-9[63]所示。

图4-9 | 预训练数据来源

在训练使用这些数据前,原始语料库通常会通过去重、句子级与文档级审查、基于关键词的筛选等质量过滤流程,确保数据的高质量与相关性。

随后文本通过预处理转化为词元。该过程将互联网抓取的原始文本转换为整数序列,作为大型语言模型的原生表示形式。文本片段、词元与整数之间的转换可实现无损处理,现有数千种算法可供选择。常用方法之一是字节对编码(BPE),通过迭代将小文本段合并为分组词元。

预训练阶段需精准调控各类超参数以保障模型训练效能与性能表现。研究表明,通过扩大模型规模(尤其是增加参数数量)能显著提升其能力。为此,研究者正致力于构建拥有数百亿乃至数万亿参数的大规模预训练模型,以实现顶尖性能表现。

然而,在自然语言处理领域,不同模型和框架采用的不同文件格式和结构来存储分词器数据与配置。这些差异既受模型设计者所选工具库的影响,也取决于可用性和灵活性等考量因素。

例如,OpenAI为GPT-2采用BPE分词技术,并使用两个文件存储核心分词器信息:

gpt2-vocab.json:包含模型词汇表的文件,列出所有令牌及其对应索引。

gpt2-merges.txt:包含BPE合并规则的文件,指导字符如何组合成子词或完整词素。该方法OpenAI为GPT-2专门设计的Tokenizer旨在优化分词器实现。

相反,其他预训练模型(如Llama 2)可能采用Hugging Face transformers库,该库提供统一的分词器接口以支持多种预训练模型。transformers库中的分词器通常依赖以下文件:

tokenizer.json:包含词汇表、合并规则及其他必要分词细节的综合配置文件,支持独立使用。

tokenizer_config.json:配置文件,用于指定特殊标记包含、最大模型长度及标记器类名等设置。

这些文件通过统一接口管理多模型,显著提升了灵活性与便利性。此方案免去了为每个模型单独设计维护标记器配置的繁琐工作。

gpt2-vocab.json与gpt2-merges.txt与tokenizer.json及tokenizer_config.json的差异,反映了分词器实现与模型部署中的不同选择。这些差异取决于模型设计、库与工具选型,以及发布者对可用性与兼容性的考量。

总而言之,大型语言模型的预训练是影响模型性能的关键环节,需要投入大量时间和资源投入,同时需要精心设计的训练策略和预处理流程才能确保最佳效果。此类预训练模型在自然语言处理任务中展现出卓越能力,已成为当代NLP研究与实际应用中不可或缺的工具。

4.3.2微调

在大型语言模型开发的下一阶段——微调过程中,通过精选标注数据集对预训练模型进行适应性调整。这一复杂而关键的流程需综合运用多种方法与技术(如情感分类等特定任务需求),实现模型的精准适配。有效的微调能显著提升模型的适应性与性能,最大化其实际应用价值。

当前存在多种微调方法,其中最核心的是指令微调、对齐微调和高效微调:

对齐调优旨在调整模型以更好地适应特定任务或数据集。这可能包括修改模型权重,确保其输出符合任务目标。

高效微调旨在以最低计算成本提升模型性能。例如适配器微调是一种高效方法,通过在层间引入小型可训练模块(适配器)实现该目标。

指令微调是GPT采用的主要微调方法。它通过将任务指令直接融入训练数据,增强模型遵循自然语言指令的能力,使模型能根据提示执行任务。与依赖特定任务数据集的传统微调方法不同,指令微调基于简洁的自然语言指令训练模型执行广泛任务,从而提升泛化能力——甚至能处理先前训练中未明确遇到的任务——使模型更适应用户定义的任务,从而提升实用性和效率。在GPT中,指令微调涉及生成提示-完成对(以JSONL格式存储),并基于这些结构化数据集训练模型。

4.3.3基于人类反馈的强化学习

微调完成后,模型进入基于人类反馈的强化学习(RLHF)阶段,包含两大关键环节:奖励建模(RM)与强化学习(RL)。在RM阶段,数据采集采用比较式方法,通过人类反馈对不同模型输出进行排序。

RM与RL阶段协同运作:RM依赖RL生成多样化行为集供比较,RL则利用RM反馈指导优化过程。以机器人学习后空翻为例:它将反复尝试动作,并根据奖励函数(对每次尝试进行评分的数学公式)调整技巧。更高分数意味着更贴近预期表现,使机器人得以持续改进。

但在某些情况下,通过公式定义目标存在挑战。例如生成"引人入胜"的故事本质上具有主观性且难以量化。设计不当的奖励函数可能导致非预期甚至有害的行为。

为应对这一挑战,研究者采用了基于人类反馈的奖励建模方法。该方法允许人类直接标注偏好的行为模式,并利用这些输入训练奖励模型。奖励模型通过学习人类偏好来评估输出结果。例如,若目标是生成引人入胜的故事,在故事评估中,模型会接收两个故事片段,并要求人类评估者选择更具吸引力的那个。该选择将用于训练奖励模型。随着时间推移,奖励模型将学习人类评判故事吸引力的标准,并据此对故事片段进行评分。

图4-10 | 奖励模型

借助训练好的奖励模型,强化学习可进一步训练语言模型。语言模型根据奖励分数调整行为,生成更符合人类偏好的输出内容。

图4-10展示了奖励模型的实例:模型针对同一提示生成三个完成版本。 人类评估者随后为每个完成版本打分,水平箭头分别指向"1.2"、"0.2"和"-0.5"的评分。正值表示奖励,负值表示惩罚。该图展示了旨在最大化累积奖励的学习模型。通过反复实验与调整,模型学会生成最契合给定提示的任务完成方案。

奖励模型在强化学习阶段发挥关键作用。它通过评分机制评估任意提示的输出质量,这些评分随后用于训练和优化模型。强化学习过程借助奖励模型对大量提示进行评分,并依据评估结果引导模型调整。下例展示了强化学习如何运用奖励模型:其训练数据集通常采用以下格式:

上述数据集包含强化学习所需的三个关键组件:状态、动作和奖励:

状态:描述环境,由“states”字段表示。本例中状态包含问题及潜在答案。

动作:表示智能体(本例中为聊天机器人)在特定状态下可能的响应,由"actions"字段表示。动作对应生成的答案。

奖励:为特定状态下每项操作提供反馈,由“rewards”字段表示。在本数据集示例中,奖励值反映每个答案的质量。

这些组件的数据用于训练强化学习模型,使其行为基于奖励分数进行优化。例如,若某响应获得高分,模型将被鼓励在未来产生类似输出;反之,若响应评分较低,模型将受到惩罚,降低未来生成相似答案的概率。

4.4常见微调技术

随着大型预训练模型的广泛应用,企业正越来越多地利用微调技术满足特定业务需求。鉴于大型预训练模型所需的高计算成本和技术专业性,多数企业选择优化现有模型而非从零开发新模型。在企业应用中最常见的微调技术包括监督式微调(SFT)和直接偏好优化(DPO)。 下文将深入剖析这些方法的特性与差异。

4.4.1监督式微调(SFT)

SFT是一种利用标注数据集对预训练模型进行进一步训练的方法。通过提供大量输入输出对,模型能够学习并适应特定任务,从而提升其在这些领域的表现。

SFT的核心优势:

高质量输出:相较于单纯依赖提示工程,SFT能显著提升模型在专项任务中的表现。

突破上下文限制:模型能学习单次请求约束之外的更广泛示例。

降低令牌消耗与延迟:微调后的模型可使用更短提示,减少令牌消耗,同时降低运维成本与响应延迟。

SFT实施步骤:

准备训练与验证数据:收集并整理符合模型要求的大量高质量标注数据(如JSONL格式、UTF-8编码及文件大小限制)。

选择基础模型:选取适配的预训练模型作为微调基础。

执行微调:使用提供的数据集训练模型。

部署与使用微调模型:训练完成后,将模型集成至生产环境并投入使用。

SFT实施要点:

数据质量与数量:海量高质量数据集(通常需数百至数千个样本)是成功微调的关键。

过拟合风险:需谨慎防止模型过度拟合训练数据,确保其对未知输入具有良好泛化能力。当模型过度适应训练样本时(包括学习噪声或无关细节等无法泛化至训练集之外的模式),即会发生过拟合。 其结果是:模型在训练数据上表现优异,但在新输入数据上的性能可能显著下降。正则化、独立数据集验证及引入多样化训练样本等技术可有效缓解过拟合问题。

示例:

4.4.2直接偏好优化(DPO)DPO是一种新兴的对齐技术,旨在根据人类偏好直接调整模型权重。与传统RLHF不同,DPO通过利用简单的二元偏好数据优化模型行为,无需单独构建奖励模型。

DPO核心特性:

简化训练流程:无需复杂奖励模型,直接利用人类偏好数据。

更高稳定性:采用更直接的优化策略,避免多模型训练中的不稳定性。

更高效率:计算量低于RLHF,显著缩短训练周期。

偏好学习能力:特别适用于正确性具有主观性的任务,如语调调整、风格偏好或内容偏好优化。

数据保护官实施步骤:

准备偏好数据集:收集包含用户输入数据,同时记录用户偏好的(理想)模型响应与非偏好的(次理想)模型响应,确保数据格式符合DPO要求。

选择基础模型:采用预训练或先前微调(如SFT)的模型作为基础。

执行微调:利用偏好数据集优化模型。

部署并使用微调模型:训练完成后,将模型集成至生产环境并投入使用。

DPO数据格式:

三个关键字段:input、preferred_output、non_preferred_output。

每个输出必须包含助手角色至少一条响应。

示例:

4.4.3SFT与DPO的差异及选择

微调技术在提升预训练模型性能和可用性方面发挥着关键作用。企业在选择SFT与DPO等技术时,应综合评估任务性质、数据资源可用性、技术能力、实施成本及整体业务需求。通过战略性地选择并实施合适的技术,企业能够更好地将预训练模型适配于业务需求,从而提升人工智能驱动应用的价值与效能。

训练方法:

SFT:基于监督学习,通过最小化模型输出与对应真实标签之间的损失进行训练。

DPO:利用人类偏好数据构建专用损失函数,优化模型以生成更符合人类偏好的输出结果。

数据要求:

SFT:需大量高质量标注数据,要求输入输出对精准匹配。

DPO:利用偏好数据,包括用户输入、首选输出和非首选输出。

应用场景:

SFT:适用于具有明确客观答案和清晰评估指标的任务。

DPO:适用于具有主观评估标准的任务,需考虑用户偏好,例如对话生成、内容创作或个性化推荐。

训练复杂度:

SFT:基于直观的监督学习方法,实现难度较低。但数据集准备过程可能耗时较长。

DPO:规避强化学习的复杂性,实现更高效训练。但需采用更结构化的数据格式。

SFT与DPO差异总结:

当任务存在明确正确答案且组织拥有大量高质量标注数据集时,SFT是首选方案。

当任务需生成符合特定风格、语调或用户偏好的输出时,尤其在评估标准具有主观性时,DPO更为适用。

当目标是提升模型一致性而不增加训练复杂度时,DPO提供高效稳定的解决方案。其通过直接优化人类偏好实现目标,无需复杂的强化学习算法。

4.5AIGC模型应用与系统架构分类架构

4.5.1模型应用分类AIGC模型可依据输入输出数据类型进行分类。当前存在九大主要类别[64],如图4-11所示。

图4-11 | 九大类AIGC模型

以下概述六种广泛采用的AIGC模型类型:

1)文本转图像模型

文本到图像模型能根据文本提示生成逼真的图像。其核心流程包括文本理解、特征提取和图像生成。这类模型广泛应用于创意设计与艺术创作、虚拟现实与游戏开发,以及电子商务和广告领域。然而仍存在重要挑战,包括提升逼真度、增强图像细节,以及确保文本与图像之间的语义一致性。

2)文本到3D模型

文本到3D模型基于文字描述创建三维图像或场景。该技术广泛应用于游戏开发与工业设计领域,涉及文本理解、特征提取、3D图像生成及渲染优化等环节。除文本到图像模型的既有挑战外,文本到3D模型还需解决复杂三维模型细节处理与结构精度的难题。

3)图像转文本模型

图像到文本模型从图像中提取信息并生成对应的文本描述。其目标是将视觉内容转化为自然语言,实现图像的自动理解与描述。工作流程包含图像特征提取、文本转换及文本优化三个环节。这类模型广泛应用于自动图像标注、视觉内容理解及视觉问答系统。内容转化为自然语言,实现图像自动理解与描述。其工作流程包含图像特征提取、文本转换及文本优化环节。这类模型广泛应用于自动图像标注、视觉内容理解及视觉问答系统,核心挑战在于确保文本准确性、语义一致性及生成恰当的文本风格。

4)文本转视频模型

文本转视频模型通过文本描述生成视频内容。核心流程包含文本理解、特征提取、视频帧生成及视频合成。该类模型广泛应用于影视动画制作、虚拟现实应用及营销活动。主要挑战在于保持生成内容的准确性,并确保视频合成的流畅连贯性。

5)文本转音频模型

文本转语音模型通过整合自然语言处理与语音合成技术,将文本转化为对应的语音或音频内容。其核心组件包括文本预处理、语音合成与音频合成。这类模型广泛应用于智能交互、媒体及广播领域,面临的主要挑战在于确保语义准确性,并适应多语言及方言差异。

6)文本到文本模型

文本到文本模型作为AIGC模型中最广泛应用的类型,其输入输出均以文本形式处理。核心工作流涵盖输入理解、任务定义与输出生成,可灵活应用于文本扩展、机器翻译、文本摘要、对话生成等领域。主要挑战在于提升文本生成质量,并满足多语言与跨文化文本生成的复杂需求。

4.5.2应用系统架构

AIGC应用系统的架构已演进为结构化的四层框架,包含数据层、基础层、中间层和应用层。

数据层是训练和提升AIGC模型性能的基础支柱。随着AIGC技术的快速发展,对数据质量、规模和多样性的需求日益增长。 高效的数据集筛选与管理对优化模型训练和性能至关重要。随着AIGC模型在特定领域的专业化程度不断提升,针对特定领域定制化数据集的需求也在增长。例如在医疗领域,AIGC模型可利用医学影像数据生成诊断报告或增强医学图像重建。

基础层作为AIGC应用的核心基础设施,基于预训练的大型模型构建。鉴于训练这类模型所需的巨额计算资源和专业技术,该层通常由少数具备开发部署能力的主流机构和企业主导,它们能够应对这类高成本、高复杂度的AI模型开发。

中间层涵盖特定领域和场景适配的专用模型及应用工具。该层通过对基础模型进行定制化改造,实现跨行业、垂直领域及功能应用的部署。这种定制化改造能实现精准优化、深度集成以及更高效且具有商业可行性的落地方案。

应用层直接提供文本、音频、图像及视频等内容生成服务,满足用户需求并推动产业应用。其应用形式涵盖网页平台、软件解决方案及小程序等多种形态。随着AIGC驱动产业转型与数字经济增长,其应用正快速扩展至设计、金融、医疗及消费电子等多个领域。涵盖设计、金融、医疗及消费电子等行业。

大型语言模型在自然语言处理领域取得重大突破,现正积极部署于各类商业场景。表4-2概述了部分现有的企业应用场景。

场景与用例

描述

商业价值

B2B与B2B2C知识与流程助手

支持用户访问企业知识库,实现自助式数据检索与知识发现。

提升客户服务质量,提高生产力,加速业务敏捷性和效率。

员工智能助手(智能机器人)

通过减少员工在公司数据库中查找关键信息所需的时间来提高生产力,优化内部技术支持和工单处理流程。

技术支持与工单处理流程。

提高生产力,增强业务敏捷性和运营效率。

企业知识库(智能助手)

运用人工智能驱动的搜索与生成模型,协助在研发、人力资源、财务及制造等领域的企业文档中进行知识发现。

财务及制造等领域。

提升生产力、强化决策能力、增强敏捷性并提高

效率。

法律、人力资源与IT流程简化

整合不同市场细分领域的请求与服务工单,通过集成企业知识库的GPT模型提供案例分析、问答支持、合同审查及自助解决方案。

企业知识库的GPT模型提供案例分析、问答、合同审查及自助解决方案。

提升效率与决策质量。

产品与软件开发

将头脑风暴的创意转化为需求,完善规格说明,并借助生成式人工智能

并借助GitHub Copilot。

提升生产力,缩短上市周期。

智能工厂与供应链优化

通过知识提取、员工入职培训及技能提升实现流程与运营标准化;支持供应链韧性建设、风险管理及

供应商协同。

提升生产力;增强敏捷性、效率、决策能力和准确性。

训练数据与仿真数据生成

运用GPT模型创建定制AI模型的训练与测试数据集;生成特定场景的模拟数据集。

提升生产力,加速创新,发掘更深层洞见,推进

技术战略。

市场洞察与研究

整合内外数据源精准响应商业咨询与研究需求。

加速创新进程,发掘更深层洞察,推动战略举措落地。

法律审查

快速解析现行及即将出台的法规,提供明智的法律建议。

提高生产力,增强敏捷性、效率、决策能力及准确性。

财务分析

运用内部与外部财务数据优化商业智能及预测分析。

提高生产力,增强敏捷性、效率、决策能力及准确性。

人力资源与培训助手

简化复杂政策与流程,生成培训材料,并帮助员工轻松查找培训项目。

提升员工满意度。

行业与竞争情报

从公开数据中提取洞察,评估市场趋势与竞争对手策略。

提高生产力,加速创新,发掘更深层的洞察,推进技术策略。

客户支持(客服辅助)

通过实时访问企业知识库优化客户与客服代表的互动;自动化处理客户交互日志、产品信息检索及订单追踪以减轻工作量并提高效率。

提升客户服务质量,增强生产力。

智能联络中心与呼叫中心分析

从通话记录中提取宝贵洞察,实现端到端呼叫中心分析(分类、情感分析、摘要生成及自动邮件回复)。自动生成客户咨询回复与客服对话记录摘要。缩短响应时间,提升客户满意度。

提高生产力、增加收入、改善客户服务。

客户服务知识挖掘

同时处理结构化与非结构化数据,识别客户互动中的关键洞察与模式

交互中识别关键洞察与模式。

提高生产力,改善决策。

虚拟客服与客户自助服务协同助手(支持

多渠道及多语言场景)

为跨多个价值链和知识库的客户及员工提供智能自动化响应。通过生成类人化回复支持实时聊天和语音应用,协助客户解答咨询或解决问题,从而提升整体客户体验。

提供全天候自动化客户支持,通过个性化AI驱动的聊天机器人处理海量简单常见咨询;连接可信网站与内部文档,无需人工干预即可提供精准答复。

提升生产力、增加收入、提高客户服务质量。

增强型产品搜索与智能检索

运用Azure AI提升电商搜索速度与精准度;通过GPT模型从文档、评价及搜索/聊天记录中提取产品特性、库存状态与替代方案,助力用户快速定位特定商品。

优化用户体验,提升营收,提高生产力。

营销与广告

部署人工智能驱动的聊天机器人,用于社交媒体互动和对话式广告。

定期生成跨渠道创意内容。运用动态受众细分与定向技术高效分析识别优质潜在客户,支持定制化营销策略下的个性化高效客户激活活动。

通过总结营销视频并从个性化360度客户数据中提取洞察,实现营销邮件自动生成。

通过协助撰写产品描述、外联邮件、交易提案、营销文案及基础网页内容,节省定制营销材料的创作时间。

提升转化率,增强客户参与度。

产品描述生成

整合Azure OpenAI与产品数据库,基于客户购买历史和兴趣生成个性化推荐。通过分析客户偏好、产品属性及情境信息,提供精准相关的个性化推荐。

优化用户体验,提升营收,提高生产力。

个性化产品推荐

为跨价值链和知识库的客户及员工提供智能自动化响应。通过为实时聊天和语音应用生成类人化回复,协助客户解答咨询或解决问题,从而全面提升客户体验。

提升服务质量和用户体验,增加收入,提高生产力。

实时产品排名优化

运用Azure OpenAI根据客户转化概率动态调整产品搜索排名,确保展示相关且吸引人的产品展示效果。

提升用户体验,增加收入,提高生产力。

销售助手与客户智能聊天机器人

部署人工智能驱动的聊天机器人,协助产品发现、结账及售后支持。

优化客户体验,提升收入,提高生产力,降低成本。

产品评论摘要

运用Azure OpenAI整合多格式客户产品评价,执行情感分析并生成全面的评论摘要,辅助购买决策。同时为零售商提供特定产品或服务的客户体验洞察。优化产品开发与客户满意度,减少人工处理

产品反馈审核的人工投入。

优化客户体验,提升营收,增强生产力与创新能力。

用户情感分析

AI将多渠道客户反馈聚合为统一视图,最大化洞察客户满意度、销售表现及营销策略,同时减少

人工分析工作量。

提升客户体验、增加收入、提高生产力。

4.6AIGC模型与系统评估方法

4.6.1模型评估指标

随着AIGC技术的快速演进,甄选最适配模型已成为研发领域的核心要务。因此建立可靠的评估指标体系势在必行。当前国际公认的五大基准测试广泛应用于评估体系:

1)MMLU

大规模多任务语言理解(MMLU)[65]是评估模型语言理解能力的基准测试。 该基准由加州大学伯克利分校研究人员于2020年9月开发,是大型模型最权威的评估体系之一。MMLU以英语为测试语言,涵盖法律、美国历史、计算机科学及基础数学等57项多元任务,全面衡量模型的知识广度与理解能力。

2)C-Eval

C-Eval[66]是一套专为中文语言模型设计的综合评估体系。该体系由上海交通大学、清华大学和匹兹堡大学的研究人员于2023年5月发布,包含13,948道多项选择题,覆盖52个学科领域及四个难度等级(初中、高中、大学和专业级)。 该套件主要用于评估大规模模型的中文理解能力。

3)AGI Eval

AGIEval[67]由微软于2023年4月推出,旨在评估大型模型解决通用问题的能力及人类级任务表现。该基准同时包含中文与英文数据集,涵盖全球20种官方、公共及高风险的标准化考试与资格认证测试,例如数学竞赛、大学入学考试及法学院入学考试。与传统AI基准测试不同,AGI Eval更侧重于人类认知能力与决策任务的评估。

4)GSM8K

GSM8K [68]由OpenAI于2021年10月开发,是评估模型数学推理能力的基准测试。该数据集包含8500道高质量初中数学题,规模更大、类型更丰富、难度更高于以往数学题集。因其复杂性,GSM8K至今仍是大型语言模型面临的极高难度挑战。

5)响应时间

响应时间衡量用户发起请求至完整接收响应的总耗时,包含信息处理时间、网络传输时间及服务执行时间,通常以毫秒(ms)为单位。 部分平台称之为"最后字节到达时间"(TTLB)——即从请求发起到客户端接收最后一个字节的时长。平均响应时间指处理规定数量用户请求所需的平均时长。

从心理学角度而言,反应时间(RT)[69]指人类感知刺激并作出动作反应所需的时间,视觉刺激的典型反应时间通常在200至300毫秒之间[70]。 在人类对话交互中,平均响应时间约为250毫秒。AIGC通过精准模拟人类沟通动态(尤其在自然语言交互中)提供最佳交互体验。缩短模型响应时间有助于显著提升用户体验。

4.6.2模型参数规模、计算能力与性能相关性

AIGC模型的参数规模是决定其整体性能的关键因素。

通常而言,AIGC模型的性能与其复杂度和参数规模呈正相关。更大规模的模型能够捕捉更复杂的模式和细微差异,从而生成更高质量、更连贯且更逼真的输出内容。然而参数规模的扩大将导致计算成本攀升与训练周期延长。大型模型需要更长时间收敛优化,其推理延迟也可能显著增加。

选择合适的参数规模是平衡泛化能力与表达力的关键。规模过小的模型可能难以捕捉复杂数据模式;过大的模型则可能陷入过拟合并消耗过多计算资源。参数规模的选择应基于具体应用需求和性能预期。表4-3从参数规模和基准性能角度对比了主流AIGC模型。

大型语言模型研究[71]表明模型性能遵循"规模法则":当训练数据量、参数规模或训练时长独立增加时,性能均会提升。然而近期趋势显示,从纯粹的预训练模型向"预训练+微调"范式转变,其中基于高质量、大规模且多样化数据集的微调在提升模型准确性、效率、可解释性和响应速度方面发挥着日益关键的作用。人工智能先驱吴恩达强调,人工智能发展正从以模型为中心转向以数据为中心,高质量训练数据集已成为决定模型准确性和性能的关键因素。

计算能力在AIGC领域至关重要,它能加速训练与推理速度,缩短开发周期并提升应用效率。高性能GPU和TPU等更强大的硬件资源可实现更高程度的并行化,从而缩短推理时间并优化生成速度。 更快的计算能力能加速模型内部的前向传播与反向传播,从而最大限度降低响应延迟。因此,选择合适的硬件资源并优化算法以充分释放计算潜力,是成功部署AIGC模型的关键所在。

响应时间的常用基准是2/5/10秒原则:2秒内响应被视为用户体验最优,5秒内响应被视为尚可接受,而延迟超过10秒延迟通常被感知为差性能,超过10秒的响应时间常导致用户误判请求失败。使用频率等因素同样影响可接受的响应阈值。

在特定硬件约束下,选择优化算法有助于最大化利用现有硬件资源,从而缩短响应时间。高效生成模型设计需平衡参数规模与计算可用性,以此提升硬件性能以优化响应时间。

更大的生成模型通常需要更高的计算资源,从而增加响应时间。然而,强大的硬件和优化的推理技术可以缓解延迟。因此,在实际应用中,必须采用整体策略来优化模型架构、参数规模和计算能力之间的相互作用,确保响应时间与整体性能之间的最佳平衡。

表4-3 | AIGC模型性能对比

模型

参数规模

MMLU

C-Eval

AGI 评估

GSM8K

GPT-3

170亿

86.4

68.7

87.1

Qwen2-72B

727亿

84.2

91.0

89.5

Llama3-70B-Instruct

700亿

82.0

93.0

YAYI2-30B

300亿

80.5

80.9

62.0

71.2

亿-1.5-340亿

340亿

77.1

71.1

82.7

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON