
· 国家科技期刊开放平台收录期刊
作者 | 王伟珍, 张 功
( 大连工业大学,a.服装学院; b.服装人因与智能设计研究中心,辽宁大连 116034 )
摘要 为解决复杂背景下服装图像的风格迁移形式单一和局部细节失真问题,提出一种基于CycleGAN的服装图像混搭风格迁移的方法,用于实现服装款式和图案的多风格迁移。通过加入分割掩码,一方面,对特定区域的风格化形成空间约束,在判别器中加入谱归一化和引入背景优化损失保留了局部细节的真实度,实现服装风格款式的风格迁移;另一方面,提出图像融合的方式,将图案融入判别器输出的服装图像中,实现多风格迁移。最后,通过与CycleGAN和InstaGAN比较,依据生成图像的效果进行主观分析,使用图像质量评估指标IS和SSIM进行客观评估以验证该方法的有效性。
关键词 混搭风格迁移;生成对抗网络;服装款式;服装图案;智能设计;服装设计
应用计算机程序辅助服装设计师进行创作,已成为服装设计过程中不可或缺的技术手段。随着消费者对个性化需求的提高,服装设计师需要更短的时间设计出更加新颖的作品。此外由于深度学习[1]的兴起,人工智能与服装设计的融合变得尤为迫切。尽管人工智能相关技术在时尚领域研究的应用逐步深入,如服装分类、服装检测、服装推荐以及虚拟试穿等[2],但是针对当前服装辅助智能设计的研究,服装图像的风格迁移仍然困囿于诸多技术问题。例如,服装图像只能完成单一形式(图案或者款式)的风格迁移,导致生成服装图像的多样性不足,设计师仍需要耗时耗力地对比不同款式和图案的搭配效果;生成的服装图像存在着边界伪影问题,降低了服装图像的质量[3-5]。因此,如何利用现有技术在短时间内对服装图像添加多种风格,生成风格多样、效果真实的服装图像,给予设计师更多设计灵感,正是其中技术痛点之一。
目前,风格迁移已成为解决上述技术痛点的着力点之一。服装风格迁移是将一张图像A的风格和另一张服装图像B的内容结合,生成同时具有图像A风格和图像B内容的服装图像C。一种比较前沿的SC-FashionG模型于2021年被提出,该模型将多种样式混合于给定的服装图像中,并把这种组合称为混搭风格(Mix and match style)[6]。在以往的研究中,人们提出许多方法[7-9]实现风格迁移并将其应用于服装图像的生成,主要集中于基于图像迭代的神经风格迁移算法和基于模型迭代的生成对抗网络(Generative adversarial networks,GAN)模型。
为解决不同风格对图像语义内容渲染困难的问题,Gatys等[10]提出了一种基于VGG(Visual geometry group)的卷积神经网络结构,创新地将一种内容图像和风格图像结合在一起。此后,有学者使用该方法并结合图像分割实现服装局部风格迁移[11],但是服装边界容易产生伪影,使生成的图像显得不自然。Li等[12]提出一种基于WCT(Whitening and coloring transform)的方法。通过白化原有风格并彩化新风格,有效的提高了图像生成的质量和艺术效果,并尝试了多风格迁移,但是应用于服装中只能改变图案纹理风格,无法改变款式。
为了使生成数据分布尽可能的逼近真实数据分布,Goodfellow等[13]提出GAN模型。由于在生成图像和应用在服装设计过程中展现出良好的效率和质量,很多研究者将注意力转移至GAN模型来实现服装风格迁移。Isola等[14]通过向GAN引入约束条件,提出pix2pix来进行图像转换,该方法虽然生成图像的效果自然,但是需要成对的数据集训练。为了解决对数据集依赖的问题,Zhu等[15]提出CycleGAN在无配对数据集情况下实现了两域之间互相转换,但是生成的图像缺乏多样性,很难改变服装的形状,并且会改变内容域中的背景。为克服无监督学习中形状转换难以完成的风格迁移问题,Mo等[16]结合实例信息,引入了上下文保留损失,提出InstaGAN实现了服装款式的转换,但是在生成图像中局部细节会出现失真,如腿部皮肤显得不自然。Jiang等[6]提出将多种风格混搭在一个服装图像中,通过分割掩码改变服装中图案的结构,生成的服装图像颇为新颖,但是该方法也仅改变服装中图案并且没有人物背景作为参考。
上述方法主要局限包括:单一风格迁移的研究(仅对图案或者服装款式进行风格迁移),极大地限制了生成服装图像的多样性;在带有背景的服装图像中,容易产生图像局部细节失真的问题。为了克服上述两大缺陷,降低自动生成多风格服装图像的难度,本文基于CycleGAN的结构提出一种服装图像的混搭风格迁移方法。与以往生成单一风格形式的模型相比,有三点不同:首先本文提出混搭风格迁移,即关注于服装款式和服装图案的多风格迁移;其次,改进了CycleGAN网络结构用于多风格图像的生成;最后,加入了背景优化损失,结合引入的服装图像二值图,提升生成图像的质量。另外,通过使用图像评估指标IS(Iception Score)[17]和SSIM(Structural similarity)[18]对CycleGAN和InstaGAN进行比较,并结合生成的图像效果进行主客观分析,以验证本文方法的有效性。

GAN和CycleGAN都是通过生成器和判别器互相博弈来生成图像,即通过建立生成器G和判别器D互相博弈来使双方进化。其两者关系如式(1):

(1)
式中:z为生成器产生的噪声数据,服从Pdata(z)的先验分布;x代表真实数据,x服从真实样本分布Pdata(x)。当D(x)越大,判别器越能够准确识别出真实样本;当D(G(z))越小,则1-D(G(z))越大,判别器也能增强判别能力,若固定判别器,增强生成器生成能力,判别器会将假数据判别为真,即D(G(z))增大,所以有minGmaxDLGAN(G,D)。

(2)
式中:F(G(x))为生成的重构图像,与x相似,下标1为L1范数。F(G(x))重构了源域的图像减少与源域图像的差距,来弥补了使用GAN风格迁移过程中内容发生变化的缺陷。加入L1范数防止过拟合出现。
式中:ω为权值,用于调节该损失的重要性。
本文方法

为实现服装图像的混搭风格迁移,利用CycleGAN不需要成对训练数据集和风格迁移效果好的优势,本研究通过结合分割掩码改进CycleGAN网络结构和损失函数,完成服装图像中下装的几何变换。同时,为了将图案更好地融入服装局部,提出图案融合的方法,增强图像真实感而非艺术效果,对服装图像分割后获得的分割掩码与图案按照一定权值融合。
2.1 网络结构
本文的模型框架如图1所示,He等[20]提出的Resnet和林泓等[21]使用的PatchGAN分别作为生成器和判别器。其中,生成器和判别器各有两个,分别用GA2B、GB2A、DA和DB表示。GA2B是将内容域A(长裤)中的风格生成具有风格域A中的风格(裙子)的服装图像,并使用DB判断GA2B生成图像的真假,若为真,则输出具有风格域A风格以及具有内容域A内容的图像(生成图像B)。同理,GB2A是将风格域A(裙子)中的风格转换为内容域A(长裤)中的风格,并使用DA判断GB2A生成图像的真假,若为真,则输出具有内容域A的风格以及具有风格域A内容的服装图像(生成图像A)。同时,输入图像与重构图像通过训练会尽可能相似,体现CycleGAN中循环一致性。

图1 本文模型总体框架
Fig.1 Overview of our model
本文的Resnet生成器由下采样块、残差块和上采样块组成,如图2所示。在下采样块中,使用实例归一化(IN)在一个通道内作归一化,计算图像的 H*W 的均值,保持了图像实例的独立性,加快了模型的收敛。ReLU作为激活函数,降低计算的复杂度,加快计算速度。同时,为了达到更好的训练效果,Resnet残差块设置了9层,保留了卷积层、实例归一化和激活层。此后,通过上采样块中逆卷积层减少通道数来扩大图像尺寸,用于生成目标(如裙装)图像。为了得到更好地生成效果,模型的PatchGAN判别器由5层卷积层组成,如图3所示。与CycleGAN不同的是,为了规范判别器参数,让其满足利普茨连续(1-Lipschitz continuity),卷积层本文在首尾卷积层中采用了谱归一化(SpectralNorm)[22]。此外,使用前3层卷积层提取特征后,后2层卷积层再进行分类,获得了较好的生成效果。

图2 生成器的网络结构
Fig.2 Network structure of the generator

图3 判别器的网络结构
Fig.3 Network structure of the discriminator
2.2 损失函数的设计

(4)
式中:x代表内容域图像,a代表内容域掩码选中区域,y′代表内容域图像转换后的图像,b′代表内容域被转换后的掩码迭中区域,ω2和ω3分别作为调整内容保留和肤色显示的权重,N代表转换区域内的像素数,c为通道数。设实例为0,背景为1时,则
为可转换状态,实现了实例的转换和背景的保留。由于边缘区域的细节要比中心区域复杂,ω2的权重值由中心向边缘逐渐增加。此外,为了弥补转换过程中转换区域形状纹理会发生的差异性变化,如长裤转换为短裤后,腿部存在仍然保留着部分长裤纹理的问题。本研究将生成器G生成的图像(如短裤风格图像)和内容域x(如长裤风格图像)的差异值与风格域(如短裤风格图像)和生成器F(如生成的长裤风格图像)的差异值作差,通过训练不断缩小差距,使人物腿部细节更加真实。其中,ω3为超参数。
因此,本文所提方法的总损失为式(5):
结果与分析

3.1 数据集与实验细节
本文所使用的数据集包含两部分:服装协同数据集[23](Clothing co-parsing dataset,CCP)和自建数据集。CCP共有2098张高分辨率时尚街头图像,所有图像带有图像级注释,里面有各种款式、配饰、服装和姿势,共有59个标签。自建数据集共有3000张图像。其中,长裤图像1000张,短裤图像1000张以及短裙图像1000张。增加自建数据集是对CCP的补充,增加训练数据为了更有针对性地完成服装款式的转换,获得更好的风格迁移效果。
实验环境与模型训练:CUDA 11.3,cuDNN 8,Ubuntu 18.04系统,Pytorch 1.10深度学习框架,Python 3.8程序语言,NVIDIA GeForce RTX 3090显存24 GB的显卡。共训练了500轮,训练过程中损失的变化如图4所示。由于在训练200轮次后损失下降幅度减小甚至难以继续下降,因此,选择了200轮次的预训练模型进行测试。

图4 训练过程中损失函数的变化情况
Fig.4 Changes in the loss functionduring training
3.2 实验细节
本文主要针对服装图像进行款式和图案纹理的风格迁移。在实验中,一方面将风格域A中的服装样式(短裤或者裙子)迁移至内容域的下装,并将风格域B的图案纹理迁移至内容域的上装;另一方面通过选择有人物背景的作为内容域,在风格迁移后,通过人物背景作为参考,可以更加直观展示风格迁移效果,如不同图案款式对不同人群搭配的适应性。
如图5(a)所示,前两行展示的是将内容域中长裤的形状转换为与风格域A中短裤相似的样式。同理,后面两行图像是将长裤转换为裙子,并将风格域中的图案纹理分别融合在上装和下装中。不管是样式形状迁移还是图案纹理迁移,都获得了较好的生成效果。值得注意的是,转换所生成的裙子的色彩与风格域A无关,与输入的内容域有关,如内容域中服装色彩较深的往往转换为颜色较深的服装款式。风格域A所展示的图像仅仅只是一种样式(如裙子的样式)的代表,并非单个样式形状迁移。此外,在完成款式风格迁移后还可将对上装和下装同时进行图案的风格迁移,由图5(b)可见,将风格A、风格B和风格C的3种风格混搭在同一张服装图像中,生成了效果真实、新颖独特的服装图像。当然,这还需要根据不同图案来设置好式(6)中的参数。


图5 服装图像混搭风格迁移
Fig.5 Demonstration of mix and match style transfer of clothing images
3.3 多模型效果比较与评估
为了验证本文方法在款式风格迁移的有效性,将本文基于CycleGAN所提的方法与CycleGAN和InstaGAN进行主客观的比较与分析,包括在相同数据集上不同方法生成的图像效果、图像生成指标IS和图像质量评估指标SSIM。
由图6所示,从测试效果角度来讲,CycleGAN并没有改变服装的形状,而是对服装的色彩略有影响,InstaGAN明显改变了服装的形状,但是处理其他服装图像尤其是浅色服装时,生成的图像中服装并不清晰,并且生成的人物肢体显得不自然(如第一行中生成人物的腿部皮肤不够接近肤色,第三行人物与背景拟合较差)。相比较之下,本文的模型生成的服装效果更好,更加自然。

图6 服装款式风格迁移效果对比
Fig.6 Comparison of the clothing style transfer effects
b)客观评价指标分析
衡量风格迁移过程中不同模型生成的质量是困难的,缺乏客观统一标准的评估[24],尤其是设计美学方面,往往带有主观性。为了检验生成图像的质量和图像中的多样性,本文参考了图像生成的评价指标和其他计算机视觉方面的评价指标,选择了IS和SSIM分别对CycleGAN、InstaGAN和本文方法进行评估和对比。
IS是对生成图像的清晰度和多样性衡量,如式(7):
(7)
式中:对于p(y|x)log(p(y|x)),熵值越小表明数据分布越集中,则图像具有较好的清晰度;对于p(y)log(y),熵值越大,表明图像种类越多,则生成的图像具有很好的多样性。因此,IS分数为边缘分布p(y)和条件分布p(y|x)的KL散度的期望,即给定一个生成图像x,类别信息y的不确定性的减少程度。IS虽然一定程度能够衡量生成图像的清晰度和多样性,但是没有侧重点。
为了评估的客观性,本文引入一种衡量两幅图像相似度的SSIM指标[25],通过感知的模型,评价图像质量上更加贴近于人类视觉特性。如式(8):
(8)
式中:x代表风格图像,y代表生成图像。ux是x的平均值,是x的方差,uy是y的平均值,是y的方差,σxy是x和y的协方差,c1和c2是两个用于维持稳定的常数,避免出现除零的情况。因此,SSIM越接近1,表明风格图像与生成图像越相近[26]。
为了进行更为直观的对比分析,对IS和SSIM数据进行了归一化。如表1所示,本文模型的IS值和SSIM值都高于其他模型,表明了生成服装图像的真实感和多样性要优于其他模型。针对长裤向短裤的款式风格迁移,由IS值可知,CycleGAN虽然难以改变服装款式,但是在生成图像清晰度上要比InstaGAN要好,而代表多样性的SSIM值偏低;针对长裤向短裙的款式风格迁移,虽然SSIM值远大于CycleGAN和InstaGAN,但是IS值却与CycleGAN相近,表明本文模型在生成图像多样性方面占优,在转换为裙子款式风格迁移后生成的图像清晰度还需要提高。
表1 生成图像评估数据
Tab.1 Evaluation data of the generated images

结 论

本文提出一种混搭风格迁移的方法,解决了生成服装图像风格形式单一以及背景细节失真的问题,通过主观比较和客观评估分析,表明本文方法在多风格迁移任务中的有效性。其中,多风格主要包括了服装下装的款式风格和图案风格。一方面,针对服装款式的风格迁移,使用了图像分割掩码,引导和约束风格迁移对特定区域风格化,引入背景优化损失,用于保留背景和建立腿部肤色相似性,在判别器中加入谱归一化SN用于特性提取和分类任务中,优化背景细节纹理;另一方面,提出风格融合方式,按照权值使图案在服装中展示出来。最后,通过与CycleGAN和InstaGAN比较分析,本文采用的方法得到了较高的评价。
在此次辅助智能设计的实践中,虽然获得了有效的结果,但也存在着一些不足。如对输入的内容图像分辨率要求较高,将长裤转换为裙子的成功率相对偏低,后期将继续提升模型的泛化能力,并注重生成过程中服装图像的情感元素[27],以推进计算思维与设计思维的融合。
(点击阅读原文,获得电子期刊)
参考文献
略

PDF下载




