版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
生成对抗网络GAN
赵卫东
复旦大学计算机科学技术学院目录生成与判别生成模型:贝叶斯、HMM到深度生成模型GAN对抗生成神经网络DCGAN
ConditionalGANInfoGanWassersteinGAN生成对抗网络家谱A非监督学习及GAN非监督学习:训练集没有标注,学习的结果是数据的隐含规律,表现形式可以使数据按相似性分组、数据的分布、数据分量间的关联规则,最主要的是探讨非监督学习中的聚类问题。GAN是IanGoodfellow在2014年的经典之作,在许多地方作为非监督深度学习的代表作给予推广。
GAN解决了非监督学习中的著名问题:给定一批样本,训练一个系统,能够生成(generate)类似的新样本。
机器学习方法可以分为生成方法和判别方法,所学到的模型分别称为生成式模型和判别式模型。生成方法通过观测数据学习样本与标签的联合概率分布P(X,Y),训练好的模型能够生成符合样本分布的新数据,它可以用于有监督学习和无监督学习。判别方法由数据直接学习决策函数f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。生成方法和判别方法深度产生式模型的深度信念网络(DBN)。DBN是由一组受限玻尔兹曼机(RBMs)堆叠而成的深度生成式网络,它的核心部分是贪婪的、逐层学习的算法,这种算法可以最优化深度置信网络的权重。以无监督方式预训练的生成式模型(DBN)可以提供良好的初始点,然后通过有监督的反向传播算法微调权值早期深层生成模型
生成对抗网络,由两个网络组成,即生成器和判别器,生成器用来建立满足一定分布的随机噪声和目标分布的映射关系,判别器用来区别实际数据分布和生成器产生的数据分布。GAN生成模型GAN之前的非监督学习根据训练集估计样本分布p(x),之后对p(x)进行采样,可以生成“和训练集类似”的新样本。对于低维样本,可以使用简单的,只有少量参数的概率模型(例如高斯)拟合p(x),但高维样本(例如图像)就不好处理了。RBM(RestrictedBoltzmannMachine):构造一个无向图,图的能量和节点取值的概率有指数关系。利用训练集设定图中节点和边的系数,用来表述样本中单个元素和相连元素的关系。DBN(DeepBeliefNetworks):用单个RBM和若干有向层构成网络。计算复杂AutoEncoder(1)VAE不是将输入图像压缩成潜在空间中的固定编码AutoEncoder(2)AutoEncoder(3)–文本检索AutoEncoder(4)
–相似图形检索32x328192409620481024512256code以图搜图AutoEncoder(5)
–噪声去除利用无噪图像样本集上训练生成去噪模型,滤除新图像中的噪声。图像的反卷积deconvolution过程如下:输入图片每个像素进行一次full卷积,每个像素卷积后大小为1+4-1=4,即4x4大小的特征图4个将4个特征图进行步长为3的相加;输出的位置和输入的位置相同。步长为3是指每隔3个像素进行相加,重叠部分进行相加,即输出的第1行第4列是由红色特征阵图的第一行第四列与绿色特征图的第一行第一列相加得到,其他如此类推。输入:2x2,卷积核:4x4,滑动步长:3,输出:7x7反卷积的大小是由卷积核大小与滑动步长决定,in是输入大小,k是卷积核大小,s是滑动步长,out是输出大小得到out=(in-1)*s+k(2-1)*3+4=7Encoder-Decoder变分自编码器VAEVAE在2013年12月被提出,是一种利用深度学习自编码器,将深度学习和贝叶斯推断结合,以完成低维向量空间的编码和向高维向量空间的反解码。VAE在经典自编码器的基础上,改变了编解码方式,得到连续、结构化的潜在空间。VAE将图像转换为统计分布参数(平均值和方差)。然后使用这两个参数从分布中随机采样并将其解码到原始输入。VAE的目标函数VAE存在的问题GAN对抗网络:使用两个网络互相竞争,称之为对抗式(adversarial)结构随机向量随机取样生成器G:通过一个参数化概率生成模型(通常用深度神经网络进行参数化)进行概率分布的逆变换采样,得到一个生成的概率分布。判别器D:给定样本,判断(通常也是深度卷积神经网络)这个样本来自真实数据还是伪造数据。GAN基本原理生成器与鉴别器GAN训练过程TheevolutionofgenerationNNGeneratorv1Discri-minatorv1Realimages:NNGeneratorv2Discri-minatorv2NNGeneratorv3Discri-minatorv3GAN-DiscriminatorNNGeneratorv1Realimages:Discri-minatorv1image1/0(realorfake)SomethinglikeDecoderinVAERandomlysampleavector11110000GAN-GeneratorUpdatingtheparametersofgeneratorTheoutputbeclassifiedas“real”(ascloseto1aspossible)Generator+Discriminator=anetworkUsinggradientdescenttoupdatetheparametersinthegenerator,butfixthediscriminator通过优化目标,使得我们可以调节概率生成模型的参数,从而使得生成的概率分布和真实数据分布尽量接近。但是这里的分布参数不再与传统概率统计一样,这些参数保存在一个黑盒中:最后所学到的一个数据分布Pg(G),没有显示的表达式。生成式对抗网络--如何定义损失GAN损失函数这个Loss其实就是交叉熵。对于判别器D,它的任务是最小化-L(G,D),即如果采用零和博弈,生成器G的目标是最小化L(G,D),而实际操作发现零和博弈训练效果并不好,G的目标一般采用最小化
一般来说,更新D是,G是固定的;更新G时,D是固定的。或优化函数的目标函数D(x)表示判别器认为x是真实样本的概率,而1-D(G(z))则是判别器认为合成样本为假的概率。训练GAN的时候,判别器希望目标函数最大化,也就是使判别器判断真实样本为“真”,判断合成样本为“假”的概率最大化;与之相反,生成器希望该目标函数最小化,也就是降低判别器对数据来源判断正确的概率。在训练的过程中固定一方,更新另一方的网络权重,交替迭代,在这个过程中,双方都极力优化自己的网络,从而形成竞争对抗,直到双方达到一个动态的平衡(纳什均衡),此时生成模型G恢复了训练数据的分布(造出了和真实数据一模一样的样本),判别模型再也判别不出来结果,准确率为50%,约等于乱猜。生成式对抗网络--GAN的训练方法生成模型:要最小化判别模型D的判别准确率。判别模型:要尽量最大化自己的判别准确率黑色大点虚线P(X)是真实的数据分布
A.Pg和Pdata相似,D是部分精确的分类器绿线G(z)是通过生成模型产生的数据分布(输入是均匀分布变量z,输出是绿色的线)B.D被训练以区分样本和数据,并收敛到蓝色的小点虚线D(X)代表判别函数C.在更新g之后,d的梯度引导g(Z)流向更有可能被归类为数据的区域。较低的水平线是z采样的区域,在这种情况下,上面的水平线是X域的一部分。向上箭头显示映射x=g(Z)如何将非均匀分布的pg强加于转换后的样本上。g在高密度区域收缩,在pg低密度区域扩展。D.产生的绿色分布和真实数据分布已经完全重合。这时,判别函数对所有的数据(无论真实的还是生成的数据),输出都是一样的值,已经不能正确进行分类。G成功学习到了数据分布,这样就达到了GAN的训练和学习目的。Pg=Pdata,判别器无法区分这两个分布,此时D(X)=1/2生成式对抗网络--训练方法首先,如果固定G,那么D的最优解就是一个贝叶斯分类器。将这个最优解形式带入,可以得到关于G的优化函数。简单的计算可以证明,当产生的数据分布与真实数据分布完全一致时,这个优化函数达到全局最小值。Pg=Pdata生成模型G隐式地定义了一个概率分布Pg,我们希望Pg收敛到数据真实分布Pdata。论文证明了这个极小化极大博弈当且仅当Pg=Pdata时存在最优解,即达到纳什均衡,此时生成模型G恢复了训练数据的分布,判别模型D的准确率等于50%。GAN是存在全局最优解的全局最优解和收敛性生成式对抗网络--全局最优解和收敛性如果G和D的学习能力足够强,两个模型可以收敛。但是GAN模型的收敛性和均衡点存在性需要新的理论突破,模型结构和训练稳定性需要进一步提高。GAN的收敛是很困难的。第一,就是梯度消失的问题,当优化的时候,对于公式里生成器、判别器的损失函数会存在梯度消失的问题,那么我们需要设计一些更好的损失函数,使得梯度消失问题得到解决。第二个就是模式发现问题,也就是说我们的生成器可能生成同样的数据而不是多样的数据。GAN的收敛性GAN缺点(1)在原始GAN的(近似)最优判别器下,第一种生成器loss面临梯度消失问题,第二种生成器loss面临梯度不稳定、对多样性与准确性惩罚不平衡导致缺乏多样性的问题。原始GAN问题的根源可以归结为两点,一是等价优化的距离衡量(JS散度、KL散度)不合理,二是生成器随机初始化后的生成分布很难与真实分布有不可忽略的重叠。衡量两个分部的相似程度衡量两个分布的相似程度GAN缺点(2)当生成器和鉴别器的样本分布不重叠时,JS散度的梯度始终为0,从而导致此时GAN的训练出现梯度消失现象。GAN模型collapse由于判别由于判别器并没有对样本多样性进行显式约束,导致生成模型可能倾向于生成真实分布的部分区间中的少量高质量样本,以此来在判别器的输出中获得较高的概率值。鉴别单个样本是否采样自真实分布,并没有对样本多样性进行显式约束,导致生成模型可能倾向于生成真实分布的部分区间中的少量高质量样本,以此来在判别器的输出中获得较高的概率值。应用:DCGAN2015年的DCGAN把类似的理念应用到人脸图像上。通过对编码(输入的随机向量)进行代数运算,控制生成人脸图像的属性。生成式对抗网络--衍生模型DCGAN把有监督学习的CNN与无监督学习的GAN整合到一起提出了DeepConvolutionalGenerativeAdversarialNetworks-DCGANs,是生成器和判别器分别学到对输入图像层次化的表示。1.使用DCGANs从大量的无标记数据(图像、语音)学习到有用的特征,相当于利用无标记数据初始化DCGANs的生成器和判别器的参数,在用于有监督场景.2.表示学习representationlearning的工作:尝试理解和可视化GAN是如何工作的.3.稳定训练DCGANsFacebookAIResearchTSFacebookAIResearchWGANGAN算法的损失函数使用了JS散度,当生成器和鉴别器的样本分布不重叠时,导致GAN的训练出现梯度消失现象,参数很难更新,网络无法收敛。WGAN使用一种分布距离度量方法:Wasserstein距离,即推土机Earth-Mover距离解决上述问题。Wasserstein距离Wasserstein距离又叫Earth-Mover(EM)距离,定义如下:Ⅱ(Pr,Pg)是Pr和Pg组合起来的所有可能的联合分布的集合,反过来说,Ⅱ(Pr,Pg)中每一个分布的边缘分布都是Pr和Pg。对于每一个可能的联合分布γ而言,可以从中采样得到一个真实样本x和一个生成样本y,并算出这对样本的距离||x-y||,所以可以计算该联合分布γ下样本对距离的期望值。在所有可能的联合分布中能够对这个期望值取到的下界,就定义为Wasserstein距离。直观上可以把理解为在γ这个“路径规划”下把Pr这堆“沙土”挪到Pg“位置”所需的“消耗”,而W(Pr,Pg)就是“最优路径规划”下的“最小消耗”,所以才叫Earth-Mover(推土机)距离。Wasserstein距离相比KL散度、JS散度的优越性在于,即便两个分布没有重叠,Wasserstein距离仍然能够反映它们的远近。EM距离—>WGANWasserstein距离定义中的没法直接求解,用了一个已有的定理把它变换为如下形式:Lipschitz连续:对于连续函数f,存在常数K大于等于0,使得:对于定义域内任意x1,x2满足:把f用一个带参数w的神经网络来表示,并对w进行限制,此时所有偏导数也不会超过某个范围使得f
Lipschitz连续。EM距离—>WGAN构造一个含参数w、最后一层不是非线性激活层的判别器网络,在限制w不超过某个范围的条件下,使得尽可能取到最大,此时L就会近似真实分布与生成分布之间的Wasserstein距离(忽略常数倍数K)原始GAN的判别器做的是真假二分类任务,所以最后一层是sigmoid,但是现在WGAN中的判别器做的是近似拟合Wasserstein距离,属于回归任务,所以要把最后一层的sigmoid拿掉WassersteinGAN(WGAN)生成器要近似地最小化Wasserstein距离,可以最小化L,由于Wasserstein距离的优良性质,我们不需要担心生成器梯度消失的问题。再考虑到L的第一项与生成器无关,就得到了WGAN的两个loss生成器损失函数:判别器损失函数:可以指示训练进程,其数值越小,表示真实分布与生成分布的Wasserstein距离越小,GAN训练得越好。WGAN生成式对抗网络--衍生模型
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 华师大版初中科学熔化和凝固(28课件)
- 信息披露与企业形象管理制度
- 部编版五年级语文下册第一单元各类阅读真题(含小古文、非连续性文本等)名师解析连载
- 2024年杭州道路客运从业资格证模拟考试试题
- 2024年西宁道路运输客运从业资格证考试题库
- 2024年酒泉道路客运输从业资格证理论考题
- 2024年长沙道路运输客货从业资格证考试题库
- 2024年聊城道路客运输从业资格证考试真题保过
- 2024年七台河驾校考试客运从业资格证考试题库
- 2024年北京客运从业资格证考试答题模板
- 系统谐振及过电压
- 常见词牌介绍
- 广东省省级政务信息化服务预算编制标准(运维服务分册)
- 工作汇报模板课件
- 汽车维修公务车辆定点维修车辆保养投标方案
- 5.2-质量管理体系要求-“5.2方针”条文理解与实施指导材料(雷泽佳编制-2023)
- 律师无业承诺书(共3篇)
- SWITCH 勇者斗恶龙11S 金手指 版本:v1.0.3 最大金币 最大迷你奖章 32倍经验 最大攻击 所有材料
- 论思维可视化视域下的初中英语以读促写教学 论文
- 重度子痫前期、胎盘早剥急救演练
- 招聘会主持词开场白-主持词
评论
0/150
提交评论