GAN相关(二):DCGAN / 深度卷积对抗生成网络

   2023-02-09 学习力530
核心提示:GAN相关(二):DCGANUNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKSAlec Radford et alDCGAN指的是Deep Convolutional GAN,摘要中说,本文是bridge the gap between 有监督的CNN和无监督的CNN。并且提出了

GAN相关(二):DCGAN

UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS

Alec Radford et al

DCGAN指的是Deep Convolutional GAN,摘要中说,本文是bridge the gap between 有监督的CNN和无监督的CNN。并且提出了DCGAN模型,希望能够更好的提取特征。下面看一下它的相关工作:

related work

对于无监督,经典方法就是聚类,对于图像领域,可以用 hierarchical clustering of image patches 来学习图像的表达,也可以用auto-encoder,deep belief network也可以在学习hierarchical representation方面做的比较好。

除了无监督学习的相关工作外,还有生成自然图像的相关工作。generative image model 可以分为两类:parametric和non-parametric,参数化的和非参数的,非参数的一般用来在已有的数据集中做匹配,参数模型用来做实际当中的图像生成直到最近也没有太多的成功,比如variational sampling approach,iterative forward diffusion process。GAN生成的图像比较noisy和incomprehensible,另外有人用了一种 laplacian pyramid 的 GAN的extension得到了更好质量的图,但是还是不理想。循环神经网络和deconvolutional网络也被用来解决这个问题。

另一方面是CNN的内部可视化的问题,通过deconvolution和filtering the maximal activation的方法可以用来看到每个filter大概的目的。另外,还可以通过对input做gradient descent用来找到可以**某些filter的理想的输入图像。

approach and model Structure

这里作者讲了三个核心的方法:

第一个是用strided convolution 来代替传统的决定好的空间池化,这样可以让CNN自己学习自己的空间降采样。第二个是尽量消去在卷积特征的全连接层,GlobalAveragePooling增加了模型的稳定性但是收敛速度慢, A middle ground of directly connecting the highest convolutional features to the input and output respectively of the generator and discriminator worked well. 然后第三个是BN层,BN层对所有层如果都用上的话,会不稳定,所以This was avoided by not applying batchnorm to the generator output layer and the discriminator input layer. 另外还用leakyRelu作为activation。

总的来说要想设计一个稳定的DCGAN那么需要的结构和配置如下:


GAN相关(二):DCGAN / 深度卷积对抗生成网络

DCGAN的generator的结构如下:


GAN相关(二):DCGAN / 深度卷积对抗生成网络

empirical validation of DCGANs capabilities

传统的评价一种unsupervised learning的方法是将它作为讴歌feature extractor,用提出的特征用在分类等线性模型上,看他们的性能。

举例来说,这是cifar-10上的性能:


GAN相关(二):DCGAN / 深度卷积对抗生成网络

这里用的是判别器discriminator的convolutional features做的分类。

walking in the latent space

漫步在隐空间。。。实际上就是对学到的manifold或者讲叫做latent space中walk一下,实际上就是给一个连续的路径,看看是不是有sharp transition,如果是渐变的,那么就是说明我们的latent variable是具有某种语义特征的,也就是说是有意义的,如果有sharp transition说明可能仅仅是记住了训练样本对应的隐变量。如果在walking 的过程中,发现有semantic changes,比如有的物体消失或者出现,那么说明我们学到了相关的图片内容的表达。


GAN相关(二):DCGAN / 深度卷积对抗生成网络

另外,可以人工控制通过去掉比如window的filter,就可以使得最终的结果中没有window,或者变成一些相似的比如门,镜子等等。另外,这个z vector居然可以像NLP里面的词向量一样,做算数运算,个人觉得这个很有趣也很有意义,如图:


GAN相关(二):DCGAN / 深度卷积对抗生成网络

还有这个实验,表明了学到的z 这个隐变量的空间中的渐变实际上就对应着生成出来的最终图像的渐变。


GAN相关(二):DCGAN / 深度卷积对抗生成网络

2018年03月26日19:24:26

 
反对 0举报 0
 

免责声明:本文仅代表作者个人观点,与乐学笔记(本网)无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
    本网站有部分内容均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,若因作品内容、知识产权、版权和其他问题,请及时提供相关证明等材料并与我们留言联系,本网站将在规定时间内给予删除等相关处理.

  • 生成对抗网络--Generative Adversarial Networks (GAN)
    生成对抗网络--Generative Adversarial Network
    @目录一、简介二、原理三、网络结构四、实例:自动生成数字0-9五、训练GAN的技巧六、源码打赏●lan Goodfellow 2014年提出●非监督式学习任务●使用两个深度神经网络: Generator (生成器), Discriminator(判别器)二、原理举一个制造假钞的例子:生成器:制造假
    03-08
  • 0901-生成对抗网络GAN的原理简介 生成对抗网络 gan
    0901-生成对抗网络GAN的原理简介 生成对抗网络
    目录一、GAN 概述二、GAN 的网络结构三、通过一个举例具体化 GAN四、GAN 的设计细节pytorch完整教程目录:https://www.cnblogs.com/nickchen121/p/14662511.html一、GAN 概述GAN(生成对抗网络,Generative Adversarial Networks) 的产生来源于一个灵机一动
    03-08
  • 强化学习在生成对抗网络文本生成中扮演的角色(
    5. 一些细节 + 一些延伸上文所述的,只是 RL + GAN 进行文本生成的基本原理,大家知道,GAN在实际运行过程中任然存在诸多不确定因素,为了尽可能优化 GAN 文本生成的效果,而后发掘更多GAN在NLP领域的潜力,还有一些值得一提的细节。5.1. Reward Baseline:奖
    03-08
  • 科普 | ​生成对抗网络(GAN)的发展史
    科普 | ​生成对抗网络(GAN)的发展史
    来源:https://en.wikipedia.org/wiki/Edmond_de_Belamy五年前,Generative Adversarial Networks(GANs)在深度学习领域掀起了一场革命。这场革命产生了一些重大的技术突破。Ian Goodfellow等人在“Generative Adversarial Networks”中提出了生成对抗网络。
    03-08
  • 生成对抗网络(GAN)的理论与应用完整入门介绍
    生成对抗网络(GAN)的理论与应用完整入门介绍
    本文包含以下内容:1.为什么生成模型值得研究2.生成模型的分类3.GAN相对于其他生成模型相比有什么优势4.GAN基本模型5.改进的GANs6.GAN有哪些应用7.GAN的前沿研究 一、为什么生成模型值得研究主要基于以下几个原因:1.  从生成模型中训练和采样数据能很好的
    03-08
  • 七个不容易被发现的生成对抗网络(GAN)用例
    七个不容易被发现的生成对抗网络(GAN)用例
    像许多追随AI发展的人一样,我无法忽略生成建模的最新进展,尤其是图像生成中生成对抗网络(GAN)的巨大成功。看看下面这些样本:它们与真实照片几乎没有区别! 从2014年到2018年,面部生成的进展也非常显着。这些结果让我感到兴奋,但我内心总是怀疑它们是
    03-08
  • 生成对抗网络GAN详细推导 生成对抗网络详解
    生成对抗网络GAN详细推导 生成对抗网络详解
    转自:https://blog.csdn.net/ch18328071580/article/details/966900161、什么是GAN?生成对抗网络简称GAN,是由两个网络组成的,一个生成器网络和一个判别器网络。这两个网络可以是神经网络(从卷积神经网络、循环神经网络到自编码器)。我们之前学习过的机
    03-08
  • 生成式对抗网络(GAN)学习笔记
    生成式对抗网络(GAN)学习笔记
    图像识别和自然语言处理是目前应用极为广泛的AI技术,这些技术不管是速度还是准确度都已经达到了相当的高度,具体应用例如智能手机的人脸解锁、内置的语音助手。这些技术的实现和发展都离不开神经网络,可是传统的神经网络只能解决关于辨识的问题,并不能够为
    02-10
  • GAN相关:PAN(Perceptual Adversarial Network)/ 感知对抗网络
    GAN相关:PAN(Perceptual Adversarial Network
    GAN相关:PAN(Perceptual Adversarial Network)/ 感知对抗网络Perceptual Adversarial Networks for Image-to-Image TransformationChaoyue Wang et alintro首先介绍pixel-wise的图像任务。指出用传统的l1和l2 norm来进行计算会带来一些问题,比如丢失高频
    02-09
  • 对抗样本(论文解读五):Perceptual-Sensitive GAN for Generating Adversarial Patches
    对抗样本(论文解读五):Perceptual-Sensitive GA
    准备写一个论文学习专栏,先以对抗样本相关为主,后期可能会涉及到目标检测相关领域。内容不是纯翻译,包括自己的一些注解和总结,论文的结构、组织及相关描述,以及一些英语句子和相关工作的摘抄(可以用于相关领域论文的写作及扩展)。平时只是阅读论文,有很
    02-09
点击排行