【GAN货】生成式对抗网络资料荟萃(原理/教程/报告/论文/实战/资料库)

  1. 云栖社区>
  2. 专知>
  3. 博客>
  4. 正文

【GAN货】生成式对抗网络资料荟萃(原理/教程/报告/论文/实战/资料库)

技术小能手 2018-09-20 15:46:04 浏览2770
展开阅读全文

简介

生成式对抗网络,是近些年来最火的无监督学习方法之一,模型由Goodfellow等人在2014年首次提出,将博弈论中非零和博弈思想与生成模型结合在一起,巧妙避开了传统生成模型中概率密度估计困难等问题,是生成模型达到良好的效果。

基本思想

囚徒困境

1950年,由就职于兰德公司的梅里尔·弗勒德和梅尔文·德雷希尔拟定出相关困境的理论,后来由顾问艾伯特·塔克以囚徒方式阐述,并命名为“囚徒困境”。经典的囚徒困境如下:

警方逮捕甲、乙两名嫌疑犯,但没有足够证据指控二人有罪。于是警方分开囚禁嫌疑犯,分别和二人见面,并向双方提供以下相同的选择:

若一人认罪并作证检控对方(相关术语称“背叛”对方),而对方保持沉默,此人将即时获释,沉默者将判监10年。

若二人都保持沉默(相关术语称互相“合作”),则二人同样判监半年。

若二人都互相检举(互相“背叛”),则二人同样判监5年。

纳什均衡

如同博弈论的其他例证,囚徒困境假定每个参与者(即“囚徒”)都是利己的,即都寻求最大自身利益,而不关心另一参与者的利益。那么囚徒到底应该选择哪一项策略,才能将自己个人的刑期缩至最短?两名囚徒由于隔绝监禁,并不知道对方选择;而即使他们能交谈,还是未必能够尽信对方不会反口。就个人的理性选择而言,检举背叛对方所得刑期,总比沉默要来得低。试设想困境中两名理性囚徒会如何作出选择:

若对方沉默、我背叛会让我获释,所以会选择背叛。

若对方背叛指控我,我也要指控对方才能得到较低的刑期,所以也是会选择背叛。

二人面对的情况一样,所以二人的理性思考都会得出相同的结论——选择背叛。背叛是两种策略之中的支配性策略。因此,这场博弈中唯一可能达到的纳什均衡,就是双方参与者都背叛对方,结果二人同样服刑5年。 这场博弈的纳什均衡,显然不是顾及团体利益的帕累托最优解决方案。以全体利益而言,如果两个参与者都合作保持沉默,两人都只会被判刑半年,总体利益更高,结果也比两人背叛对方、判刑5年的情况较佳。但根据以上假设,二人均为理性的个人,且只追求自己个人利益。均衡状况会是两个囚徒都选择背叛,结果二人判监均比合作为高,总体利益较合作为低。这就是“困境”所在。例子有效地证明了:非零和博弈中,帕累托最优和纳什均衡是互相冲突的。

生成模型与判别模型

机器学习的任务就是学习一个模型,应用这个模型,对给定的输入预测相应的输出。这个模型的一般形式为决策函数Y=f(x),或者条件概率分布:Y=argmaxYP(Y|X)。 机器学习方法又可以分为生成方法和判别方法,所学到的模型分别称为生成模型(Generative Model)和判别模型(Discriminative Model)。

判别方法由数据直接学习决策函数 f(X),或者条件概率分布P(Y|X)作为预测模型,即判别模型。 生成方法由数据学习联合分布P(X,Y),然后求出条件概率分布 P(Y|X)做预测的模型,即为生成模型,具体公式如下:‍‍P(Y|X)=P(X,Y)P(X)

‍‍相比于判别方法,生成模型更关注数据之间的内在联系,需要学习联合分布;而判别模型更关注于给定输入 X,模型应该预测怎么样的输出 Y。由生成模型可以推导出判别模型,反之则不能。

生成式对抗网络

什么是对抗生成网络?用Ian Goodfellow自己的话来说:

生成对抗网络是一种生成模型(Generative Model),其背后基本思想是从训练库里获取很多训练样本,从而学习这些训练案例生成的概率分布。而实现的方法,是让两个网络相互竞争,‘玩一个游戏’。其中一个叫做生成器网络( Generator Network),它不断捕捉训练库里真实图片的概率分布,将输入的随机噪声(Random Noise)转变成新的样本(也就是假数据)。另一个叫做判别器网络(Discriminator Network),它可以同时观察真实和假造的数据,判断这个数据到底是不是真的。”
基本原理

生成对抗网络是一个强大的基于博弈论的生成模型学习框架。该模型由GoodFellow在2014年首次提出,结合了生成模型和对抗学习思想。生成对抗网络的目的是训练一个生成模型G,给定随机噪声向量noise,生成符合真实数据分布的样本。 G训练信号来自于判别器 D(x)。 D(x)的学习目标目是准确区分输入样本的来源(真实数据或生成数据), 而生成器 D的学习目标是生成尽可能真实的数据,使得判别器 G认为生成数据是真实的。整个模型使用梯度下降法进行训练,生成器和判别器可以根据特定的任务选择具体的模型,包括但不限于全连接神经网络(FCN)、卷积神经网络(CNN)、回归神经网络(RNN)、长短期记忆模型(LSTM)等。

3


基础知识

台大李弘毅老师gan课程。参考链接:

#youtube#:

https://www.youtube.com/watch?v=DQNNMiAP5lw&index=1&list=PLJV_el3uVTsMq6JEFPW35BCiOQTsoqwNw]

#bilibili#

https://www.bilibili.com/video/av24011528?from=search&seid=11459671583323410876]

成对抗网络初学入门:一文读懂GAN的基本原理

[http://www.xtecher.com/Xfeature/view?aid=7496]

深入浅出:GAN原理与应用入门介绍

[https://zhuanlan.zhihu.com/p/28731033]

港理工在读博士李嫣然深入浅出GAN之应用篇
[https://pan.baidu.com/s/1o8n4UDk] 密码: 78wt

萌物生成器:如何使用四种GAN制造猫图
[https://zhuanlan.zhihu.com/p/27769807]

GAN学习指南:从原理入门到制作生成Demo
[https://zhuanlan.zhihu.com/p/24767059x]

生成式对抗网络GAN研究进展
[http://blog.csdn.net/solomon1558/article/details/52537114]

报告教程

微软剑桥研究院153页最新GAN教程(附代码)

【CVPR2018】Google GAN之父Ian Goodfellow 最新演讲:生成对抗网络介绍

【干货】Google GAN之父Ian Goodfellow ICCV2017演讲:解读生成对抗网络的原理与应用

[论文笔记] GAN开山之作及最新综述

NIPS 2016教程:生成对抗网络

[https://arxiv.org/pdf/1701.00160.pdf]

训练GANs的技巧和窍门
[https://github.com/soumith/ganhacks]

OpenAI生成模型
[https://blog.openai.com/generative-models/]

论文前沿

对抗实例的解释和利用(Explaining and Harnessing Adversarial Examples)2014
[https://arxiv.org/pdf/1412.6572.pdf]

基于深度生成模型的半监督学习( Semi-Supervised Learning with Deep Generative Models )2014
[https://arxiv.org/pdf/1406.5298v2.pdf]

条件生成对抗网络(Conditional Generative Adversarial Nets)2014
[https://arxiv.org/pdf/1411.1784v1.pdf]

基于深度卷积生成对抗网络的无监督学习(Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks (DCGANs))2015
[https://arxiv.org/pdf/1511.06434v2.pdf]

基于拉普拉斯金字塔生成式对抗网络的深度图像生成模型(Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks)2015
[http://papers.nips.cc/paper/5773-deep-generative-image-models-using-a-5. laplacian-pyramid-of-adversarial-networks.pdf]

生成式矩匹配网络(Generative Moment Matching Networks)2015
[http://proceedings.mlr.press/v37/li15.pdf]

超越均方误差的深度多尺度视频预测(Deep multi-scale video prediction beyond mean square error)2015
[https://arxiv.org/pdf/1511.05440.pdf]

通过学习相似性度量的超像素自编码(Autoencoding beyond pixels using a learned similarity metric)2015
[https://arxiv.org/pdf/1512.09300.pdf]

对抗自编码(Adversarial Autoencoders)2015
[https://arxiv.org/pdf/1511.05644.pdf]

基于像素卷积神经网络的条件生成图片(Conditional Image Generation with PixelCNN Decoders)2015
[https://arxiv.org/pdf/1606.05328.pdf]

通过平均差异最大优化训练生成神经网络(Training generative neural networks via Maximum Mean Discrepancy optimization)2015
[https://arxiv.org/pdf/1505.03906.pdf]

训练GANs的一些技巧(Improved Techniques for Training GANs)2016

[https://arxiv.org/pdf/1606.03498v1.pdf]

InfoGAN:基于信息最大化GANs的可解释表达学习(InfoGAN:Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets)2016
[https://arxiv.org/pdf/1606.03657v1.pdf]

上下文像素编码:通过修复进行特征学习(Context Encoders: Feature Learning by Inpainting)2016

[http://www.cvfoundation.org/openaccess/content_cvpr_2016/papers/Pathak_Context_Encoders_Feature_CVPR_2016_paper.pdf]

生成对抗网络实现文本合成图像(Generative Adversarial Text to Image Synthesis)2016
[http://proceedings.mlr.press/v48/reed16.pdf]

对抗特征学习(Adversarial Feature Learning)2016
[https://arxiv.org/pdf/1605.09782.pdf]

结合逆自回归流的变分推理(Improving Variational Inference with Inverse Autoregressive Flow )2016
[https://papers.nips.cc/paper/6581-improving-variational-autoencoders-with-inverse-autoregressive-flow.pdf]

深度学习系统对抗样本黑盒攻击(Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples)2016
[https://arxiv.org/pdf/1602.02697.pdf]

参加,推断,重复:基于生成模型的快速场景理解(Attend, infer, repeat: Fast scene understanding with generative models)2016
[https://arxiv.org/pdf/1603.08575.pdf]

f-GAN: 使用变分散度最小化训练生成神经采样器(f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization )2016
[http://papers.nips.cc/paper/6066-tagger-deep-unsupervised-perceptual-grouping.pdf]

在自然图像流形上的生成视觉操作(Generative Visual Manipulation on the Natural Image Manifold)2016
[https://arxiv.org/pdf/1609.03552.pdf]

对抗性推断学习(Adversarially Learned Inference)2016
[https://arxiv.org/pdf/1606.00704.pdf]

基于循环对抗网络的图像生成(Generating images with recurrent adversarial networks)2016
[https://arxiv.org/pdf/1602.05110.pdf]

生成对抗模仿学习(Generative Adversarial Imitation Learning)2016
[http://papers.nips.cc/paper/6391-generative-adversarial-imitation-learning.pdf]

基于3D生成对抗模型学习物体形状的概率隐空间(Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling)2016
[https://arxiv.org/pdf/1610.07584.pdf]

学习画画(Learning What and Where to Draw)2016
[https://arxiv.org/pdf/1610.02454v1.pdf]

基于辅助分类器GANs的条件图像合成(Conditional Image Synthesis with Auxiliary Classifier GANs)2016
[https://arxiv.org/pdf/1610.09585.pdf]

隐生成模型的学习(Learning in Implicit Generative Models)2016
[https://arxiv.org/pdf/1610.03483.pdf]

VIME: 变分信息最大化探索(VIME: Variational Information Maximizing Exploration)2016
[http://papers.nips.cc/paper/6591-vime-variational-information-maximizing-exploration.pdf]

生成对抗网络的展开(Unrolled Generative Adversarial Networks)2016
[https://arxiv.org/pdf/1611.02163.pdf]

基于内省对抗网络的神经图像编辑(Neural Photo Editing with Introspective Adversarial Networks)2016,原文链接:

[https://arxiv.org/pdf/1609.07093.pdf]

基于解码器的生成模型的定量分析(On the Quantitative Analysis of Decoder-Based Generative Models )2016,原文链接:

[https://arxiv.org/pdf/1611.04273.pdf]

结合生成对抗网络和Actor-Critic 方法(Connecting Generative Adversarial Networks and Actor-Critic Methods)2016,原文链接:

[https://arxiv.org/pdf/1610.01945.pdf]

通过对抗网络使用模拟和非监督图像训练( Learning from Simulated and Unsupervised Images through Adversarial Training)2016,原文链接:

[https://arxiv.org/pdf/1612.07828.pdf]

基于上下文RNN-GANs的抽象推理图的生成(Contextual RNN-GANs for Abstract Reasoning Diagram Generation)2016,原文链接:

[https://arxiv.org/pdf/1609.09444.pdf]

生成多对抗网络(Generative Multi-Adversarial Networks)2016,原文链接:

[https://arxiv.org/pdf/1611.01673.pdf]

生成对抗网络组合(Ensembles of Generative Adversarial Network)2016,原文链接:

[https://arxiv.org/pdf/1612.00991.pdf]

改进生成器目标的GANs(Improved generator objectives for GANs) 2016,原文链接:

[https://arxiv.org/pdf/1612.02780.pdf]

训练生成对抗网络的基本方法(Towards Principled Methods for Training Generative Adversarial Networks)2017,原文链接:

[https://arxiv.org/pdf/1701.04862.pdf]

生成对抗模型的隐向量精准修复(Precise Recovery of Latent Vectors from Generative Adversarial Networks)2017,原文链接:

[https://openreview.NET/pdf?id=HJC88BzFl]

生成混合模型(Generative Mixture of Networks)2017,原文链接:

[https://arxiv.org/pdf/1702.03307.pdf]

记忆生成时空模型(Generative Temporal Models with Memory)2017,原文链接:

[https://arxiv.org/pdf/1702.04649.pdf]

AdaGAN: Boosting Generative Models". AdaGAN。原文链接[https://arxiv.org/abs/1701.04862]

Loss-Sensitive Generative Adversarial Networks on Lipschitz Densities。原文链接:[https://arxiv.org/abs/1701.06264];代码:[https://github.com/guojunq/glsgan/]

Wasserstein GAN, WGAN。原文链接:[https://arxiv.org/abs/1701.07875];代码:

[https://github.com/martinarjovsky/WassersteinGAN]

Boundary-Seeking Generative Adversarial Networks,BSGAN。原文链接:[https://arxiv.org/abs/1702.08431];代码地址:

[https://github.com/wiseodd/generative-models]

Generative Adversarial Nets with Labeled Data by Activation Maximization,AMGAN。原文链接:

[https://arxiv.org/abs/1703.02000]

Triple Generative Adversarial Nets,Triple-GAN。原文链接

[https://arxiv.org/abs/1703.02291]

BEGAN: Boundary Equilibrium Generative Adversarial Networks。原文链接:[https://arxiv.org/abs/1703.10717];代码:

[https://github.com/wiseodd/generative-models]

Improved Training of Wasserstein GANs。原文链接:[https://arxiv.org/abs/1704.00028];代码:

[https://github.com/wiseodd/generative-models]

MAGAN: Margin Adaptation for Generative Adversarial Networks。原文链接[https://arxiv.org/abs/1704.03817]

代码:

[https://github.com/wiseodd/generative-models]

Gang of GANs: Generative Adversarial Networks with Maximum Margin Ranking。原文链接:

[https://arxiv.org/abs/1704.04865]

Softmax GAN。原文链接:

[https://arxiv.org/abs/1704.06191]

Generative Adversarial Trainer: Defense to Adversarial Perturbations with GAN。原文链接:

[https://arxiv.org/abs/1705.03387]

Flow-GAN: Bridging implicit and prescribed learning in generative models。原文链接:

[https://arxiv.org/abs/1705.08868]

Approximation and Convergence Properties of Generative Adversarial Learning。原文链接:

[https://arxiv.org/abs/1705.08991]

Towards Consistency of Adversarial Training for Generative Models。原文链接:

[https://arxiv.org/abs/1705.09199]

Good Semi-supervised Learning that Requires a Bad GAN。原文链接:[https://arxiv.org/abs/1705.09783]

On Unifying Deep Generative Models。原文链接:

[https://arxiv.org/abs/1706.00550]

DeLiGAN:Generative Adversarial Networks for Diverse and Limited Data。原文链接:

[http://10.254.1.82/cache/6/03/openaccess.thecvf.com/e029768353404049dbcac9187a363d5a/Gurumurthy_DeLiGAN__Generative_CVPR_2017_paper.pdf];代码:[https://github.com/val-iisc/deligan]

Temporal Generative Adversarial Nets With Singular Value Clipping。原始链接:

[http://openaccess.thecvf.com/content_ICCV_2017/papers/Saito_Temporal_Generative_Adversarial_ICCV_2017_paper.pdf]

Least Squares Generative Adversarial Networks. LSGAN。原始链接:

[http://openaccess.thecvf.com/content_ICCV_2017/papers/Mao_Least_Squares_Generative_ICCV_2017_paper.pdf]

工程实践

【GAN货】用神经网络生成音乐

【代码资源】GAN | 七份最热GAN文章及代码分享(Github 1000+Stars)

【干货】基于GAN实现图像锐化应用(附代码)

【ACL2018】什么都能GAN,无监督神经网络翻译新方法

【干货】基于GAN实现图像锐化应用(附代码)

深度卷积生成对抗模型(DCGAN)参考链接

[https://github.com/Newmu/dcgan_code]

用Keras实现MNIST生成对抗模型,参考链接:

[https://oshearesearch.com/index.PHP/2016/07/01/mnist-generative-adversarial-model-in-keras/]

用深度学习TensorFlow实现图像修复,参考链接:

[http://bamos.github.io/2016/08/09/deep-completion/]

TensorFlow实现深度卷积生成对抗模型(DCGAN),参考链接:

[https://github.com/carpedm20/DCGAN-tensorflow]

Torch实现深度卷积生成对抗模型(DCGAN),参考链接:

[https://github.com/soumith/dcgan.torch]

Keras实现深度卷积生成对抗模型(DCGAN),参考链接:

[https://github.com/jacobgil/keras-dcgan]

使用神经网络生成自然图像(Facebook的Eyescream项目),参考链接:

[https://github.com/facebook/eyescream]

对抗自编码(AdversarialAutoEncoder),参考链接:

[https://github.com/musyoku/adversarial-autoencoder]

利用ThoughtVectors 实现文本到图像的合成,参考链接:

[https://github.com/paarthneekhara/text-to-image]

对抗样本生成器(Adversarialexample generator),参考链接:

[https://github.com/e-lab/torch-toolbox/tree/master/Adversarial]

深度生成模型的半监督学习,参考链接:

[https://github.com/dpkingma/nips14-ssl]

GANs的训练方法,参考链接:

[https://github.com/openai/improved-gan]

生成式矩匹配网络(Generative Moment Matching Networks, GMMNs),参考链接:

[https://github.com/yujiali/gmmn]

对抗视频生成,参考链接:

[https://github.com/dyelax/Adversarial_Video_Generation]

基于条件对抗网络的图像到图像翻译(pix2pix)参考链接:

[https://github.com/phillipi/pix2pix]

对抗机器学习库Cleverhans, 参考链接:

[https://github.com/openai/cleverhans]

资料收集

生成对抗网络(GAN)专知荟萃。参考资料:

[http://www.zhuanzhi.ai/topic/2001150162715950/awesome]

The GAN Zoo千奇百怪的生成对抗网络,都在这里了。你没看错,里面已经有有近百个了。参考链接:

[https://github.com/hindupuravinash/the-gan-zoo]

gan资料集锦。参考链接:

[https://github.com/nightrome/really-awesome-gan]

gan在医学上的案例集锦:

[https://github.com/xinario/awesome-gan-for-medical-imaging]

gan应用集锦:

[https://github.com/nashory/gans-awesome-applications]

生成对抗网络(GAN)的前沿进展(论文、报告、框架和Github资源)汇总,参考链接:

[http://blog.csdn.net/love666666shen/article/details/74953970]

原文发布时间为:2018-09-19
本文作者:专知内容组
本文来自云栖社区合作伙伴“专知”,了解相关信息可以关注“专知”。

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: 专知