一文读懂深度学习模型近年来重要进展(附梳理图)

简介:

唐杰老师学生帮忙整理的Deep Learning模型最近若干年的重要进展。有4条脉络,整理很不错。分享一下。

track1 cv/tensor

1943年出现雏形,1958年研究认知的心理学家Frank发明了感知机,当时掀起一股热潮。后来Marvin Minsky(人工智能大师)和Seymour Papert发现感知机的缺陷:不能处理异或回路、计算能力不足以处理大型神经网络。停滞!

1986年hinton正式地提出反向传播训练MLP,尽管之前有人实际上这么做。

1979年,Fukushima 提出Neocognitron,有了卷积和池化的思想。

1998年,以Yann LeCun为首的研究人员实现了一个七层的卷积神经网络LeNet-5以识别手写数字。

后来svm兴起,这些方法没有很受重视。

2012年,Hinton组的AlexNet在ImageNet上以巨大优势夺冠,兴起深度学习的热潮。其实Alexnet是一个设计精巧的CNN,加上relu、dropout等技巧,并且更大。

这条思路被后人发展,出现了vgg、GooLenet等。

2016年,青年计算机视觉科学家何恺明在层次之间加入跳跃连接,Resnet极大增加了网络深度,效果有很大提升。一个将这个思路继续发展下去的是去年cvpr best paper densenet。

cv领域的特定任务出现了各种各样的模型(Mask-RCNN等),这里不一一介绍。

2017年,hinton认为反省传播和传统神经网络有缺陷,提出Capsule Net。但是目前在cifar等数据集上效果一半,这个思路还需要继续验证和发展。

track2 生成模型

传统的生成模型是要预测联合概率分布P(x,y)。

rbm这个模型其实是一个基于能量的模型,1986年的时候就有,他在2006年的时候重新拿出来作为一个生成模型,并且将其堆叠成为deep belief network,使用逐层贪婪或者wake-sleep的方法训练,不过这个模型效果也一般现在已经没什么人提了。但是从此开始hinton等人开始使用深度学习重新包装神经网络。

Auto-Encoder也是上个世纪80年代hinton就提出的模型,此时由于计算能力的进步也重新登上舞台。bengio等人又搞了denoise Auto-Encoder。

Max welling等人使用神经网络训练一个有一层隐变量的图模型,由于使用了变分推断,并且最后长得跟auto-encoder有点像,被称为Variational auto-encoder。此模型中可以通过隐变量的分布采样,经过后面的decoder网络直接生成样本。

GAN是2014年提出的非常火的模型,他是一个隐的生成模型,通过一个判别器和生成器的对抗训练,直接使用神经网络G隐式建模样本整体的概率分布,每次运行相当于从分布中采样。

DCGAN是一个相当好的卷积神经网络实现,WGAN是通过维尔斯特拉斯距离替换原来的JS散度来度量分布之间的相似性的工作,使得训练稳定。PGGAN逐层增大网络,生成机器逼真的人脸。

track3 sequence learning

1982年出现的hopfield network有了递归网络的思想。1997年Jürgen Schmidhuber发明LSTM,并做了一系列的工作。但是更有影响力的是2013年还是hinton组使用RNN做的语音识别工作,比传统方法高出一大截。

文本方面bengio在svm最火的时期提出了一种基于神经网络的语言模型,后来google提出的word2vec也有一些反向传播的思想。在机器翻译等任务上逐渐出现了以RNN为基础的seq2seq模型,通过一个encoder把一句话的语义信息压成向量再通过decoder输出,当然更多的要和attention的方法结合。

后来前几年大家发现使用以字符为单位的CNN模型在很多语言任务也有不俗的表现,而且时空消耗更少。self-attention实际上就是采取一种结构去同时考虑同一序列局部和全局的信息,google有一篇耸人听闻的attention is all you need的文章。

track4:deep reinforcement learning

这个领域最出名的是deep mind,这里列出的David Silver是一直研究rl的高管。

q-learning是很有名的传统rl算法,deep q-learning将原来的q值表用神经网络代替,做了一个打砖块的任务很有名。后来有测试很多游戏,发在Nature。这个思路有一些进展double dueling,主要是Qlearning的权重更新时序上。

DeepMind的其他工作DDPG、A3C也非常有名,他们是基于policy gradient和神经网络结合的变种(但是我实在是没时间去研究)。

一个应用是AlphaGo大家都知道,里面其实用了rl的方法也有传统的蒙特卡洛搜索技巧。Alpha Zero 是他们搞了一个用alphago框架打其他棋类游戏的游戏,吊打。

a91efb2582688daf202e6ff2d6cd0e323986ab09




原文发布时间为:2018-04-4

本文作者:丁铭,唐杰

本文来自云栖社区合作伙伴“数据派THU”,了解相关信息可以关注“数据派THU”微信公众号

相关文章
|
16天前
|
机器学习/深度学习 算法 测试技术
Python中实现多层感知机(MLP)的深度学习模型
Python中实现多层感知机(MLP)的深度学习模型
30 0
|
3天前
|
机器学习/深度学习 TensorFlow API
Python深度学习基于Tensorflow(3)Tensorflow 构建模型
Python深度学习基于Tensorflow(3)Tensorflow 构建模型
12 2
|
6天前
|
机器学习/深度学习 自然语言处理 算法
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
|
12天前
|
机器学习/深度学习 数据可视化 TensorFlow
【Python 机器学习专栏】使用 TensorFlow 构建深度学习模型
【4月更文挑战第30天】本文介绍了如何使用 TensorFlow 构建深度学习模型。TensorFlow 是谷歌的开源深度学习框架,具备强大计算能力和灵活编程接口。构建模型涉及数据准备、模型定义、选择损失函数和优化器、训练、评估及模型保存部署。文中以全连接神经网络为例,展示了从数据预处理到模型训练和评估的完整流程。此外,还提到了 TensorFlow 的自动微分、模型可视化和分布式训练等高级特性。通过本文,读者可掌握 TensorFlow 基本用法,为构建高效深度学习模型打下基础。
|
12天前
|
机器学习/深度学习 自然语言处理 算法
深度学习在图像识别中的应用进展
【4月更文挑战第30天】 随着计算机视觉技术的迅速发展,深度学习已成为推动图像识别领域进步的核心动力。本文综述了近年来深度学习技术在图像识别任务中的创新应用,包括卷积神经网络(CNN)的变体、生成对抗网络(GAN)以及注意力机制等。分析了这些方法如何优化模型性能,提高识别准确率,并探讨了目前面临的主要挑战和未来的发展方向。
|
12天前
|
机器学习/深度学习 人工智能 缓存
安卓应用性能优化实践探索深度学习在图像识别中的应用进展
【4月更文挑战第30天】随着智能手机的普及,移动应用已成为用户日常生活的重要组成部分。对于安卓开发者而言,确保应用流畅、高效地运行在多样化的硬件上是一大挑战。本文将探讨针对安卓平台进行应用性能优化的策略和技巧,包括内存管理、多线程处理、UI渲染效率提升以及电池使用优化,旨在帮助开发者构建更加健壮、响应迅速的安卓应用。 【4月更文挑战第30天】 随着人工智能技术的迅猛发展,深度学习已成为推动计算机视觉领域革新的核心动力。本篇文章将深入分析深度学习技术在图像识别任务中的最新应用进展,并探讨其面临的挑战与未来发展趋势。通过梳理卷积神经网络(CNN)的优化策略、转移学习的实践应用以及增强学习与生成对
|
14天前
|
机器学习/深度学习 算法 TensorFlow
TensorFlow 2keras开发深度学习模型实例:多层感知器(MLP),卷积神经网络(CNN)和递归神经网络(RNN)
TensorFlow 2keras开发深度学习模型实例:多层感知器(MLP),卷积神经网络(CNN)和递归神经网络(RNN)
|
14天前
|
机器学习/深度学习 编解码 自然语言处理
深度学习在图像识别中的应用进展
【4月更文挑战第28天】 随着人工智能技术的飞速发展,深度学习已经成为推动计算机视觉领域尤其是图像识别技术前进的核心动力。本文聚焦于深度学习在图像识别领域的最新应用进展,首先简要回顾了卷积神经网络(CNN)的基本结构和工作原理,然后深入探讨了几种先进的图像识别模型,如ResNet、DenseNet和Transformer架构。此外,文章还分析了数据增强、迁移学习、对抗训练等关键技术在提升模型性能中的作用,并探讨了当前面临的挑战与未来发展趋势。通过综合现有文献和最新研究成果,本文旨在为研究人员和实践者提供一个深度学习在图像识别方面应用的全面视角。
|
14天前
|
机器学习/深度学习 算法 数据可视化
MATLAB基于深度学习U-net神经网络模型的能谱CT的基物质分解技术研究
MATLAB基于深度学习U-net神经网络模型的能谱CT的基物质分解技术研究
|
15天前
|
机器学习/深度学习 人工智能 算法
深度学习在图像识别中的应用进展
【4月更文挑战第28天】 随着人工智能领域的迅猛发展,深度学习技术已变得日益成熟,尤其在图像识别任务中展现出了巨大的潜力和优势。本文旨在综述当前深度学习模型在图像识别领域的最新研究进展及其应用实例。通过深入分析卷积神经网络(CNN)的架构创新、数据增强技术、迁移学习策略以及对抗性网络的兴起,文章揭示了深度学习技术如何推动图像识别精度的提升和实际应用的拓展。同时,探讨了该领域面临的主要挑战,包括数据集偏差问题、模型泛化能力、计算资源需求等,并对未来发展趋势进行了展望。