2017年5月份到8月份,《品味大数据》作者张玉宏博士在云栖社区连载了十四篇深度学习入门文章。这些文章,在云栖社区备受好评——“通俗易懂”、“坐等更新”、“大神的更新频率可以快点吗?”……并且,篇篇阅读过万。
目前深度学习入门系列文章第一季更新已结束,云栖社区将文章集结成专题,以便更多人从中受益。

深度学习入门系列
1
2017/05/20
一入侯门“深”似海,深度学习深几许

当你和女朋友在路边手拉手一起约会的时候,你可曾想,你们之间早已碰撞出了一种神秘的智慧–深度学习。恋爱容易,相处不易,不断磨合,打造你们的默契,最终才能决定你们是否在一起。深度学习也一样,输入各种不同的参数,进行训练拟合,最后输出拟合结果。 恋爱又不易,且学且珍惜!更多精彩>

2
2017/06/19
人工“碳”索意犹尽,智能“硅”来未可知

现在的人工智能,大致就是用“硅基大脑”模拟或重现“碳基大脑的过程”。那么,在未来会不会出现“碳硅合一”的大脑或者全面超越人脑的“硅基大脑”呢?专家们的回答是“会的”。而由深度学习引领的人工智能,正在开启这样的时代。更多精彩>

3
2017/05/22
神经网络不胜语, M-P模型似可寻

“那些在个人设备里,谦谦卑卑地为我们哼着歌曲的数字仆人,总有一天会成为我们的霸主!”在“忍无可忍,无需再忍”这句俗语背后,也隐藏中神经网络常用的“激活函数”和“卷积”的概念。知其道,用其妙,THIS IS HOW!更多精彩>

4
2017/05/31
“机器学习”三重门,“中庸之道”趋若人(深度学习入门系列之四)

王国维说过人有三重境界,对应的,“机器学习”也有三大类不同算法,而有着“中庸之道”的半监督学习可能就是未来机器学习的大趋势,它一步一步地走“像”人类!更多精彩>

5
2017/06/04
Hello World感知机,懂你我心才安息

感知机,就如同神经网络(包括深度学习)的“Hello World”。如果不懂它,就如同“为人不识陈近南,便称英雄也枉然”一样尴尬。当感知机可以模拟人类的感知能力,当它能够明辨与或非,但它最大的“疑惑”就是“异或”。难道机器领域也只能是异性才能有结果吗?更多精彩>

6
2017/06/08
损失函数减肥用,神经网络调权重

有人开玩笑说,男人有两大烦恼:一是把别人的肚子搞大了,二是把自己的肚子搞大了。对于后者,除了减(jian)肥(shen),似乎别无他法。可你知道吗?这减肥背后的机理,和前馈神经网络利用损失函数,来反向调节各个神经元之间的连接权重,其实是一样一样的。为啥咧?更多精彩>

7
2017/06/19
山重水复疑无路,最快下降问梯度

“天下武功,唯快不破”。欲速览无限风光,必攀险峰;欲速抵山底幽谷,则必滚陡坡。这滚山坡的道理,其实就是梯度递减策略,而梯度递减策略,则是BP算法成功背后的“男(ji)人(chu)”。想知道为啥,来一探究竟呗!更多精彩>

8
2017/06/25
BP算法双向传,链式求导最缠绵

说到BP(Back Propagation)算法,人们通常强调的是反向传播,其实它是一个双向算法:正向传播输入信号,反向传播误差信息。接下来,你将看到的,可能是史上最为通俗易懂的BP图文讲解,不信?来瞅瞅并吐吐槽呗!更多精彩>

9
2017/08/01
全面连接困何处,卷积网络见解深

低级动物的眼睛多长在两侧,这样视野广阔,便于避险。而人类的双眼只长在一面,视野有死角,安全难保障,可为什么只有人类“高级”起来,进化成为这个地球的主宰呢?进一步地,是广而肤浅好呢,还是深而专注佳呢?再进一步,这和卷积神经网络又有啥关系?进来瞅瞅呗,历史会告诉你答案。更多精彩>

10
2017/08/02
卷地风来忽吹散,积得飘零美如画

“此情可待成追忆”。可“记忆”到底是什么?如果我告诉你,“记忆”就是一种“卷积”,你可别不信。卷积并不神秘,它就在你我的生活中,它就在深度学习里!这可能是史上最通俗易懂的关于“卷积”介绍文章,不信你就进来瞅瞅呗。更多精彩>

11
2017/08/06
局部连接来减参,权值共享肩并肩

《战狼2》中吴京的那句“那他妈是以前!”令人热血沸腾。在以前,全连接网络的扩展性很差,原因就在于它难以承受参数太多之痛。但当卷积神经网络兴起后,我们也可以说一句,“那他妈是以前!”因为现在我们有了“局部连接”和“权值共享”。来,看看它们是如何工作的吧?更多精彩>

12
2017/08/11
激活引入非线性,池化预防过拟合

斑点的青蛙为何会被视为异类,四脚的壁虎又为何被视为同族?它们背后隐藏着怎样的“机器学习”原理?它们的关系是如何曲折“激活”这一系列复杂矛盾的?它们又是如何“池化”特征,“全连接”彼此,以便达到“各回各家,各找各妈”的分类?敬请关注本节关于激活层,池化层及全连接层的相关内容。更多精彩>

13
2017/08/14
循环递归RNN,序列建模套路深

一部电影, 看了20分钟,发现是部烂片,这时的你会不会中途退场?如果退场了,那么恭喜你,因为你具备了与阿尔法狗一样的“马尔科夫链思维”。如果不退场,那也恭喜你,因为你是一个真人类。你看看,“套路”很深的循环神经网络(RNN),就是这样模仿你的!更多精彩>

14
2017/08/17
LSTM长短记,长序依赖可追忆

如果你是一名单身狗,不要伤心,或许是因为你的记忆太好了。有时,遗忘是件好事,它让你对琐碎之事不再斤斤计较。然而每当自己记不住单词而“问候亲人”时,也确实气死个人。于是你懂得了如何控制好什么信息该保留,什么信息该遗忘。而长短期记忆网络(LSTM)就是这么干的。来看看是怎么回事吧?更多精彩>

关注云栖社区,获得更多一手资讯!

联系我们:yqeditor@list.alibaba-inc.com
欢迎给我们投稿
文章转载,请保留作者和出处(云栖社区),并邮件通知云栖社区。

云栖社区微信公众号
微博@阿里云云栖社区