1. 云栖社区>
  2. 全部标签>
  3. #张玉宏#
张玉宏

#张玉宏#

已有6人关注此标签

内容分类:
博客 | 问答 | 视频 | 资料 |

【深度学习之美】损失函数减肥用,神经网络调权重(入门系列之六)

有人开玩笑说,男人有两大烦恼:一是把别人的肚子搞大了,二是把自己的肚子搞大了。对于后者,除了减(jian)肥(shen),似乎别无他法。可你知道吗?这减肥背后的机理,和前馈神经网络利用损失函数,来反向调节各个神经元之间的连接权重,其实是一样一样的。为啥咧?

大数据 人工智能 神经网络 损失函数 品味大数据 张玉宏 深度学习之美

【深度学习之美】山重水复疑无路,最快下降问梯度(入门系列之七)

“天下武功,唯快不破”。欲速览无限风光,必攀险峰;欲速抵山底幽谷,则必滚陡坡。这滚山坡的道理,其实就是梯度递减策略,而梯度递减策略,则是BP算法成功背后的“男(ji)人(chu)”。想知道为啥,来一探究竟呗!

大数据 算法 函数 人工智能 神经网络 品味大数据 张玉宏 梯度下降 深度学习之美

【深度学习之美】BP算法双向传,链式求导最缠绵(入门系列之八)

说到BP(Back Propagation)算法,人们通常强调的是反向传播,其实它是一个双向算法:正向传播输入信号,反向传播误差信息。接下来,你将看到的,可能是史上最为通俗易懂的BP图文讲解,不信?来瞅瞅并吐吐槽呗!

深度学习 人工智能 aliyun 神经网络 品味大数据 张玉宏 BP算法 反向传播算法 链式求导

【深度学习之美】激活引入非线性,池化预防过拟合(入门系列之十二)

斑点的青蛙为何会被视为异类,四脚的壁虎又为何被视为同族?它们背后隐藏着怎样的“机器学习”原理?它们的关系是如何曲折“激活”这一系列复杂矛盾的?它们又是如何“池化”特征,“全连接”彼此,以便达到“各回各家,各找各妈”的分类?敬请关注本节关于激活层,池化层及全连接层的相关内容。

深度学习 函数 神经网络 激活函数 品味大数据 张玉宏 深度学习之美

【深度学习之美】全面连接困何处,卷积网络见解深(入门系列之九)

低级动物的眼睛多长在两侧,这样视野广阔,便于避险。而人类的双眼只长在一面,视野有死角,安全难保障,可为什么只有人类“高级”起来,进化成为这个地球的主宰呢?进一步地,是广而肤浅好呢,还是深而专注佳呢?再进一步,这和卷积神经网络又有啥关系?进来瞅瞅呗,历史会告诉你答案。

深度学习 大数据 算法 人工智能 配置 神经网络 品味大数据 卷积网络 张玉宏

【深度学习之美】卷地风来忽吹散,积得飘零美如画(入门系列之十)

“此情可待成追忆”。可“记忆”到底是什么?如果我告诉你,“记忆”就是一种“卷积”,你可别不信。卷积并不神秘,它就在你我的生活中,它就在深度学习里!这可能是史上最通俗易懂的关于“卷积”介绍文章,不信你就进来瞅瞅呗。

人工智能 神经网络 卷积 品味大数据 张玉宏 深度学习之美

【深度学习之美】局部连接来减参,权值共享肩并肩(入门系列之十一)

低级动物的眼睛多长在两侧,这样视野广阔,便于避险。而人类的双眼只长在一面,视野有死角,安全难保障,可为什么只有人类“高级”起来,进化成为这个地球的主宰呢?进一步地,是广而肤浅好呢,还是深而专注佳呢?再进一步,这和卷积神经网络又有啥关系?进来瞅瞅呗,历史会告诉你答案。

云栖社区 深度学习 算法 人工智能 神经网络 张玉宏 权值共享 局部连接

数据的黑暗陷阱是什么?(一) ——由柏拉图“洞穴之喻”想到的

如同那句良言,“尽信书不如无书”,略改一个字,尽信“数”不如无“数”,也是成立的。过度的、不合理的利用数据,带来的后果可能比没有数据还要糟糕。

大数据 黑暗陷阱 数字人类学 张玉宏

2
GO