翻译小组 + 关注
手机版

用Excel理解神经网络

  1. 云栖社区>
  2. 翻译小组>
  3. 博客>
  4. 正文

用Excel理解神经网络

【方向】 2017-12-05 16:27:40 浏览2250 评论0

摘要: 为了简化卷积神经网络这个概念,本文将试着基于excel针对在开发深度学习模型过程中所做的运算进行解释。

1.png

为了简化卷积神经网络这个概念,我将试着针对在开发深度学习模型过程中所做的运算进行解释。要查阅这方面更多的内容,我建议在线搜索,因为网上的信息很多很多(像这样视频)。本文的这个解释来源于fast.ai仓库。

这个简单的神经网络图片基本上代表了本案例中发生的事情。

2.jpeg
简单的神经网络

输入层

这个数字7的图像数据来自MNIST数据集,我们假设你正在使用预训练模型进行分类。

3.png
你可以在数据集中看到更大的数字7

隐藏层 1

隐藏层用于对输入进行转换,以便从输出层的数据中识别出更复杂的特征,从而做出更好的评估。

两个过滤器将呈现出不同的形状:第一个过滤器用于检测水平边缘,第二个过滤器检测垂直边缘。这个3x3的过滤器被称为卷积核。下图中的filter 1被激活用于检测输入中的水平边缘。Conv1展示了将输入分别乘以两个3x3卷积核之后的激活情况。下面的图片更形象地展示了这个过程。

4.png

虽然现在是以二维数组的形式来展示的,但它们其实应该被称为张量堆叠。每个矩阵表示张量中的一个切片。这些基本上都是线性代数中的行操作。

=SUM(F11:H13*$AD$11:$AF$13) 则是进行卷积运算。

该求和运算将根据输入中特定的3×3的部分计算得到激活数字3。

5.png
这代表了一个单一的层。

激活函数

6.png

接下来,我们将把非线性单元RELU作为激活函数来消除负数。在接下来的图片中,我们可以看到负数消失了。

隐藏层 2

接下来,我们要做另一个卷积。 Conv2将成为下一个隐藏层。我们要用Conv1同时乘以两个矩阵并取乘积之和。这里的卷积核用一个2X3X3的张量来表示。

在使用了RELU之后,我们现在创建了第二层。

7.png
第1层和第2层

最大池化

8.gif

最大池化是通过对Conv2取2x2部分的最大值来得到分辨率为原始矩阵宽度和高度的一半的图像。在Maxpool矩阵中,我们可以看到Conv2的2x2部分的最大值是33。池的计算速度比卷积更快。此外,它具有平移不变性

9.png

输出层

接下来,我们通过给Maxpool中的所有激活函数给予一个权重来建立完全连接层。这是通过矩阵乘法来实现的。在Excel中,我们将使用SUMPRODUCT函数。因此,不像以前那样需要在卷积层中解析每个部分,完全连接层将对由卷积层提取的特征执行分类,并通过最大池化层进行降采样。

10.png

文章原标题《Understanding Neural Networks Using Excel》,作者: Jean-Carlos Paredes,译者:夏天,审校:主题曲。

文章为简译,更为详细的内容请查看原文

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

【云栖快讯】一站式开发者服务,海量学习资源免费学  详情请点击

网友评论