脑洞大开的机器视觉多领域学习模型结构 | CVPR 2018论文解读

  1. 云栖社区>
  2. paperweekly>
  3. 博客>
  4. 正文

脑洞大开的机器视觉多领域学习模型结构 | CVPR 2018论文解读

技术小能手 2018-04-09 13:52:44 浏览2457
展开阅读全文

这篇论文来自于牛津大学 VGG 组,该研究小组在机器视觉和迁移学习领域发表多篇重磅论文并且都被各类顶会录用,作者之一的 Andrea Vedaldi 就是轻量级视觉开源框架 VLFeat 的主要作者

平常工程中或者参加过 Kaggle 比赛的都知道迁移学习对模型效果提升、训练效率提升的好处。这篇文章认为人类可以很快地处理大量不同的图像进行不同的任务分析,所以模型也能够经过简单的调整适应不同的场景。

本文提出了一种适合多领域、多任务、可扩展的学习模式,尽管当前阶段多领域学习有很大突破,但效果相比于专有模型略有差距。

作者提出一种参数获取模式——Parametric Family(图a),这种模式改变了以往的阶段性的参数提取(图b),需适应的参数更少,并且在参数较少的基础上使用了参数压缩方法依然可以保证模型的效果。

a5b99d133e2d4e41dc7e861e5dd960f1eccdb3dc

模型介绍

论文中提出了两种残差适配器,顺序残差适应器(Series Residual Adapters)和平行残差适应器(Parallel Residual Adapters)。两种模型的结构如下所示。

51a4bef345d30c32545dcb0fb9e646119b682d5c

本文作者在 2017 年的 NIPS 上发表了一篇关于残差适应器(Residual Adapters)的论文Learning multiple visual domains with residual adapters [1],这篇论文中将残差适应器定义为:

81758ee677931e12897b3fd62196a51613a036a9

公式中 α 为适应参数,这样做法的好处是当 α 为 0 时,f 就恢复到曾经的状态,这样就保证了记忆性。当参数 α 进行强正则项时, α 会接近于 0(L1 正则和 L2 正则都会令参数接近于 0)。

这里作者们利用一种操作将 C×D 维的矩阵 A 进行重塑(Reshape)。

70e6f72914b81608216f1d28ddea12106d26b392

1. 顺序残差适应器(Series Residual Adapters)在前残差适应器(Residual Adapters)进行了改进。

5abde4396bd34710b20a2614d3c4da391d54ed8c

公式中 f 是标准的 filter,新的 filter g 可以看作是用 f 做为标准的低质的矩阵组合。

994cde1ed42e041a3b2f7ee1e50e18819fa87b1f

这样适应器相当于对卷积层 filter 加入了“保险”机制。并且适应参数 α 维度较小是 filter f 的 1/L^2 大小。

2. 平行残差适应器(Parallel Residual Adapters)和它的名字一样适应参数 α 采用一种平行的方式。

d5c903aaab51e553068c18176889dd37b170a7e4

新的 filter g 可以按照如下公式定义:

1137a8f3ebaba5383a2c06a9a6d2a5924b83b28d

论文选择 RestNet [2] 作为两种残差适应器(Residual Adapters)的应用网络结构。论文中利用 SVD 矩阵分解将适应参数进行降维处理使得存储的参数变得更加低维。

模型实验效果

模型通过不同数据集,取 RestNet 的不同阶段应用残差适应器(Residual Adapters),并同常见的 Finetuning 以及两种不同的多领域学习模型 [1,3] 进行比较,得出实验结果如下所示。

15cacf05a3a356da1cb608c77ccd564c64b976c6

平行残差适应器(Parallel Residual Adapters)进行参数压缩后的平均结果最佳,相较于 Finetuning 以及两种不同的多领域学习模型 [1,3] 都有很好的提升。

论文还验证了不同规模的数据集的效果和 fine-tuning 进行比较,得出小规模数据和中等规模数据上两种残差适应器的效果都比较好,特别是小规模数据集中表现总是优于 fine-tuning,但是在大量数据集中 fine-tuning 效果就要领先了。

论文评价

这篇论文的模型结构比较有特点,改变了以往的阶段性参数获取模式,采用压缩方式适应性获取,对预训练的模型参数有记忆性,保留先前的领域知识。

本文在效果上也相对不错,开拓了新的迁移学习模型结构,是多领域学习的一大突破,同时也是迁移学习领域的一个较为突出的进展。


原文发布时间为:2018-04-9

本文作者:姜松浩

本文来自云栖社区合作伙伴“PaperWeekly”,了解相关信息可以关注“PaperWeekly”微信公众号

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属团队号: paperweekly