何恺明“终结”ImageNet预训练时代:从0开始训练神经网络,效果比肩COCO冠军

  1. 云栖社区>
  2. 量子位>
  3. 博客>
  4. 正文

何恺明“终结”ImageNet预训练时代:从0开始训练神经网络,效果比肩COCO冠军

技术小能手 2018-11-23 14:34:53 浏览764
展开阅读全文

9f046f1793d13af262e3b960334aedb4d8cdf1c2

何恺明,RBG,Piotr Dollár。

三位从Mask R-CNN就开始合作的大神搭档,刚刚再次联手,一文“终结”了ImageNet预训练时代。

他们所针对的是当前计算机视觉研究中的一种常规操作:管它什么任务,拿来ImageNet预训练模型,迁移学习一下。

但是,预训练真的是必须的吗?

这篇重新思考ImageNet预训练(Rethinking ImageNet Pre-training)就给出了他们的答案。

FAIR(Facebook AI Research)的三位研究员从随机初始状态开始训练神经网络,然后用COCO数据集目标检测和实例分割任务进行了测试。结果,丝毫不逊于经过ImageNet预训练的对手。

甚至能在没有预训练、不借助外部数据的情况下,和COCO 2017冠军平起平坐。

结果

训练效果有图有真相。

他们用2017版的COCO训练集


网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: 量子位