深度学习顶会“无冕之王”ICLR 2018评审结果出炉,斯坦福大学对抗训练研究得分第一

简介: 今年举办到第六届的ICLR会议被誉为深度学习顶会的“无冕之王”,在业内得到广泛认可。ICLR 采用Open Review 评审制度,ICLR 2018 共收到981篇有效稿件,截止2017年12月1日,已经有979篇论文收到至少一个评分,本文对评审结果进行了分析。

ICLR,全称为 International Conference on Learning Representations(国际学习表征会议),2013 年才刚刚成立了第一届。这个一年一度的会议虽然今年2017年办到第六届,已经被学术研究者们广泛认可,被认为“深度学习的顶级会议”。ICLR 采用Open Review 评审制度。Open Review 则非常不同,根据规定,所有提交的论文都会公开姓名等信息,并且接受所有同行的评价及提问(open peer review),任何学者都可或匿名或实名地评价论文。而在公开评审结束后,论文作者也能够对论文进行调整和修改。这几天ICLR 2018的审稿结果陆续出来了,让我们来看一下。

今年ICLR 2018共收到981篇有效稿件,截止2017年12月1日,已经有979篇论文收到至少一个评分。下图是平局分的分布,平均得分是5.24,中位得分是5.33 。

687465f8616482cc801ae0c65873a7aa5ea5ac64

根据Karpathy之前的博客统计,ICLR2017共收到491篇论文提交,其中15篇被录用为oral论文占3%,183篇录用为Poster论文占37.3%。

2817dfd43985df82ef6b361415ad62dde0a880e2

论文评分方差


得分最高的十篇论文

|  Ranking  |   Rating | Title |
| 9.00 | Certifiable Distributional Robustness with Principled Adversarial Training |
| 8.56 | On the Convergence of Adam and Beyond |
| 8.33 | Emergence of grid-like representations by training recurrent neural networks toperform spatial localization |
| 8.33 | Multi-Scale Dense Networks for Resource Efficient Image Classification |
| 8.09 | i-RevNet: Deep Invertible Networks |
| 8.00 | Wasserstein Auto-Encoders |
| 8.00 | Stabilizing Adversarial Nets with Prediction Methods |
| 8.00 | Learning to Represent Programs with Graphs |
| 8.00 | Boosting Dilated Convolutional Networks with Mixed Tensor Decompositions |
| 8.00 | Continuous Adaptation via Meta-Learning in Nonstationary and CompetitiveEnvironments |

需要注意的是,目前并不是所有的评分都已经打出来了。现在得分最高的论文是 《Certifiable Distributional Robustness with Principled Adversarial Training》。另外一篇值得注意的论文是 《Progressive Growing of GANs forImproved Quality, Stability, and Variation 》得分为 8,8,1

附:得分Top 20论文(via Search ICLR 2018)

c0a8cd4adbc92d622c6e91eebe05d190a71310ec

声明:

本文是受@plrz77 的ICLR2017的统计报告启发。

相关链接:

  • Search ICLR 2018

 http://search.iclr2018.smerity.com/

  •  ICLR 2017Overview by @plrz77.

https://prlz77.github.io/iclr2017-stats/

  • ICLR 2017 vs arxiv-sanity by @karpathy

https://medium.com/@karpathy/iclr-2017-vs-arxiv-sanity-d1488ac5c131

参考链接:

  • https://liyaguang.github.io/iclr2018-stats

原文发布时间为:2017-12-4
本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号
相关文章
|
1月前
|
机器学习/深度学习 数据采集 PyTorch
使用PyTorch解决多分类问题:构建、训练和评估深度学习模型
使用PyTorch解决多分类问题:构建、训练和评估深度学习模型
使用PyTorch解决多分类问题:构建、训练和评估深度学习模型
|
3月前
|
机器学习/深度学习 自然语言处理 数据挖掘
【论文精读】TNNLS 2022 - 基于深度学习的事件抽取研究综述
【论文精读】TNNLS 2022 - 基于深度学习的事件抽取研究综述
|
6月前
|
机器学习/深度学习 自然语言处理 PyTorch
【深度学习】实验12 使用PyTorch训练模型
【深度学习】实验12 使用PyTorch训练模型
79 0
|
6天前
|
机器学习/深度学习 传感器 自动驾驶
基于深度学习的图像识别技术在自动驾驶系统中的应用研究
【4月更文挑战第20天】 本研究聚焦于深度学习技术在图像识别领域的应用,并探讨其在自动驾驶系统中的实际效用。文章首先回顾了深度学习与图像处理技术的基础知识,随后详细分析了卷积神经网络(CNN)在车辆环境感知中的关键作用。通过实验数据对比分析,本文验证了所提出算法在提高自动驾驶车辆对周围环境的识别准确性和实时性方面的有效性。最后,讨论了目前技术的局限性及未来可能的研究方向,旨在为进一步的技术突破提供参考。
|
9天前
|
机器学习/深度学习 运维 监控
TensorFlow分布式训练:加速深度学习模型训练
【4月更文挑战第17天】TensorFlow分布式训练加速深度学习模型训练,通过数据并行和模型并行利用多机器资源,减少训练时间。优化策略包括配置计算资源、优化数据划分和减少通信开销。实际应用需关注调试监控、系统稳定性和容错性,以应对分布式训练挑战。
|
3月前
|
机器学习/深度学习 搜索推荐 算法
推荐系统算法的研究与实践:协同过滤、基于内容的推荐和深度学习推荐模型
推荐系统算法的研究与实践:协同过滤、基于内容的推荐和深度学习推荐模型
227 1
|
1月前
|
机器学习/深度学习 传感器 自动驾驶
基于深度学习的图像识别技术在自动驾驶系统中的应用研究
【2月更文挑战第24天】 随着人工智能技术的飞速发展,深度学习已成为推动技术创新的核心力量之一。特别是在图像识别领域,深度学习技术凭借其卓越的特征提取和模式识别能力,已广泛应用于自动驾驶系统中,成为实现车辆环境感知的关键技术。本文旨在探讨基于深度学习的图像识别技术如何优化自动驾驶系统的性能。通过分析卷积神经网络(CNN)在道路标识检测、行人识别和障碍物分类等任务中的应用实例,评估其在提高自动驾驶安全性和可靠性方面的作用。同时,文章还将讨论当前面临的挑战及未来的发展趋势,为自动驾驶领域的进一步研究提供参考。
|
2月前
|
机器学习/深度学习
转弯半径-深度学习训练
转弯半径(RADIUS OF TURNING CIRCLE),是指汽车行驶过程中,由转向中心到前外转向轮与地面接触点的距离。当方向盘转到极限位置时,由转向中心到前外转向轮接地中心的距离称为最小转弯半径,它反映了汽车通过最小曲率半径弯曲道路的能力和在狭窄路面上调头行驶的能力。
20 1
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
20用于深度学习训练和研究的数据集
无论是图像识别,自然语言处理,医疗保健还是任何其他人工智能领域感兴趣,这些数据集都是非常重要的,所以本文将整理常用且有效的20个数据集。
121 1
|
3月前
|
机器学习/深度学习 自然语言处理 数据格式
训练你自己的自然语言处理深度学习模型,Bert预训练模型下游任务训练:情感二分类
训练你自己的自然语言处理深度学习模型,Bert预训练模型下游任务训练:情感二分类
55 0