春节囤货清单 | 15篇近期值得读的AI论文

  1. 云栖社区>
  2. paperweekly>
  3. 博客>
  4. 正文

春节囤货清单 | 15篇近期值得读的AI论文

技术小能手 2018-02-08 14:41:06 浏览4407
展开阅读全文

[ 自然语言处理 ]

Deep Learning for Sentiment Analysis : A Survey
@xwzhong 推荐
Sentiment Classification

近年来,深度学习有了突破性发展,NLP 领域里的情感分析任务逐渐引入了这种方法,并形成了很多业内最佳结果。本文中,来自领英与伊利诺伊大学芝加哥分校的研究人员对基于深度学习的情感分析研究进行了详细论述。

论文链接
https://www.paperweekly.site/papers/1589

Generating Wikipedia by Summarizing Long Sequences
@paperweekly 推荐
Short Text Expansion

本文来自 Google Brain,通过长序列摘要生成维基百科。

论文链接
https://www.paperweekly.site/papers/1615

MaskGAN: Better Text Generation via Filling in the __

@Synced 推荐
Paraphrase Generation

谷歌大脑提出使用生成对抗网络(GAN)来提高文本质量,它通过显式地训练生成器产生高质量文本,并且已经在图像生成领域取得很大成功。GAN 最初设计用于输出可微分的值,所以生成离散语言是具有挑战性的。作者认为验证复杂度本身不代表模型生成的文本质量。

本文引入条件 actor-critic GAN,它可以基于上下文填充缺失的文本。本文从定性和定量的角度证明,相比最大似然训练的模型,这种方法生成了更真实的有条件和无条件文本样本。

论文链接
https://www.paperweekly.site/papers/1588

Investigating the Working of Text Classifiers
@duinodu 推荐
Text Classification

文本分类问题,给一段文本指定一个类别,在主题分类和情感分析中都有应用到。它的难点在于如何在具有语义的文本中,对句子之间的内在联系(语义或句法)进行编码。这对文本情感分类很关键,因为比如像“对照”或者“因果”等关系,会直接决定整个文档的性质。

本文并没有提出一套完整的解决方法,而是通过构建新的数据集(训练集和测试集尽可能不包含共同的关键词),验证上面的猜想。此外,作者还设计了一种 ANON 的正则方法,让网络不那么容易记住文档的关键词。

论文链接
https://www.paperweekly.site/papers/1579

A Hybrid Framework for Text Modeling with Convolutional RNN
@yinnxinn 推荐
Question Answering

本文使用 RNN+CNN 的结构来完成 NLP 中的问答任务,其亮点在于使用 RNN 获取 question 和 answer 的上下文语义,CNN 在语义层面对二者进行操作。

论文链接
https://www.paperweekly.site/papers/1663

[ 计算机视觉 ]

MAttNet: Modular Attention Network for Referring Expression Comprehension
@EthanLC 推荐
Multimodal

本文对 referring expression(指向目标物体的自然语句)进行 modular network 的建模,提供了主语,位置,关系三个 module。

每个 module 的组合权重由 attention 机制来实现,各个模块内提供不同的 visual attention 来关注图片内的相关区域。模型涉及到的 word,module,visual 的 attention 都当做隐变量自动学习。

整体框架可以与 Mask R-CNN 无缝连接,在目标定位和分割两个 task 上都达到了目前最佳准确率。

Demo: http://gpuvision.cs.unc.edu/refer/comprehension
论文链接
https://www.paperweekly.site/papers/1594

Wasserstein Auto-Encoders
@huapohen 推荐
GAN

ICLR2018 高分论文,通过 optimal transport(最优传输)的角度,Wasserstein+auto-encoder 构建生成模型。但对 GAN 有情怀,通过对抗训练学习对手来提升自己,学习此篇 WAE(WGAN 的对手)正是如此,助于我们提升 GAN 网络的生成性能和或解释性。

论文链接
https://www.paperweekly.site/papers/1578

A Mixed-scale Dense Convolutional Neural Network for Image Analysis
@somtian 推荐
CNN


本文通过将 dilated 卷积的 feature maps 做 dense connection,使模型可以处理计算机视觉中的很多问题,比如混合尺度的处理以及可以应用到很多问题中。同时减少了网络的参数,加速训练和应用。

论文链接
https://www.paperweekly.site/papers/1621

Dynamic Weight Alignment for Convolutional Neural Networks
@duinodu 推荐
CNN

用 CNN 处理序列数据的问题在于,序列数据在时间上是存在畸变的,比如速率不稳定。而 CNN 的这种线性性质,让卷积核无法处理时间畸变这个问题。

本文提出了一种在 CNN 的卷积核中对齐权重的方法,使得这样的 CNN 更能处理序列数据,并在多个数据集上验证了这个方法的有效性。

论文链接
https://www.paperweekly.site/papers/1591

Single-Shot Refinement Neural Network for Object Detection
@arlen 推荐
Object Detection

本文来自中科院自动化所,论文利用多层特征效果显著,结合了单阶段和双阶段的优点,在准确率和速度上有很好的均衡。

论文链接
https://www.paperweekly.site/papers/1576

[ 机器学习 ]

Model Evaluation, Model Selection, and Algorithm Selection in Machine Learning
@Synced 推荐
Model Optimization


本文回顾了用于模型评估、模型选择和算法选择任务中的不同技术,并参考理论和实证研究讨论了每种技术的主要优势和劣势。

论文链接
https://www.paperweekly.site/papers/1616

Training Neural Networks by Using Power Linear Units (PoLUs)
@snowwalkerj 推荐
Activation Function

本文设计了一种 PoLU 激活函数,在多个数据集上取得超过 ReLU 的性能。

论文链接
https://www.paperweekly.site/papers/1658

Learning Continuous User Representations through Hybrid Filtering with doc2vec
@Ttssxuan 推荐
Recommender System

本文把用行为使用 item 描述进行串连,构成文档,并使用 doc2vec 训练用户表示向量。

论文链接
https://www.paperweekly.site/papers/1562

NDDR-CNN: Layer-wise Feature Fusing in Multi-Task CNN by Neural Discriminative Dimensionality Reduction
@xaj 推荐
Multi-task Learning

本文研究的问题是多任务学习。作者提出了一种对多个网络(对应多个任务)进行逐层特征融合的方法。

论文链接
https://www.paperweekly.site/papers/1614

An Attention-based Collaboration Framework for Multi-View Network Representation Learning
@arlen 推荐
Object Detection

本文是网络表示学习大牛 Jian Tang 的工作,论文利用 multi-view 来对网络进行表示学习。各个 view 之间通过共享邻居来保证所有节点表示在同一个空间中,同时,通过引入 attention 机制,可以学到不同节点在不同 view 的权重。

论文链接
https://www.paperweekly.site/papers/1583

原文发布时间为:2018-02-8
本文作者:让你更懂AI的
本文来自云栖社区合作伙伴“PaperWeekly”,了解相关信息可以关注“PaperWeekly”微信公众号

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: paperweekly