本周值得读:7份最新「Paper + Code」 | PaperDaily #22

  1. 云栖社区>
  2. paperweekly>
  3. 博客>
  4. 正文

本周值得读:7份最新「Paper + Code」 | PaperDaily #22

技术小能手 2017-12-05 14:43:38 浏览2821
展开阅读全文


[ 自然语言处理 ]


SQLNet: Generating Structured Queries From Natural Language Without Reinforcement Learning
@guotong1988 推荐
Seq2Seq

Text2SQL,根据自然语言生成结构化 SQL 语句。

论文链接
http://www.paperweekly.site/papers/1273
代码链接
https://github.com/xxj96/SQLNet


Dynamic Evaluation of Neural Sequence Models
@utopiar 推荐
Recurrent Neural Networks

本文提出使用动态评估来改进神经序列模型的性能。 模型通过基于梯度下降的机制适应最近的历史,将以更高概率分配给重新出现的连续模式。动态评估将 Penn Treebank 和 WikiText-2 数据集上的 perplexities 分别提高到 51.1 和 44.3。

论文链接
http://www.paperweekly.site/papers/1279
代码链接
https://github.com/benkrause/dynamic-evaluation


Exploring the Syntactic Abilities of RNNs with Multi-task Learning
@Andy 推荐
Multi-task Learning

本文主要通过了对一致性预测还有 CCG 超标记进行多任务学习,来展示了如何通过多任务学习,让 RNN 能够学习出更加复杂的句法表达。此外还发现利用一致性预测的训练数据,也可以提高其他只有有限训练数据任务的表现。这样的多任务模型,还可以将语法知识注入进语言模型中去(当然也包括机器翻译)。

论文链接
http://www.paperweekly.site/papers/1235
代码链接
https://github.com/emengd/multitask-agreement


[ 计算机视觉 ]


StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation
@paperweekly 推荐
GAN

Reddit 热文,利用 GAN 自定义表情和面部特征。StarGAN 是一种全新的可扩展方法,仅使用一个模型就能为多个域执行图像到图像转换。

论文链接
http://www.paperweekly.site/papers/1227
代码链接
https://github.com/yunjey/StarGAN


What is the Role of Recurrent Neural Networks (RNNs) in an Image Caption Generator?
@jamiechoi 推荐
Image Captioning

文章比较了 RNN 在 image caption 里的两种作用:1. Inject模型:RNN 用来 encode 文字和图片;2. Merge 模型:RNN 只 encode 文字,图片在较后的阶段再与文字信息结合。最后得出结论,Merge 模型较好。

论文链接
http://www.paperweekly.site/papers/1200
代码链接
https://github.com/mtanti/rnn-role


[ 机器学习 ]


Dilated Recurrent Neural Networks
@snowwalkerj 推荐
RNN

本文提出的 dilated RNN,解决了长程依赖的问题,同时可提高并行率,提高计算速度;提出 Mean Recurrent Length 指标,衡量 RNN 可记忆的时间长度,仅用普通的 RNN 模块在多项任务上达到 state of art 效果。

论文链接
http://www.paperweekly.site/papers/1220
代码链接
https://github.com/code-terminator/DilatedRNN


Multi-Rate Deep Learning for Temporal Recommendation
@Ttssxuan 推荐
LSTM

使用多种时间粒度进行用户行为预测,并为大量数据提出类似词嵌的预训方法。 使用 DSSM 建模用户静态兴趣,使用一个 LSTM 时序网络建模用户短期兴趣,使用一个 LSTM 时序网络建模全局用户兴趣。

论文链接
http://www.paperweekly.site/papers/1208
代码链接
https://github.com/sonyisme/keras-recommendation

原文发布时间为:2017-12-5
本文作者:让你更懂AI的
本文来自云栖社区合作伙伴“PaperWeekly”,了解相关信息可以关注“PaperWeekly”微信公众号

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: paperweekly