提升效率必备,9 篇论文帮你积累知识点 | PaperDaily #06

简介: Multi-Task Learning for Speaker-Role Adaptation in Neural Conversation Models @paperweekly 推荐 多任务学习是个非常流行的研究方法,本文针对对话生成任务,给出了一种 seq2seq+autoencoder 的多任务学习方案,取得了一定的效果。


自然语言处理


Multi-Task Learning for Speaker-Role Adaptation in Neural Conversation Models
@paperweekly 推荐
1
多任务学习是个非常流行的研究方法,本文针对对话生成任务,给出了一种 seq2seq+autoencoder 的多任务学习方案,取得了一定的效果。
论文链接
http://www.paperweekly.site/papers/988


Supervised Speech Separation Based on Deep Learning - An Overview
@Synced 推荐
2
近年来,基于深度学习的监督语音分离发展很快。本文作者对今年相关研究进行概述,介绍了语音分离的背景、监督语音分离的形成和组成部分,从历史的角度叙述了监督语音分离的技术发展过程。本文对监督语音分离的概述还包括分离算法和泛化等问题。
论文链接
http://www.paperweekly.site/papers/992


Multi-Task Label Embedding for Text Classification
@jerryshi 推荐
3
本文不同于以为文本分类中对待标签或类别的方法,传统方式是对标签进行 one-hot 编码,而该文章的思路是对标签也进行语义表示,从而在标签间获得丰富的信息,以提高最终任务的效果。
论文链接
http://www.paperweekly.site/papers/990


计算机视觉


VisDA: The Visual Domain Adaptation Challenge
@corenel 推荐
4
domain adaption 领域的一个新的数据集,数据是从仿真到实物的,有分类任务与分割任务两个部分,比较贴近实际项目,值得在发新文章的时候作为实验之一。
论文链接
http://www.paperweekly.site/papers/959


Interpreting CNN knowledge via an Explanatory Graph
@AkiyamaYukari 推荐
5
通过一个图模型来学习/可视化已经训练好的卷积神经网络中的每一层(中层比较有价值)的每个滤窗(fliter)所学习到的图像特征,在可解释 AI 方面的新的一步。 是作者下一篇文章的铺垫。
论文链接
http://www.paperweekly.site/papers/966


ReLayNet: Retinal Layer and Fluid Segmentation of Macular Optical Coherence Tomography using Fully Convolutional Network
@atomwh 推荐
6
本文提出了一种新的深度学习网络结构 ReLayNet,用于正常人和 DME 患者的 OCT 图像层次分割。ReLayNet 借鉴 U-Net 的思想,分为下采样和上采样两个步骤,在训练过程中同时使用了交叉熵和 Dice overlap loss 函数进行优化。
实验结果与 5 个 state-of-the-art 的分割方法进行比较,该方法具有更好的表现。而且该文章使用的是公开的数据集,值得做为实现对比的论文。
论文链接
http://www.paperweekly.site/papers/986


机器学习


A Geometric View of Optimal Transportation and Generative Model
@JadeLi 推荐
7
从使用变分法求解凸几何中亚历山大问题这个视角出发,讨论了最优传输定理与解凸几何问题的联系,从而给了生成式模型一个几何视角来解释与研究。文章将 GAN(主要是基于 WGAN)的训练过程,等效为求最优传输路径,并由此解释了 GAN 很多性能问题。
特别地,文章提出 Wasserstein GAN 中生成器和识别器的竞争理论上不需要,即交替训练没有起作用。并做实验自己的几何方法在 Multiple cluster 时对分布的度量优于 WGAN。
个人觉得本文关于 GAN 的类比过于严厉,但是无论如何,这篇文章对于 GAN 的视角值得关注。鉴于 GAN 一直囿于纳什均衡解的存在性、算法收敛性,以及机器学习本身的黑箱问题,本文从理论角度体现出来的 GAN 的问题也亟待进一步探索。
论文链接
http://www.paperweekly.site/papers/934


A systematic study of the class imbalance problem in convolutional neural networks
@paperweekly 推荐
9
图像分类问题中多个分类下样本不均衡问题对于 CNN 模型的影响研究。
论文链接
http://www.paperweekly.site/papers/955

原文发布时间为:2017-10-27
本文作者:让你更懂AI的
本文来自云栖社区合作伙伴“PaperWeekly”,了解相关信息可以关注“PaperWeekly”微信公众号

相关文章
|
1月前
|
缓存 NoSQL 应用服务中间件
性能基础之大型网站架构演化(整理篇)
【2月更文挑战第14天】性能基础之大型网站架构演化(整理篇)
45 1
性能基础之大型网站架构演化(整理篇)
|
6月前
|
边缘计算 区块链
技术人修炼之道阅读笔记(四)低效的7个行为习惯
技术人修炼之道阅读笔记(四)低效的7个行为习惯
|
27天前
|
机器学习/深度学习 算法 搜索推荐
【高效率学习】探索最适合你的学习之路:从心理学、动机到教育学的深度解析
【高效率学习】探索最适合你的学习之路:从心理学、动机到教育学的深度解析
92 0
【高效率学习】探索最适合你的学习之路:从心理学、动机到教育学的深度解析
|
6月前
|
算法 安全 程序员
分享刷题的个人经验!!!(特别高效)
分享刷题的个人经验!!!(特别高效)
44 0
【学习总结】如何提高学习效率
【学习总结】如何提高学习效率
|
9月前
|
机器学习/深度学习
机器学习面试重点
机器学习面试重点
150 0
|
9月前
|
缓存 算法 大数据
架构、框架侃侃而谈算法望而却步?吃透这份笔记轻松掌握算法技能
腾讯、百度阿里等国内的一线名企,在招聘工程师的过程中,对算法和数据结构都会重点考察。但算法易学难精,让很多程序员都望而却步,面试时总败在算法这一关,拿不到好 Offer。 面试时很多候选人,聊起架构、框架侃侃而谈,但一写代码,就暴露真实水平。说白了,还是基本功不够扎实。 其实,不管你是什么语言,基本功一定要扎实,最核心的一定是数据结构与算法。也因此,所有大厂面试,都必考算法题。
|
11月前
|
存储 机器学习/深度学习 人工智能
清华最新「持续学习」综述,32页详述持续学习理论、方法与应用综述
清华最新「持续学习」综述,32页详述持续学习理论、方法与应用综述
219 0
清华最新「持续学习」综述,32页详述持续学习理论、方法与应用综述
|
运维 Cloud Native 算法
Java性能优化学习1:理论基础学习与分析
性能:使用有限的资源在有限的时间内完成工作。 最主要的衡量因素就是时间,所以很多衡量指标,都可以把时间作为横轴。
|
存储
1.3 数字化信息编码与数据表示 计算机专业理论基础知识要点整理
1.3 数字化信息编码与数据表示 计算机专业理论基础知识要点整理
260 0
1.3 数字化信息编码与数据表示 计算机专业理论基础知识要点整理