《中国人工智能学会通讯》——1.34 应 用

  1. 云栖社区>
  2. CCAI>
  3. 博客>
  4. 正文

《中国人工智能学会通讯》——1.34 应 用

知与谁同 2017-09-04 17:12:00 浏览1173
展开阅读全文

1.34 应 用

自然语言处理的应用非常广泛,这里我们主要回顾下文本匹配、机器翻译、问答系统和自动文摘这四个比较有代表性的应用领域。

(1)文本匹配
文本匹配是计算给定两个文本序列的相关度。自然语言处理的很多任务可以归结为文本匹配任务,比如文本检索、文本蕴涵、问答对匹配等。Hu 等人[14]提出了两种基于卷积神经网络的文本匹配模型。一种是分别建模两个句子,得到句子编码。然后将两个句子编码输入给多层感知器来计算它们的相似度。另一种是将两个句子拼成一个矩阵,每一个矩阵元素是对应的两个句子中相应位置上词嵌入拼接而成的向量。然后利用两维卷积网络来建模相关性。Qiu 等人[17]利用动态卷积神经网络来建模句子编码,并利用张量神
经网络来更加有效地建模它们之间的关系。Wan 等人[18]利用双向 LSTM 模型来分别建模两个句子,再按不同位置上双向 LSTM 的输出建立一个相似度矩阵,然后通过一个子采样层输入给多层感知器来建模相关度。这些方法都是采用端到端的训练方法,非常有利于模型的优化。

(2)机器翻译
早期的基于神经网络的机器翻译系统是在传统模型中引入深度学习模型作为辅助特征。比较有代表性的是,Devlin 等人[19]将神经网络语言模型引入到传统机器翻译框架的解码过程,并取得了 3 个 BLEU 值的提升。该工作也得到了 2014 年 ACL 的最佳论文奖。之后,越来越多的研究者开始采用端到端的深度学习模型来进行机器翻译。Sutskever 等人[20]采用了单一神经网络架构的序列到序列模型。首先利用一个 LSTM模型来得到源语言的向量表示,然后再利用一个基于LSTM 的语言模型来生成目标语言。序列到序列的机器翻译模型如图 1 所示。ABC 为源语言,WXYZ 为目标语言。Bahdaau 等人[21]在序列到序列的机器翻译模型的基础上,在生成目标语言时,加入了注意力机制来自动学习目标词在源语言上的对齐词。Dong 等人[22]利用多任务学习方法来联合学习从一种源语言到多个目标语言的翻译模型。通过在一对多的序列到序列的机器翻译模型中共享源语言的表示,可以更有效地建模源语言端的编码模型。Meng 等人[23]利用神经图灵机[24]来建立一个深层的记忆神经网络,并取得了很好的翻译效果。不同层的记忆之间通过控制器和读写操作进行交互。
image

(3)自动问答
自动问答是指给定一个背景语料库或一些事实,系统可以自动分析输入的问题,并利用语料库中的知识给出答案。传统的自动问答系统一般分为很多模块。每个模型分别进行优化。随着深度学习算法的不断发展,人们开始关注如何学习一个端到端的完全基于神经网络的自动问答模型。Kumar 等人[25]
提出了一个基于动态记忆神经网络的自动问答系统。借鉴 LSTM 模型中的记忆模块的想法,建立一个外部的记忆模块,并用 GRU 模型来编码给定的背景事实信息作为情景记忆,然后用另外一个 GRU 模型来得到问题的表示,再利用注意力机制来建模问题表示和情景记忆之间的交互,并生成答案。整个系统可以进行端到端的联合训练。图 2 给出了基于动态记忆神经网络的自动问答系统示例。Sukhbaatar 等人[26]也提出了一个类似的端到端的
基于记忆神经网络的自动问答模型。和 Kumar 等人的模型不同之处在于用了不同的外部记忆模块的表示机制以及不同的问答到情景记忆的交互机制Hermann等人[27]利用双向 LSTM 模型,提出了三种不同的交互机制建立问题和背景文档的联合表示,然后通过一个分类器来预测答案。
image

(4)自动文摘
自动文摘是指自动地从原始文章中提取一个简短的能够全面反映原文内容的摘要。自动文摘有两种类型,一种是抽取式文摘,从原始文章中抽取一些代表性的句子;另一种是理解式文摘,先理解原始文章,在通过自然语言生成来产生摘要。受到传统方法的限制,以前的自动文摘一般是抽取式文摘,并且研究进展缓慢,逐渐受到冷落。自动文摘又开始逐渐成为研究热点。一开始研究者关注于如何利用分布式表示来改进抽取式文摘方法中的句子之间的相似度计算 [28-29] 。随着深度学习在统计语言模型的成功,并在端到端机器翻译模型的启发下,研究者开始关注如何直接建立一个端到端的基于神经网络的理解式自动文摘系统。Rush 等人[30]尝试利用神经词袋模型、卷积神经网络模型以及基于注意力的卷积神经网络模型来得到原始文章的向量表示,然后再通过神经语言模型来生成摘要。通过大规模的训练数据,在 DUC 自动文摘数据集上取得了很好的效果。

综上所述,深度学习在自然语言处理领域的进展非常迅速。两年前人们还认为深度学习对语言这种非自然信号并不有效。通过这两年的发展,深度学习方法已经在自然语言处理的很多任务上都取得了很大的进展,并超越了传统统计学习的方法。虽然取得的进展和语音识别、计算机视觉领域相比还不太显著,但是已经大大提升了研究者对深度学习在自然语言处理领域上的预期。此外,随着对深度学习认识的加深,研究者逐渐开始摆脱传统自然语言处理框架的限制,采用全新的深度学习框架来进行端到端的自然语言处理,并且也催生了很多新的应用,比如看图说话、自动写作等。相信未来几年,深度学习方法在自然语言处理领域会取得更大的突破。

网友评论

登录后评论
0/500
评论
知与谁同
+ 关注
所属团队号: CCAI