Neural Headline Generation with Minimum Risk Training

简介:

综述


本文研究NHG(Neural Headline Generation)模型。

用Neural的思路来解决HG问题有以下优势:

1、完全数据驱动,不依赖与人工标注和语言学特征。

2、完全端到端,引入注意力机制会得到更好的效果。

存在以下弊端:

1、当前的优化方法都是用最大似然估计(MLE)来训练数据,没有将评价指标考虑在内。

本文用Minimum Risk Training(MRT)来改善NHG模型,将评价指标考虑在优化目标内,在中文和英文两个真实数据集上取得了不错的结果。


NHG模型

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

模型采用encoder-decoder框架,encoder和decoder都采用rnn作为模型。


Encoder

Encoder包括两种:GRUBi-RNN

Bi-RNN克服了传统RNN的语义偏置最后一个词的缺点。


Decoder

Decoder采用GRU,在生成结果时引入了注意力模型。


MRT+NHG


MLE

传统的训练方法都是采用最大似然估计来做,目标函数如下:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

MRT

本文采用了最小风险训练方法来训练模型,目的是减少期望的损失。目标函数如下:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

进一步可以推出:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

作进一步近似处理:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

公式中的640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=用来计算误差,这样训练处的模型将会将评价指标考虑在内。ROUGE是最常见的评价方法,所以本文考虑将ROUGE评价方法融入到目标函数中。

ROUGE

本文考虑两种ROUGE指标,ROUGE-N和ROUGE-L。本文为了将ROUGE评价指标融入到目标函数中,定义了

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=


实验结果


DUC2004评测对比结果:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

英文数据集上,本文模型的结果明显优于其他模型,包括之前的ABS+模型。

中文LCSTS数据上平尺对比结果:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

采用MRT目标函数的模型远优于MLE作为目标函数的模型。


Review


本文通过将评价指标融入目标函数来训练模型,在中文和英文数据集上均取得了超过之前所有模型的结果。结果一点也不意外,因为传统的MLE并不是以ROUGE评价指标最大为目标函数,而本文的方法针对了评价指标来做文章,一定会得到不错的结果。反过来,我们需要思考一个问题,如果文本摘要领域中出现了一个更加科学和准确的评价指标,不仅仅简单的比共现n-gram,那么本文的模型会不会得到一个优于其他模型的结果呢?个人觉得本文的方法很好地利用了评价指标,但对于研究摘要问题的本质并无太多的帮助,只是获得了更好的指标。有一点投其所好的感觉。


来源:paperweekly


原文链接

相关文章
|
9月前
|
机器学习/深度学习 人工智能 自然语言处理
OneIE:A Joint Neural Model for Information Extraction with Global Features论文解读
大多数现有的用于信息抽取(IE)的联合神经网络模型使用局部任务特定的分类器来预测单个实例(例如,触发词,关系)的标签,而不管它们之间的交互。
113 0
|
9月前
|
机器学习/深度学习 人工智能 算法
【5分钟 Paper】Reinforcement Learning with Deep Energy-Based Policies
【5分钟 Paper】Reinforcement Learning with Deep Energy-Based Policies
|
9月前
|
算法 Go
【5分钟 Paper】Continuous Control With Deep Reinforcement Learning
【5分钟 Paper】Continuous Control With Deep Reinforcement Learning
|
9月前
|
机器学习/深度学习 算法
【RLchina第四讲】Model-Based Reinforcement Learning(下)
【RLchina第四讲】Model-Based Reinforcement Learning(下)
116 0
|
机器学习/深度学习 算法 数据挖掘
A Generative Adversarial Network-based Deep Learning Method for Low-quality Defect ImageReconstructi
本文提出了一种基于生成对抗网络 (GAN) 的 DL 方法,用于低质量缺陷图像识别。 GAN用于重建低质量缺陷图像,并建立VGG16网络识别重建图像。
103 0
|
机器学习/深度学习 存储 传感器
Automated defect inspection system for metal surfaces based on deep learning and data augmentation
简述:卷积变分自动编码器(CVAE)生成特定的图像,再使用基于深度CNN的缺陷分类算法进行分类。在生成足够的数据来训练基于深度学习的分类模型之后,使用生成的数据来训练分类模型。
100 0
|
机器学习/深度学习 传感器 数据挖掘
Review on the Recent Welding Research with Application of CNN-Based Deep Learning
Guo等人16)将CNN应用于线管制造过程中的电阻焊,提出了一种正常焊缝与缺陷焊缝的分类模型,准确率达到99.01%。
68 0
《Multi-Task Multi-Network Joint-Learning of Deep Residual Networks and Cycle-Consistency Generative Adversarial Networks for Robust Speech Recognition》电子版地址
Multi-Task Multi-Network Joint-Learning of Deep Residual Networks and Cycle-Consistency Generative Adversarial Networks for Robust Speech Recognition
74 0
《Multi-Task Multi-Network Joint-Learning of Deep Residual Networks and Cycle-Consistency Generative Adversarial Networks for Robust Speech Recognition》电子版地址
|
搜索推荐 PyTorch 算法框架/工具
Re30:读论文 LegalGNN: Legal Information Enhanced Graph Neural Network for Recommendation
Re30:读论文 LegalGNN: Legal Information Enhanced Graph Neural Network for Recommendation
Re30:读论文 LegalGNN: Legal Information Enhanced Graph Neural Network for Recommendation