ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

ARAML: A Stable Adversarial Training Framework for Text Generation (EMNLP 2019)

2021-11-29 18:31:38  阅读:200  来源: 互联网

标签:Training Generation Text 生成器 生成 GAN EMNLP ARAML 文本


本文仅供学习使用
这是清华大学2019年在EMNLP发表的工作,文本生成方向。

ARAML: A Stable Adversarial Training Framework for Text Generation (EMNLP 2019)

最大似然估计是语言生成中的最常用的方法,但该方法面临包括偏差(Exposure Bias)问题。不少工作提出可以使用生成式对抗网络(Generative Adversarial Network, GAN)对文本生成进行优化,但在应用至离散的文本生成任务时会遇到梯度无法回传的问题。目前有两类主要方法来解决该问题:1) 连续性松弛:将离散的生成结果近似为连续空间的向量;2) 强化学习:将文本生成问题转化为强化学习中的序列决策问题,利用策略梯度(Policy Gradient)进行优化。

本工作主要关注强化学习优化方法中出现的训练不稳定问题,该问题主要来源于GAN生成器的采样过程。根据已有工作及实验,虽然GAN在文本生成领域通常会先用最大似然估计(Maximum Likelihood Estimation, MLE)对生成器进行预训练,但从生成器中采样得到的样本质量依然偏低,这导致判别器在策略梯度的优化过程中不能提供稳定的奖励信号,从而使得训练过程不稳定。

针对GAN训练不稳定问题,本工作提出了结合对抗奖励的最大似然优化框架(Adversarial Reward Augmented Maximum Likelihood, ARAML),该框架在训练生成器时会从与真实数据分布很接近的静态分布中采样,而不会像策略梯度方法那样从生成器的分布中采样,避免从生成器中获得质量差且明显偏离真实数据分布的训练样本。生成器的优化目标为带权的负对数似然函数,其中权重可根据判别器给出的分数计算,具体推导可参考论文https://www.aclweb.org/anthology/D19-1436。

实验结果表明,ARAML在COCO和EMNLP 2017 WMT数据集上均取得了较好的生成质量和多样性,且在多次重复实验中表现出了比其他baseline更好的稳定性。我们还对模型生成结果的指标随训练过程的变化趋势进行了可视化,结果表明ARAML显著提升了GAN在文本生成任务中的训练稳定性。本工作还在对话数据集上进行了测试和人工评价,并对模型中的重要设计做了消融实验,具体可参考论文。

https://www.aclweb.org/anthology/D19-1436

以上内容来自:http://coai.cs.tsinghua.edu.cn/thing/4

标签:Training,Generation,Text,生成器,生成,GAN,EMNLP,ARAML,文本
来源: https://www.cnblogs.com/xuehuiping/p/15620683.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有