网易首页 > 网易号 > 正文 申请入驻

神经机器翻译的混合交叉熵损失函数 ICML 2021

0
分享至

本文提出了一个新的损失函数,混合交叉熵损失(Mixed CE),用于替代在机器翻译的两种训练方式(Teacher Forcing和 Scheduled Sampling)里常用的交叉熵损失函数(CE)。

Mixed CE实现简单,计算开销基本和标准的CE持平,并且在多个翻译数据的多种测试集上表现优于CE。这篇文章我们简要介绍Mixed CE的背景和一些主要的实验结果。

文章和附录:http://proceedings.mlr.press/v139/li21n.html

代码:https://github.com/haorannlp/mix

1

背景

本节简单介绍一下Teacher ForcingScheduled Sampling的背景。

Teacher Forcing[1]训练方式指的是当我们在训练一个自回归模型时(比如RNN,LSTM,或者Transformer的decoder部分),我们需要将真实的目标序列(比如我们想要翻译的句子)作为自回归模型的输入,以便模型能够收敛的更快更好。通常在Teacher Forcing(TF)这种训练方式下,模型使用的损失函数是CE:

值得注意的是,机器翻译(MT)本身是一个一对多的映射问题,比如同样一句中文可以翻译成不同的英文,而使用CE的时候,因为每个单词使用一个one-hot encoding去表示的,这种情况下MT是被我们当作了一个一对一的映射问题。这种方式可能会限制模型的泛化能力,因为使用CE的模型学到的条件分布 更接近于一个one-hot encoding,而非数据真实的条件分布。但不可否认的是,即使模型用CE训练,它在实践中也取得了很好的效果。CE在实践中的成功意味着模型学习到的条件分布可能也包含着部分真实分布的信息。我们能不能在训练的时候从 提取 的信息呢?这就是我们的Mixed CE所要完成的目标。

虽然TF训练方式简单,但它会导致exposure bias的问题,即在训练阶段模型使用的输入来自于真实数据分布,而在测试阶段模型每一时刻使用的输入来自于模型上一时刻的预测结果,这两个输入分布之间的差异被称作exposure bias。

因此,研究者们进而提出了Scheduled Sampling[2](SS)。在自回归模型每一时刻的输入不再是来自于真实数据,而是随机从真实数据或模型上一时刻的输出中采样一个点作为输入。这种方法的本质是希望通过在训练阶段混入模型自身的预测结果作为输入,减小其与测试阶段输入数据分布的差异。也就是说,SS所做的是让训练输入数据分布近似测试输入数据的分布,从而减轻exposure bias。

而另一种减轻exposure bias的思想是,即使训练和测试阶段输入来自不同的分布,只要模型的输出是相似的,这种输入的差异性也就无关紧要了。我们的Mixed CE就是想要达到这样的目标。

需要注意的一点是,SS本来是用于RNN的,但由于Transformer的兴起,后续的研究者们提出了一些改进的SS以便适用于Transformer decoder在训练阶段能够并行计算的特性。即运行Transformer deocder两次,第一次输入真实的数据,然后从t时刻的输出分布里采样一个数据点, 最终得到一个序列。接着,将和目标序列里面的元素随机进行混合,得到新序列。然后把作为decoder的输入,按照正常方式进行训练。

2

方法

我们提出的Mixed CE可以同时用于TF和SS两种训练方式中。

在TF中,为了应用MixedCE,我们首先做出一个假设:如果模型当前预测的概率最大的token和目标token不一致,那我们认为预测的token很有可能是目标token的同义词或者同义词的一部分。

我们做出这个假设是因为在实际中的平行语料库里,同样一个源语言的单词在目标语言会有多种不同的翻译方式。如果这些不同的翻译在语料库里出现的频率相差不多,那么在预测该源语言单词时,模型非常有可能给这些不同的翻译相似的概率,而概率最大的那种翻译方式恰好是目标token的同义词。

具体来说,Mixed CE的公式如下:

这里的是模型在当前时刻模型预测的最有可能的结果,而根据我们之前的假设,有可能是的同义词。Mixed CE通过以作为目标进行优化,有效利用了中含有的真实分布的信息。同时,这里的 , 是当前训练的iteration,total_iter代表了总的训练轮数。随着训练的进行,模型的效果越来越好,会不断增大,Mixed CE中第二项的权重也就越大。

在SS中,Mixed CE的形式类似于上述公式:

这里的是对第一次运行Transformer decoder的输出进行greedy采样的结果。第一次运行Transformer decoder时的输入是真实的目标序列,而第二次运行时的输入是序列。通过优化这个目标函数的第二部分,无论模型输入是还是,模型总是能够输出相似的结果,也就是说,模型能够忽略输入分布的差异,从而减轻了exposure bias的问题。

值得注意的是,相比于CE,Mixed CE在训练期间只增加很少的计算量,额外的计算量来自于寻找模型预测结果的最大值。

3

实验

由于篇幅有限,我们只列出几个重要的实验结果,更详细的实验结果可以在原文中找到。

在TF训练方式中,我们在WMT’14 En-De上的multi-reference test set上面进行了测试。在这个测试集中,每个源语言的句子有10种不同的reference translation,我们利用beam search为每一句源语言句子生成10个candidate translations,并且计算了每一个Hypothesis相对于每一种reference translation的BLEU分数,并且取它们的平均值或者最大值。结果如下:

我们可以看到Mixed CE在所有reference上面始终优于标准CE。

另外,我们也在一个paraphrased reference set(WMT’19 En-De)上面进行了测试。这个测试集里面的每一个reference都是经过语言专家的改写,改写后的句子结构和词汇的使用都变得更复杂。结果如下:

Mixed CE仍然优于CE。通常在这个测试集上,0.3~0.4 BLEU的提升就表明效果就很显著了。

由于Mixed CE的形式类似于label smoothing,所以我们也具体比较了Mixed CE和label smoothing。我们利用Pairwise-BLEU(PB)衡量模型输出分布的平滑程度,PB越大,输出分布越陡峭,反之则越平滑。结果如下:

可以看到,加入label smoothing之后,输出分布变得更加平滑,而Mixed CE使得输出分布变得更加陡峭。所以Mixed CE和label smoothing是不同的。并且从BLEU的分数可以看出, label smoothing和Mixed CE并不是一个互斥的关系,两者共用效果会更好。

在SS中,我们以SS和word oracle(SS的一个变种)作为Baseline。结果如下:

可以看到Mixed CE总是好于CE。此外,我们在论文中还提供了ablation study,以确认Mixed CE中的第二项对性能的提升是必不可少的。

此外,我们在附录中也列出了一些关于domain adaptation的初步实验,欢迎大家继续探索Mixed CE在其他领域的应用。

4

结论

在本文中我们提出了Mixed CE,用于替换在teacher forcing和scheduled sampling中使用CE损失函数。实验表明在teacher forcing里,Mixed CE在multi-reference, paraphrased reference set上面的表现总是优于CE。同时,我们也对比了label smoothing和Mixed CE,发现它们对输出分布的影响是不同的。在scheduled sampling当中,Mixed CE能够更有效的减轻exposure bias的影响。

参考文献
[1]. Williams, R. J. and Zipser, D. A learning algorithm for continually running fully recurrent neural networks. Neural Computation, 1(2):270–280, 1989.[2]. Bengio, S., Vinyals, O., Jaitly, N., and Shazeer, N. Scheduled sampling for sequence prediction with recurrent neural networks. In Advances in Neural Information Processing Systems, volume 28, pp. 1171–1179. 2015.

若二维码过期或群内满200人时,添加小助手微信(AIyanxishe3),备注ICML2021拉你进群。

雷锋网雷锋网雷锋网

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
嘲笑川普的人该补历史课:美国购买格陵兰是150年的国家战略

嘲笑川普的人该补历史课:美国购买格陵兰是150年的国家战略

斌闻天下
2026-01-22 06:20:03
集中上百架F35,10分钟赶到台海,部署东亚前线,美军模拟大决战

集中上百架F35,10分钟赶到台海,部署东亚前线,美军模拟大决战

老赳说历史
2026-01-22 15:12:17
我出售南京的大平层搬进女儿家,女儿以为我睡熟了,跟女婿密谋

我出售南京的大平层搬进女儿家,女儿以为我睡熟了,跟女婿密谋

朝暮书屋
2026-01-21 17:26:45
父亲术后46天离世,交大硕士怒扒60万账单:34次会阴清洗,撕开医院医保黑洞

父亲术后46天离世,交大硕士怒扒60万账单:34次会阴清洗,撕开医院医保黑洞

犀利辣椒
2025-12-08 06:23:07
人血馒头吃不停!好友爆梁小龙去世细节,小20岁娇妻赌赢了!

人血馒头吃不停!好友爆梁小龙去世细节,小20岁娇妻赌赢了!

皮蛋儿电影
2026-01-19 22:15:36
中方已做好最坏打算!南海发生激烈对峙,黄岩岛突现072登陆舰队

中方已做好最坏打算!南海发生激烈对峙,黄岩岛突现072登陆舰队

老范谈史
2026-01-22 01:41:37
CCTV5调整直播!中国队冲首座冠军,决赛还未开打,迎来2个坏消息

CCTV5调整直播!中国队冲首座冠军,决赛还未开打,迎来2个坏消息

侃球熊弟
2026-01-22 00:10:35
陈婷终于熬出头了,婆婆去世、老公老了、儿子大了,印证杨幂的话

陈婷终于熬出头了,婆婆去世、老公老了、儿子大了,印证杨幂的话

泪满过眼
2026-01-20 15:35:31
别害安东尼奥!媒体人:他不该执教国足,让他为中国足球打造未来

别害安东尼奥!媒体人:他不该执教国足,让他为中国足球打造未来

奥拜尔
2026-01-22 13:51:13
女人敢对你说这4句话,明显就是想要“撩”你,你能听懂吗?

女人敢对你说这4句话,明显就是想要“撩”你,你能听懂吗?

幸福的拉拉
2026-01-21 07:00:12
亚历山大40分7篮板11助攻雷霆擒雄鹿2连胜,字母哥19分14板7助

亚历山大40分7篮板11助攻雷霆擒雄鹿2连胜,字母哥19分14板7助

湖人崛起
2026-01-22 13:00:14
第一个捐款的明星出现了!苗圃现身嫣然医院捐款,更多名人发声了

第一个捐款的明星出现了!苗圃现身嫣然医院捐款,更多名人发声了

萌神木木
2026-01-21 17:18:03
许金花身世曝光!无父无母,当过坐台小姐,离2次婚,收买3个孩子

许金花身世曝光!无父无母,当过坐台小姐,离2次婚,收买3个孩子

奇思妙想草叶君
2026-01-21 17:23:34
李亚鹏最骄傲的投资:16年养大的汶川女孩,如今给他转了10008元

李亚鹏最骄傲的投资:16年养大的汶川女孩,如今给他转了10008元

牛牛叨史
2025-12-10 22:19:51
李湘风波再发酵!家境被扒底朝天,父母身份曝光,原来何炅没说错

李湘风波再发酵!家境被扒底朝天,父母身份曝光,原来何炅没说错

不写散文诗
2026-01-22 19:43:34
林诗栋险胜,向鹏黄友政出局,男单八强已出四席,国乒占了两席

林诗栋险胜,向鹏黄友政出局,男单八强已出四席,国乒占了两席

湘楚风云
2026-01-22 19:10:33
越南数万名球迷街头围观“中越之战”,郑州球迷“混入”其中:中国队进球时,周围是寂静的、我内心是沸腾的

越南数万名球迷街头围观“中越之战”,郑州球迷“混入”其中:中国队进球时,周围是寂静的、我内心是沸腾的

极目新闻
2026-01-21 12:05:57
老一辈人经常吃咸菜,为何很少生病呢?医生坦言:其实原因很简单

老一辈人经常吃咸菜,为何很少生病呢?医生坦言:其实原因很简单

健康之光
2026-01-22 07:10:06
王征同志逝世

王征同志逝世

政知新媒体
2026-01-20 10:18:42
回顾“91女神”琪琪:五官出众,却因天真让自己“受伤”

回顾“91女神”琪琪:五官出众,却因天真让自己“受伤”

就一点
2025-11-22 10:36:39
2026-01-22 21:15:00
雷峰网 incentive-icons
雷峰网
关注智能与未来!
68398文章数 656057关注度
往期回顾 全部

科技要闻

几千亿只是开胃菜,AI基建还得再砸几万亿

头条要闻

自称"中国性商教母"的周媛被封 前员工:培训尺度较大

头条要闻

自称"中国性商教母"的周媛被封 前员工:培训尺度较大

体育要闻

跑个步而已,他们在燃什么?

娱乐要闻

车银优赚800亿 涉嫌逃税200亿!

财经要闻

西贝拿到“救命钱”,然后呢

汽车要闻

配备多块娱乐屏 极氪8X内饰曝光

态度原创

家居
艺术
亲子
教育
本地

家居要闻

法式风情 南洋中古居

艺术要闻

一场雪,飘进了唐诗

亲子要闻

有远见的父母,都懂得表白式养娃

教育要闻

心理“病”标签泛滥,毁了无数中国孩子

本地新闻

云游中国|格尔木的四季朋友圈,张张值得你点赞

无障碍浏览 进入关怀版