炼数成金 门户 商业智能 自然语言处理 查看内容

一次性生成完整句子!Salesforce发布首个「全并行」神经翻译系统

2017-11-10 10:54| 发布者: 炼数成金_小数| 查看: 11256| 评论: 0|原作者: JiataoGu、 James Bradbury|来自: 雷克世界
摘要: Salesforce研究院去年了成立研究院,之后又发布其人工智能服务Einstein AI。该研究院在自然语言处理,尤其是翻译方面取得了很多成绩,雷克世界此前曾对其「通过情景化词向量从翻译中学习」(http://mp.weixin.qq.com ...
网络 工具 模型 神经网络 深度学习
Salesforce研究院去年了成立研究院,之后又发布其人工智能服务Einstein AI。该研究院在自然语言处理,尤其是翻译方面取得了很多成绩,雷克世界此前曾对其「通过情景化词向量从翻译中学习」(http://mp.weixin.qq.com/s/3GndUC9-8C5UONsgUqKoDA)进行过报道。近日,他们有推出了令人振奋的科研成果,他们通过全并行的文本生成,用于神经机器翻译。

在过去的几年里,随着技术的飞速发展,神经网络推动了自然语言任务在准确性和质量方面的快速提高,如文本分类和问题回答等。而其中由深度学习带来的一个令人印象深刻的领域是需要机器来生成自然语言文本的任务。其中两个任务是基于神经网络模型且具有较先进的性能的是文本摘要和机器翻译。

然而,到目前为止,所有基于神经网络和深度学习的文本生成模型都具有相同的、令人惊讶的局限性:就像我们一样,它们只能逐个单词,甚至逐个字母地生成语言。如今,Salesforce正宣布了一个能够克服这种局限性的神经机器翻译系统,它可以以完全并行的方式,一次性生成一个完整的句子。而这意味着用户的等待时间减少了10倍,同时翻译质量也与较好的逐单词模型非常相近。

图1:模型概述:我们使用的所有层(包括词嵌入、注意、MLP和softmax层)可以并行操作,而“生成力预测器”,正如下面描述的那样,尽管是在并行性的情况下,仍然可以实现高质量、自一致的输出翻译。

高效的神经机器翻译
自2014年以来,随着神经网络和深度学习,以及所谓的神经机器翻译的应用,机器翻译领域取得了巨大的进步。特别是随着注意的使用,在2015年出现了一个飞跃式发展,现在则是涉及从蕴涵到问题问答的自然语言处理任务的关键技术。

尽管相较于传统方法来说,神经机器翻译模型的翻译质量要高得多,但与此同时,神经MT模型的慢是以一种至关重要的方式呈现的:它们有更高的延迟,这是完成用户所提供的新文本的翻译所需要的时间。这是因为现有的神经机器翻译系统每次只翻译一个单词,且需要运行整个神经网络,而其中每个单词的生成需要数十亿的计算。

因此,计算效率一直是现如今神经机器翻译领域所研究的一个主要目标。大约一年前,四个研究小组已经发表了关于更高效的神经MT模型的论文,主要是为了消除循环神经网络(RNNs)的使用。这在深度学习序列模型中是很常见的,但由于它们本质上来说是很难并行化的,所以运行速度很慢。因此,DeepMind引入了ByteNet,它使用的是基于卷积神经网络的并行树结构以此来替代RNN。Salesforce Research提出了QRNN,这是一种高效的RNN层替代方案,可以提高在机器翻译和其他任务领域的性能。今年早些时候,Facebook AI Research发布了完全卷积神经MT,而Google Brain则描述了一种翻译模型的改进,即较先进的完全基于注意的MT模型。

所有这些方法都使得模型可以进行更快的训练,并且还可以在翻译时间上提高效率,但是它们都存在前面所述的同样的局限性问题:即它们都是逐个单词地输出。

克服逐个单词翻译的限制
其实,这主要是由现有神经网络序列模型的基本技术属性导致的:它们是自回归的,这意味着它们的解码器(产生输出文本的组件)需要使用先前输出的文本来产生其输出的下一个单词。也就是说,自回归解码器使得后面的单词生成是以前面的单词为基础的。当然,这个属性也有若干好处,特别是,它使自回归模型可以更容易地进行训练。

我们的模型(非自回归(non-autoregressive),因为它没有上述属性)就像最近发布的改进版一样,是始于相同的基础神经网络层,但是引入了一个完全不同的基于“生成”的文本生成过程,这是一个来自IBM在20世纪90年代初推出的传统机器翻译研究中的概念。这种潜生成模型是本文所主要介绍的。

非自回归神经机器翻译
先前的神经机器翻译模型和我们的新的非自回归模型之间的区别,可以用以下两个动画来进行表示。紫色圆点代表“编码器1”中的神经网络层,“编码器1”是一个用以理解和解释输入句子(此处指的是英文)的网络;蓝色点代表“解码器2”中的层,其工作是将这种理解转换成另一种语言(此处指的是德语)表示的句子;而彩色的线代表层之间的注意连接,使得网络能够将句子不同部分的信息结合在一起。请注意,两个模型中的紫色编码器层可以同时运行(动画的第一部分,用密集的红色注意连接),而第一个动画中的蓝色解码器层必须在一次处理一个单词,因为在解码器开始产生下一个之前,每个输出单词必须做好准备(见棕色箭头)。

  
图2:自回归神经机器翻译。输出句子是逐个单词生成的,因为每个输出步骤在不知道先前生成的单词的情况下不能开始。

下一个动画展示了我们模型的基本工作方式。其中,编码器和解码器都可以并行工作,而不是逐个单词地输出。现在编码器有两个任务:首先它必须对输入句子进行理解和解释,但是它也必须预测一系列数字(2,0,0,2,1),然后将其用于启动并行解码器,这可以通过直接从输入的文本中进行复制,而不需要进行棕色箭头所指的自回归操作。这些数字被称为生成力(fertilities); 它们代表了每个单词在输出句子中所占有的空间。所以如果一个单词的生成力是2,那么这意味着模型决定在输出中分配两个单词来对其进行翻译。
图3:非自回归神经机器翻译使用我们的潜在生成力模型。输出句子是以并行方式生成的。

生成力序列为解码器提供了一个计划或规划,使其能够并行地生成整个翻译。如果没有像这样的计划(称为潜变量),并行解码器的任务就像一个翻译小组一样,每个译者都必须提供一个输出翻译的单词,但是不能提前告诉对方他们准备说什么。我们将生成力作为一个潜变量,确保这个隐喻的翻译小组中的所有译者都能够以并行方式尽心工作,从而做出彼此相一致的翻译决定。

实验
尽管数量级有较低的延迟,但我们的模型将我们测试过的语言对之一(英语译成罗马尼亚语)的较佳翻译质量(以BLEU评分衡量)联系起来,并在其他语言上获得了非常好的结果。

表1:五个流行数据集的非自回归翻译模型的结果。标有“NAT”的行显示了我们模型的性能,没有我们称之为微调的额外训练步骤;“NAT-FT”则包括这些步骤。“NPD”是指噪声并行解码,这意味着要并行地尝试几个不同的生成计划,然后选择较好的一个。自回归模型使用相同的架构和相同的模型大小;“b = 4”表示波束大小为4的波束搜索。

示例
我们模型的好处之一是用简单的方法来获得更好的翻译:尝试并行几个不同的生成计划,然后从另一个同样快速的翻译模型中选择较好的输出。下面以罗马尼亚语-英语的示例显示“噪音并行解码”过程:
图4:噪声并行解码的例子。首先,编码器在输出句子中产生几个可能的计划,如中间所示,用于输出语句中的空间分配。这些生成计划中的每一个都能导致不同可能的输出翻译,如右图所示。然后,自回归MT模型选择较佳翻译,用红色表示,这个过程比直接使用它生成输出要快得多。总之,NPD的两个步骤带来的总延迟仅为非自回归模型的两倍。


论文:《非自回归神经机器翻译》

摘要
现有的神经机器翻译方法对先前生成的输出中的每个输出字进行调整。我们引入一种模型来避免这种自回归属性并且产生并行输出,从而在推理过程中遵循一个数量级的较低延迟的原则。通过知识精炼,使用输入生成力作为潜在变量,并进行策略梯度微调,相对于用作参照的自回归变换网络,我们牺牲的BLEU得分仅为2.0。我们展示了与训练策略三个方面相关的大量累积改进,并验证了我们在IWSLT 2016英语-德语和两个WMT语言对上的方法。通过在推断时间内并行采样生成力,我们的非自回归模型在WMT 2016 英语-罗马尼亚语上实现了近29.8 BLEU的表现。

下载论文:https://einstein.ai/static/images/pages/research/non-autoregressive-neural-mt.pdf

欢迎加入本站公开兴趣群
商业智能与数据分析群
兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754

鲜花

握手

雷人

路过

鸡蛋

相关阅读

最新评论

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

  GMT+8, 2017-11-24 17:12 , Processed in 0.259909 second(s), 26 queries .