对 【Sequence to Sequence Learning with Neural Networks】的理解

2021-01-14 16:15

阅读:713

标签:图像   实现   googl   https   性能提升   深度   embed   随机   获得   

零、背景及引言

本文是对Sequence to Sequence Learning with Neural Networks文章阅读后的总结。
在不同的学习任务中,传统深度神经网络(DNN)是表现不错的强力模型,如在图像分类、语音识别领域,但DNN由于不能适应输入输出不固定的情况,导致其不能够用于序列到序列的映射任务。 在2014年,Google的三位作者提出基于端到端的序列到序列模型:本质上是由2个4层的LSTM来分别构成编码器和解码器。实验结果表明:在机器翻译领域,达到了SOTA效果,好于传统的统计机器翻译(SMT)。

一、模型及训练

1.1 模型介绍

普通RNN能够有效捕捉序列数据(如文本数据)的语义信息,并映射生成新的序列数据,但RNN对长距离依赖表现不好,同时由于训练时存在梯度弥散和梯度爆炸而难以训练,因此作者使用LSTM代替RNN。
论文中的Seq2Seq模型是由2个4层的LSTM来分别构成编码器和解码器。训练时对对每个句子结尾加入标志 ,通过多层LSTM将源句子(将要被翻译的句子)映射为固定维度(原文用1000维)的向量,并使用另一个多层LSTM将该向量映射为目标句子(待翻译的句子),源句子和目标句子的长度可能不一样。其网络架构图如下图:
技术图片

  • 模型目的是求最大化条件概率,如下图
    技术图片

1.2 数据集及评价指标

数据集使用WMT‘14 dataset,是英语到法语翻译,文中表示训练了12M的句子,共包括348M个法语词汇和304M个英语词汇,其中涉及最常用的unique英语单词160000个及unique法语单词80000个,对于词表外的单词使用表示

1.3 输入句子反转

原文作者发现使用源句子在训练时,将句子的顺序逆序输入(目标句子不逆序)会获得不错的性能提升,如ppl从5.8变为4.7, BLEU score从 25.9变为30.6

1.4 并行化

LSTM使用C++实现,整个网络共8层LSTM,使用8块GPU计算,并使每块GPU跑一层LSTM, 每秒单词处理数从1700升至为6300

1.5 几点训练细节

  • LSTM的初始化权重使用[-0.08 , 0.08]的均匀分布
  • 使用不带动量的随机梯度下降算法训练,初始学习率为0.7,并训练5个epoch,在随后的2.5个epoch中,每0.5个epoch训练时学习率减半
  • batch size为 128
  • 每个LSTM各使用4层, 分别表示encoder和decoder , 每层1000个cell,embedding dim 为1000
  • LSTM可有效避免梯度消失,但对于梯度爆炸却没有好办法处理,因此原文强制限制梯度[10 , 25]之间,对于每个训练batch,有对应梯度转换公式
  • 每个batch 尽量选择句子长度相当的句子来训练,可减少padding,加速训练

二、实验结果

  • 使用beam search来优化计算速度
    beam size 分别为1、2、12,并使用ensemble集成来优化结果, 具体实验结果如下图:
    技术图片

  • 对长句子及不同句子的词频rank实验
    模型对长句子处理效果蛮好,对句子的词频rank测试发现翻译效果先上升后逐步下降
    技术图片

三、个人总结

  1. Seq2Seq整体架构在NLP领域的首提很新颖,对于训练数据逆序输入的trick很令人amazing
  2. 对不同词频rank后的翻译效果先上升再逐步下降,看来是词频对Seq2Seq的MT任务是有影响的,猜测刚开始随词频上升是因为停用词或短句影响结果。

四、参考

  • [1] Seq2Seq 模型详解

对 【Sequence to Sequence Learning with Neural Networks】的理解

标签:图像   实现   googl   https   性能提升   深度   embed   随机   获得   

原文地址:https://www.cnblogs.com/andre-ma/p/13417352.html


评论


亲,登录后才可以留言!