登录 注册
当前位置:主页 > 资源下载 > 9 > 一种新的方法,即通过共同学习对输出字符和输入标记的关注来建模编码器状态的注意力,称为“左移-Attention-for-NMT”的MATLAB代码

一种新的方法,即通过共同学习对输出字符和输入标记的关注来建模编码器状态的注意力,称为“左移-Attention-for-NMT”的MATLAB代码

  • 更新:2024-12-13 23:31:26
  • 大小:173.15MB
  • 推荐:★★★★★
  • 来源:网友上传分享
  • 类别:Matlab - 大数据
  • 格式:ZIP

资源介绍

matlab代码左移神经机器翻译(seq2seq)教程 作者:Thang Luong,Eugene Brevdo,赵瑞 此版本的教程要求 介绍 序列到序列(seq2seq)模型(,)在各种任务(例如机器翻译,语音识别和文本摘要)中都取得了巨大的成功。 本教程为读者提供了对seq2seq模型的全面理解,并展示了如何从头开始构建具有竞争力的seq2seq模型。 我们专注于神经机器翻译(NMT)的任务,这是带有wild的seq2seq模型的第一个测试平台。 所包含的代码轻巧,高质量,可立即投入生产,并结合了最新的研究思路。 我们通过以下方式实现这一目标: 使用最新的解码器/注意包装器,TensorFlow 1.2数据迭代器 结合我们在构建递归模型和seq2seq模型方面的专业知识 提供有关构建最佳NMT模型和复制的提示和技巧。 我们认为,提供人们可以轻松复制的基准非常重要。 因此,我们提供了完整的实验结果,并在以下公开可用的数据集上对模型进行了预训练: 小型:由ET提供的TED演讲的英语-越南语平行语料库(133K句子对)。 大型:由所提供的德英平行语料库(450万个句子对)。 我们首先建立