摘要
一种基于元学习及语言对子网的多语言神经机器翻译模型训练方法,它属于机器翻译技术领域。本发明解决了现有的多语言翻译共享模型的翻译性能差的问题。本发明借助ML方法对多语言翻译模型进行初始参数优化,得到局部最优参数值,ML通过学习任务间共享表示,并对每种语言对进行自适应调整,可以减少参数干扰,保证翻译性能。通过学习语言特定子网可以获得每种语言对任务的掩码矩阵,在模型训练时每次仅仅更新输入语言对数据对应的模型参数,使多语言翻译模型能够避免参数干扰,同时提升训练效率。在后续翻译任务中,仅需要掩码矩阵中元素1对应的模型参数来参与翻译结果预测,降低了模型计算的复杂度。本发明方法可以应用于机器翻译领域。
技术关键词
机器翻译模型
多语言
掩码矩阵
参数
元学习方法
词典
数据
目标语言句子
训练集
机器翻译技术
英语
语句
注意力
分割方法
分词
标识
解码器
系统为您推荐了相关专利信息
搜索优化算法
掩码矩阵
修正方法
风电数据处理技术
重构模块
学习路径规划方法
智能工厂
无人车
网络
策略更新
生命周期管理
初始运行状态
决策算法
数据实时交互
电子设备管理技术