摘要
本发明提供一种BERT模型的训练方法、系统、计算机设备、存储介质及程序产品,属于自然语言处理技术领域。其中方法包括利用预先构建的BERT模型以多个解码路径分别生成多个序列;将多个序列划分为正样本和负样本;利用参考模型对正样本和负样本进行采样,以构建偏好学习损失函数;构建正则惩罚项损失函数;构建掩码预测损失函数;根据偏好学习损失函数、正则惩罚项损失函数和掩码预测损失函数确定BERT模型的总损失,得到训练好的BERT模型。采用上述方案指导BERT模型学习不同解码路径对输出的影响,增强BERT模型在复杂解码空间中选择路径并生成更高质量序列的能力。
技术关键词
BERT模型
样本
序列
计算机可执行指令
sigmoid函数
计算机设备
解码
表达式
存储计算机程序
计算机程序产品
训练系统
处理器
模块
自然语言
标记
可读存储介质
存储器
策略
参数
系统为您推荐了相关专利信息
智能匹配方法
语义向量
BERT模型
场景
关键词
电池
LSTM模型
矩阵
神经网络激活函数
构建训练集