摘要
本发明公开了一种基于BERT的鲁棒性增强文本分类模型训练方法及系统,主要解决现有BERT模型在下游语言分类任务中稳定性和可靠性差的问题。其包括:在BERT预训练模型上搭建NSP任务的第一神经网络及下游文本分类任务的第二神经网络构建微调模型;获取模型所需的语言数据集,对每个样本添加标记和不影响分类任务的限制语句构成新样本;将全部样本分为多个集合,用一个集合的训练样本仅对微调模型的第二神经网络和BERT的参数进行训练,更新迭代完成后换下一个集合继续训练,直到达到设定的迭代次数或训练集损失在连续多个周期内变化幅度低于预设值,得到训练好的下游语言分类任务模型。本发明模型能有效提高分类精度和计算效率,可用于下游文本分类任务及意图识别场景。
技术关键词
样本
分类任务模型
参数更新模块
鲁棒性
BERT模型
语句
文本分类模型训练
神经网络输出层
标记
非线性
数据
正则化参数
训练集
意图识别
模型更新
系统为您推荐了相关专利信息
样本
计算机执行指令
高斯分布模型
监控方法
训练集
编织角度
工艺参数优化方法
协同优化算法
关系
密度