基于BERT的鲁棒性增强文本分类模型训练方法及系统

AITNT
正文
推荐专利
基于BERT的鲁棒性增强文本分类模型训练方法及系统
申请号:CN202511101164
申请日期:2025-08-07
公开号:CN120996127A
公开日期:2025-11-21
类型:发明专利
摘要
本发明公开了一种基于BERT的鲁棒性增强文本分类模型训练方法及系统,主要解决现有BERT模型在下游语言分类任务中稳定性和可靠性差的问题。其包括:在BERT预训练模型上搭建NSP任务的第一神经网络及下游文本分类任务的第二神经网络构建微调模型;获取模型所需的语言数据集,对每个样本添加标记和不影响分类任务的限制语句构成新样本;将全部样本分为多个集合,用一个集合的训练样本仅对微调模型的第二神经网络和BERT的参数进行训练,更新迭代完成后换下一个集合继续训练,直到达到设定的迭代次数或训练集损失在连续多个周期内变化幅度低于预设值,得到训练好的下游语言分类任务模型。本发明模型能有效提高分类精度和计算效率,可用于下游文本分类任务及意图识别场景。
技术关键词
样本 分类任务模型 参数更新模块 鲁棒性 BERT模型 语句 文本分类模型训练 神经网络输出层 标记 非线性 数据 正则化参数 训练集 意图识别 模型更新
系统为您推荐了相关专利信息
1
大模型安全的监控方法、装置、电子设备及存储介质
样本 计算机执行指令 高斯分布模型 监控方法 训练集
2
基于图像识别的零信任设备准入的控制方法和装置
图像识别模型 认证系统 样本 图案 识别图形码
3
基于多模态模型的医疗分诊方法及系统
医疗分诊方法 多模态 数值 患者 大语言模型
4
一种基于深度学习的气浮无接触输运平台悬浮物体的位置实时预测方法
气浮平台 物体 数据 样本 控制二维移动平台
5
一种电缆编织层的工艺参数优化方法及系统
编织角度 工艺参数优化方法 协同优化算法 关系 密度
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号