摘要
本申请实施例提供一种大语言模型训练方法、装置、计算机设备、介质和产品,涉及模型训练技术领域。该方法先通过文本数据对初始MOE模型进行预训练,得到MOE预训练模型,然后通过第二训练集对MOE预训练模型进行多任务训练,使得训练得到MOE对话模型可以根据输入数据生成与输入数据相关的输出结果,从而完成各种不同的任务。最后,对MOE对话模型进行用户偏好引导,得到MOE奖励模型,以便于对MOE对话模型的输出结果进行评价,从而优化MOE对话模型的模型参数。本申请实施例中,使用MOE模型替换传统的稠密模型,通过MOE模型中的多专家子模型实现模型的不同功能,使用更少的推理显存实现多种功能。
技术关键词
语言模型训练方法
训练集
样本
大语言模型
MLP神经网络
计算机设备
模型训练技术
无监督
数据
可读存储介质
存储计算机程序
计算机程序产品
文本
训练装置
多任务
存储器
标签
处理器
参数
系统为您推荐了相关专利信息
大语言模型
学习训练方法
学习训练装置
计算机程序产品
指标
多模态数据融合
高性能低成本
交叉注意力机制
焦点损失函数
状态空间方程
关键词
文本查重方法
语义
层次聚类算法
查重装置
一元线性回归模型
粗大误差
判断准则
异常数据
频率