基于参数高效微调的大型语言模型训练方法

AITNT
正文
推荐专利
基于参数高效微调的大型语言模型训练方法
申请号:CN202411629653
申请日期:2024-11-15
公开号:CN119578545B
公开日期:2025-07-15
类型:发明专利
摘要
本发明公开了一种基于参数高效微调的大型语言模型训练方法。大型语言模型训练方法包括:针对训练对象的大型语言模型,将大型语言模型划分为客户端预训练模型和服务器端预训练模型两部分;联合客户端预训练模型和服务器端预训练模型共同进行并行协作训练,在训练过程中,采用参数高效微调技术来对客户端预训练模型和服务器端预训练模型进行并行训练;待训练完成后,采用模型聚合的方法,将客户端预训练模型和服务器端预训练模型合并起来;重复上述步骤,直至作为训练对象的大型语言模型收敛为止。本发明的大型语言模型训练方法基于分割联邦学习框架,并且结合了FL的并行训练优势和SL的模型分割优势,大大提高了训练效率。
技术关键词
预训练模型 语言模型训练方法 客户端设备 微调技术 联邦学习策略 服务器节点 加权平均策略 数据通信协议 更新模型参数 网络结构 微调方法 大语言模型 对象 模型更新 数据分布 副本
系统为您推荐了相关专利信息
1
一种人脸一致性多角度镜头视频生成方法、装置
多角度 视频生成方法 视频生成装置 图像生成模型 镜头
2
一种基于数据扩增与语义图谱的SegTCLIP胶质瘤分割方法、系统及应用
语义图谱 文本 分割方法 像素 图像嵌入
3
相似有机反应检索方法及存储介质
检索方法 数据项 组份 指纹 标识
4
一种大型语言模型训练方法、装置、设备及存储介质
语言模型训练方法 模型训练装置 数据 训练集 更新模型参数
5
基层矛盾纠纷风险评估方法、系统、设备及存储介质
风险评估模型 风险评估方法 预训练模型 大语言模型 分析事件
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号