摘要
本发明公开了一种隐式联邦大模型上下文学习方法,包括如下步骤:1)所有客户端和服务器通过大模型提取上下文向量;2)服务器聚合全局上下文向量;3)服务器校准注入系数;4)服务器分发全局上下文向量和校正后的注入系数,客户端接收并注入本地大模型。该方法通过隐式联邦大模型上下文学习方突破了联邦学习通信瓶颈,平衡了隐私保护与知识共享,在通信效率、隐私安全、任务性能三者间实现平衡,为边缘设备协同训练、垂直领域定制大模型提供高效解决方案。
技术关键词
客户端
学习方法
校准
预训练语言模型
联邦学习系统
协调服务器
模版
中心服务器
通信效率
校正
标签
数据中心
组织
数据存储
节点
参数
瓶颈
系统为您推荐了相关专利信息
流动控制方法
智能控制模型
智能模型
流动控制系统
飞行器气动特性
数字证书
存储方法
签名证书
文件下载请求
SM3算法
校准特征
图像分类方法
卷积神经网络提取
生成噪声
分类器
预编码算法
预编码矩阵
误差统计
预编码方法
校准
摄像头视频帧
智能控制方法
打印机
STL模型
云端