联邦学习中的分布式Transformer训练加速框架

AITNT
正文
推荐专利
联邦学习中的分布式Transformer训练加速框架
申请号:CN202410759432
申请日期:2024-06-12
公开号:CN120996140A
公开日期:2025-11-21
类型:发明专利
摘要
本专利揭示了联邦学习中的分布式Transformer训练加速框架。基于Transformer的模型训练速度比较慢,主要受限于计算和通信方面。本专利方案首先引入了动态模型分割,通过根据本地设备上的数据分布动态切割Transformer模型,从而降低每个设备的计算复杂度;智能任务调度策略确保每个设备都能有效地参与全局模型地训练,充分利用其计算机资源;分层通信优化减少通信开销,通过传输关键信息,同时采用异步通信和差分隐私来保障安全性和隐私性;本系统还包括模型融合加速,允许局部设备在本地完成部分模型训练,然后将模型权重的更新快速融合到全局模型中;自适应学习率调整机制根据每个设备的训练进度和模型收敛情况动态调整学习率,提高训练速率。
技术关键词
差分隐私技术 设备性能评估 动态 异构设备 数据分布 访问控制策略 融合算法 模块 异步通信机制 任务分配方式 任务调度策略 框架 设备间通信 速度 参数 加密技术 复杂度
系统为您推荐了相关专利信息
1
一种信贷领域授信额度决策方法、装置及设备
企业 决策方法 动态 数据 隐马尔可夫模型
2
原型记忆神经网络驱动的视频异常事件检测方法及装置
记忆神经网络 原型 记忆特征 短视频 序列
3
一种乳腺癌病灶分类方法、介质及终端
智能分类方法 三维超声图像 超声造影 点云模型 数据
4
基于惯量扰动解析的机器人多频振动复合抑制方法及系统
滤波算法 补偿算法 机器人执行机构 动态 识别机器人
5
一种在线医疗问答动态检索增强生成方法
答案 医疗实体识别 语义向量 生成方法 标识符
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号