摘要
本发明提出了一种异构多模态混合专家适配器,将传统单一类型的多模态MoE架构转变为多种专家类型的组合。该适配器将每个专家的输入从单一模态扩展到多个模态,实现每个专家内部的跨模态交互。具体地,本发明引入了包括交叉注意力专家和通道注意力专家在内的异构专家结构,将不同模态的输入映射到低秩空间,在该空间中进行模态交互融合,再映射回原始维度,使可训练参数能够有效调整冻结预训练模型的梯度,充分利用不同模态间的协同交互。全局路由器为每组专家分配权重,局部组路由器控制每个专家的门控权重。该适配器可集成到多模态预训练模型的编码器层中,在下游任务上仅微调可训练参数,保持推理阶段参数量基本不变。
技术关键词
嵌入特征
注意力
模态特征
适配器
多模态
异构
矩阵
编码器
路由器
预训练模型
通道
解码器
参数
数据
非线性
文本
视觉
网络
分类器
序列
系统为您推荐了相关专利信息
健身管理服务方法
健身器材
文本
特征编码模型
双向长短期记忆网络
智能跟踪方法
注意力机制
雷达跟踪系统
物理
加速度
轨迹预测方法
车道中心线
Stackelberg博弈模型
多层感知器
标签