摘要
本发明公开了一种多场景图像融合方法,本发明通过建立多尺度自适应的融合网络来持续学习多场景下的图像特征。通过融合CNN的局部特征和Transformer的全局特征来增强不同场景下的特征表达能力。提出一种新的FFM结构对多尺度、多场景的特征进行融合,耦合视觉增强和图像融合技术,以提高图像融合质量。采用记忆感知突触持续学习方法训练模型并计算损失函数,保留不同场景下融合图像的可见光特征,有效减少了暗光下对颜色信息的破坏,缓解任务切换过程中的知识丢失问题。
技术关键词
图像融合方法
多场景
图像重建
表达式
卷积神经网络提取
红外图像特征
局部细节特征
可见光图像
分辨率
输入多尺度
像素
多层感知机
持续学习方法
参数
模态特征
多尺度特征融合
注意力机制
上采样
系统为您推荐了相关专利信息
非线性扩张状态观测器
终端滑模控制器
同步电机
指数趋近律
滑模控制方法
雷达系统参数
粒子群优化算法
发射机
成像方法
表达式
短波时差定位方法
粒子群优化算法
信号传播路径
位置更新
无线电管理
望远镜
连通区域算法
加权质心算法
二值化图像
轨迹
知识图谱模型
自然资源
推理规则
三元组
净化方法