摘要
本发明公开了一种基于残差融合结构的端对端图像融合方法,通过构建RFN‑Nest网络框架,该方法有效提取红外与可见光图像的多尺度深度特征,利用残差融合网络单元RFN精细融合这些特征,结合红外图像的热辐射信息和可见光图像的细节纹理信息,生成高质量融合图像,损失函数结合像素损失Lpi xe l和结构相似性损失Lss im,确保融合图像在像素和结构上与真实图像一致,同时,引入背景细节信息保持损失Ldetai l和目标特征增强损失Lfeature,提升网络保持图像细节和增强目标特征的能力,采用两阶段训练策略,先训练自编码网络学习基本特征,再针对特定任务训练RFN网络,加快收敛速度,提高泛化能力,该方法应用于建筑结构检测上,能够提高建筑检测效率和准确度。
技术关键词
图像融合方法
可见光图像
融合网络结构
生成融合图像
网络单元
优化网络参数
更新网络参数
两阶段
解码器
编码
结构检测方法
图像融合系统
损失函数设计
传播算法
融合特征
优化器
框架
系统为您推荐了相关专利信息
集装箱货物装卸
状态识别方法
计算机视觉
货物高度
像素点
GRU模型
网络单元
诊断方法
异常信息
预测能耗数据
多传感器融合
输变电设备
滑动时间窗口
图像显著性提取
激光点云数据
预测误差
计算机可读指令
多层次
运筹优化技术
调节单元