摘要
本发明提供一种面向RGB‑D的融合模型及其目标检测方法.首先,利用Canny边缘检测算法生成真值图的边缘图,将其作为主干网络的额外输入特征,以丰富特征信息并辅助模型的深度学习.然后,利用MobileNetV2对RGB图像进行多层次特征提取,并通过基于残差网络ResNet‑152的编码器对深度图像和边缘图像进行多层特征抽取,将边缘特征信息整合到MobileNetV2编码器提取的RGB图像特征中,利用多尺度感知融合模块与全局融合模块,结合RGB特征与深度特征的互补语义信息,完成跨模态特征的分层融合.最后,将获得的多个融合特征经过解码后,逐层输入至解码过程中的边缘加强融合模块,通过设计的网络损失监督RGB流和深度流检测结果的融合,输出最终的显著性检测结果,从而提高在背景复杂、显著目标边界模糊的情况下的检测效果。
技术关键词
融合特征
RGB特征
多层次特征提取
图像
多尺度感知
语义
边缘检测算法
编码器
模块
Canny算法
残差网络
通道注意力机制
解码
跨模态
分支
计算误差
元素
系统为您推荐了相关专利信息
广义霍夫变换
跟踪方法
特征点
矩阵
SURF算法
无人机图像采集
异常识别方法
原始图像数据
损伤面积
多无人机协同
光斑面积
修正方法
分割方法
空间金字塔池化
空洞
深度神经网络
高频特征
参数
均衡化方法
累积分布函数
深度学习框架
语义分割网络
清洗方法
注意力机制
电子