摘要
本发明提出一种基于多尺度信息动态融合与特征偏差矫正的跨域双目立体匹配方法,属于计算机视觉领域。具体而言,模型根据场景动态变化自适应融合卷积神经网络(CNN)与Transformer结构,从而同时捕捉局部细节信息与全局上下文依赖。其次,通过多阶段递进式代价体融合与聚合机制,促使多尺度匹配代价体的充分融合,有效抑制冗余信息,提高匹配精度。最后,通过逐步缩小不同域特征之间的偏差,引导模型学习更加稳定的域不变表示,从而显著增强跨域鲁棒性与适应性。本发明与最先进的方法在不同场景中进行跨域实验对比,本方法相较于现有先进模型展现出更优性能:1)在复杂场景下显著提升跨域立体匹配精度,表现出更强的域迁移能力与泛化稳定性;2)在保持跨域鲁棒性的同时,亦在非跨域环境中维持了较高的准确性与计算效率,实现了跨域与非跨域性能的双重兼顾。
技术关键词
多尺度信息
双目立体匹配方法
分辨率
局部特征提取
融合特征
上下文特征
卷积模块
序列化特征
编解码
矫正
图像
紧凑型编码器
偏差
动态
融合卷积神经网络
Sigmoid函数
重构误差
系统为您推荐了相关专利信息
岩溶隧道
控制策略
趋势预测模型
地下水
排水控制装置
热收缩包装
实例分割网络
抓取方法
立体视觉
Canny边缘检测器
电梯钢带
识别方法
损伤特征
构建决策树
损伤类别
射电天文信号
射频干扰检测方法
图像
训练集
注意力
云服务器设备
图像处理设备
苜蓿
图像生成标签
禾本科杂草