摘要
本发明涉及图像数据领域,提供一种基于双目视觉的列车前方场景深度估计方法,方法包括:通过双目相机获取列车前方场景的图像数据;数据增强后,提取网络获取多尺度特征;利用1/4分辨率的特征构建代价体;将代价体的几何特征与图像的上下文特征融合后,输入预先构建的多尺度空间注意力网络,优化代价体的聚合结果;通过视差回归对代价体的聚合结果进行视差估计,得到初始视差图;利用误差感知增强模块对初始视差图进行优化,得到列车前方景深的最终结果。用以解决相关技术中进行列车前方景深估计时精确度不高的缺陷,本申请的方案中基于列车前方场景的图像数据进行景深估计,相较于传统技术具有更高的识别精度,同时保持较高的预测速度。
技术关键词
场景深度估计方法
深度残差
重建误差
沙漏模型
列车
上下文特征
积层
注意力
图像
多尺度特征
内核
双目相机
视觉
上采样
融合特征
分辨率
分支
通道
模块
系统为您推荐了相关专利信息
大型钢结构施工
可见光图像
监测方法
典型
钢结构表面
离子吸附型稀土矿
深度残差网络
智能预测方法
空间金字塔池化
深度神经网络
铁轨
障碍物检测方法
远距离
超高速工业相机
长焦光学系统