摘要
本申请提供了一种动态场景下语义信息指导的红外/可见光融合全天时自主定位方法及系统,该方法包括:将可见光图像和红外图像送入训练好的由语义信息指导的融合模型,得到融合图像;对融合图像进行特征点提取;将融合图像与IMU数据再进行融合,基于IMU和RGB‑D相机的双阈值剔除法剔除融合图像的动态特征点;利用剩余的特征点估计相机位姿;对估计的相机位姿进行优化。本申请的优势在于:在传统视觉里程计的基础上利用语义信息指导的生成对抗网络融合红外和可见光图像,并利用基于IMU和RGB‑D相机的双阈值动态目标特征点剔除策略,有效规避了动态物体对视觉定位精度的影响,提升了全天时,尤其是夜间环境下自主定位的准确性。
技术关键词
自主定位方法
可见光图像
动态场景
坐标系
特征点
语义
ORB图像特征
生成对抗网络模型
自主定位系统
canny算子
相机位姿估计
数据
视觉里程计
动态物体
系统为您推荐了相关专利信息
网络生成方法
约束Delaunay三角网
地表模型
钻孔
特征点
待测样品图像
轮廓
测试机台
视觉系统
集深度学习
定日镜镜面
交叉点
校准板
图像处理技术
相机模型
敏感性测试方法
数据采集接口
温度采集模块
电压采集模块
敏感性测试系统
隧道收敛变形监测方法
分布式光纤传感器
LSTM神经网络
红外成像仪
可见光相机