摘要
本发明公开了一种动态环境下基于稠密光流和图像分割的爬壁机器人视觉SLAM定位方法,涉及到基于深度学习的图像分割在机器人视觉SLAM中的应用,属于SLAM(Simultaneous Location and Mapping,同步定位与地图构建)领域,以ORB‑SLAM2算法为基础,在算法框架中加入RAFT光流估计方法和Mask R‑CNN图像分割网络,通过RAFT光流估计方法实现对异常特征点检测并初步剔除动态特征点,并通Mask R‑CNN图像分割网络对动态特征点进行二次剔除,最后对处理后的静态特征点进行帧间匹配,其中动态特征点主要是爬壁机器人相机视角中的行人等动态物体,从而实现在动态环境下爬壁机器人的视觉SLAM自主定位,并使得算法的精度和实时性得到提高。
技术关键词
机器人视觉
图像分割网络
特征点
动态物体
定位方法
机器人相机
稠密光流估计方法
静态特征
像素
ORB特征提取
算法框架
语义
图像阈值分割
SLAM算法
解码器架构
更新模型参数
系统为您推荐了相关专利信息
鼠标
粒子滤波算法
定位方法
协方差矩阵
多模态传感器
大语言模型
检测工具
样本
故障定位方法
故障定位装置
卷积神经网络模型
语义分割模型
界面元素定位方法
图像
编码特征
视觉特征
图像分割方法
多模态特征融合
图像分割网络
文本编码器
高斯金字塔
固化土
模式识别方法
高斯模糊图像
散斑图像