摘要
本发明公开了一种基于YOLO11s‑seg与RAFT光流计算的实例分割主导加光流辅助验证的动态环境视觉SLAM方法。首先通过RGB‑D相机获得环境RGB图像和深度图,将RGB图像并行进行ORB特征点提取、YOLO11s‑seg实例分割和RAFT光流计算,之后将通过YOLO11s‑seg实例分割出的动态区域和RAFT光流计算出的动态区域使用实例分割主导光流辅助验证的方式,并结合深度图对得到的ORB特征点进行判断区分动态特征点和静态特征点,将划分为动态的ORB特征点去除留下静态ORB特征点,最后将静态特征点输入到ORB‑SLAM3模型的追踪线程进行后续动态环境视觉SLAM。本发明兼顾实时性与精度,可以高效进行动态特征点去除,从而提高动态环境下视觉SLAM精度。
技术关键词
ORB特征
视觉SLAM方法
特征点集合
深度图
空间聚类方法
实例分割模型
光流场
上下文特征
RGB彩色图像
动态物体
标签类别
静态特征
掩膜矩阵
多尺度特征
标记
系统为您推荐了相关专利信息
三维点云数据
双目相机标定参数
作业场景
神经网络模型
带电设备
环境图像数据
基准
定位方法
机器视觉原理
图像分割
数据特征提取
彩色图像
机器人操作系统
机器人模仿学习
多模态特征
重构算法
深度图
马尔可夫随机场模型
视角
DeBruijn序列
菠萝采摘机器人
视觉定位系统
多模态深度学习
驱动控制模块
机械臂