摘要
本发明涉及一种四足机器人动态场景视觉定位方法,通过目标检测算法YOLOv8识别场景图像中动态物体的矩形检测框,获取框外静态特征点;将矩形检测框同步到深度图像上,使用连通域算法将深度图像深度值相近的区域连接到一起,获取动态物体的实例分割掩码;使用LK局部光流算法识别位于矩形检测框内部且位于实例分割掩码外部的框内初步静态特征点;使用密度聚类算法将框内初步静态特征点根据深度值划分成不同的簇,二次识别未落在实例分割掩码的框内精确静态特征点;合并框外静态特征点和框内精确静态特征点,获得总静态特征点。本发明解决了现有技术视觉定位不精确的问题。
技术关键词
动态场景视觉定位方法
静态特征
四足机器人
实例分割
特征点
深度值
动态物体
密度聚类算法
邻域
像素点
相机位姿估计
光流算法
图像
标记
连通区域算法
核心
DBSCAN算法
地图
消除累积误差
系统为您推荐了相关专利信息
工业故障分类方法
故障分类模型
时序
生成对抗网络
静态特征
轻量化无人机
卷积模块
采样模块
多尺度特征提取
通道注意力机制
拣选机器人
同步校准方法
旋转变换矩阵
点云
货架