摘要
本发明公开了一种视觉定位多模态数据融合方法,包括以下步骤:S1获取图像数据;通过视觉传感器、激光雷达获得的图像信息;图像信息中包括目标框的中心点、大小、类别信息以及深度信息;并将图像信息转为三维坐标信息;S2通过IMU传感器获取预设时间内的期望的速度信息,然后通过扫描Aruco码确定期望的位姿信息,然后采用最小二乘法调整期望速度信息与预测速度信息之间误差值确定预测速度信息,S3通过马尔可夫链数据转移概率矩阵、预测速度信息以及预测三维坐标信息、图像信息中当前位置的目标框信息预测姿态数据,然后根据预测姿态数据进行定位移动,对于不同移动机器人的多种融合数据实现移动机器人的高准确性的姿态输出。
技术关键词
三维坐标信息
移动机器人
IMU传感器
转移概率矩阵
视觉传感器
图像
速度
激光雷达
数据
障碍物
误差
机制
系统为您推荐了相关专利信息
室内外无缝定位
HMM模型
陀螺仪传感器
室外定位系统
混合高斯模型
室内可见光通信
网络切换方法
隐马尔科夫模型
轨迹
网络状态信息
车辆信息获取方法
时间同步
视觉传感器
多传感器信息融合
激光雷达
玻璃幕墙
Lamb波
移动机器人
检测定位方法
移动式机器人