摘要
本发明公开了一种基于最优光度差的多模态RGBD机器人自主定位方法,包括基于相机‑激光雷达联合标定参数,在重合视场中进行像素级对齐,生成RGBD点;再在迭代最近点中结合距离信息和颜色信息构建目标函数,对当前点和历史地图点进行匹配,计算得到位姿;将当前扫描的激光点云加入到历史地图中,并对未获取到RGB信息的点云进行颜色估计,扩充地图的颜色细节表达,得到优化后的位姿;基于优化后的位姿更新场景RGBD地图,并输出当前帧姿态估计结果,得到当前机器人的位置。本发明通过融合激光雷达获取的深度信息与相机采集的色彩纹理信息,从两个维度提取环境特征,有效弥补低线束激光雷达在点云密度较低、环境细节表达不足条件下的局限性。
技术关键词
光度
姿态估计
相机
低线束激光雷达
RGB颜色值
融合激光雷达
距离信息
点云
坐标系
机器人
像素
标定关系
全局地图
估计算法
图像