摘要
本发明公开了一种基于多源信息融合及图论的全局定位方法及系统,在先验地图构建阶段通过融合激光雷达点云、图像序列与IMU数据,然后分割图像并提取外接矩形,生成对象级地图;在线建图阶段通过单目深度估计网络与位姿信息实现动态对象三维重建;全局数据关联阶段创新性地提出软关联机制,构建亲和矩阵,通过图优化求解最优匹配关系;最终通过位姿变换计算实现全局定位。本方法突破性地统一了多模态传感器数据处理流程,采用对象级地图表达与子图划分策略,结合双向K近邻匹配与形状相似度评估,显著提升跨模态场景下的匹配鲁棒性,该方法较传统几何方法提升了配准精度,有效解决动态环境下因深度估计差异导致的关联歧义问题。
技术关键词
全局定位方法
多源信息融合
单目深度估计
地图
全局定位系统
图像分割算法
激光雷达点云
生成三维点云
子模块
在线
矩阵
对象跟踪
融合激光雷达
语义向量
阶段
K近邻
建图
系统为您推荐了相关专利信息
泊车功能
环境感知信息
语义特征
定位方法
安全控制单元
需求预测模型
画像
生成知识图谱
终端设备
时间段
移动充电机器人
智能管控系统
移动电池箱
停车场
定位单元
混合网络
全局路径规划
分布式强化学习
DQN算法
卷积神经网络提取