摘要
本发明涉及基于深度学习的自主定位与运动感知方法,包括以下步骤:多模态感知:利用DAVIS346事件相机采集RGB帧与事件流,利用RGB‑D相机获取纹理与深度信息,通过激光雷达补充3D结构数据;混合光流驱动的运动感知:采用改进型RAFT网络与事件光流专有网络的双分支架构;多模态3D检测与轨迹管理:基于VoxelNeXt‑Lite融合多模态数据生成3D检测框,结合点云密度聚类与事件密度阈值过滤误检,再通过Spatio‑Temporal Graph Transformer构建时空图关联轨迹,并利用步态周期感知的LSTM模型优化行人轨迹预测连续性;多视角语义图匹配:构建包含垂直特征的3D语义体素地图,结合顶视图NetVLAD特征与可变形图匹配计算场景相似度,同时利用情境编码器与知识图谱推理动态调整语义权重;多传感器融合与鲁棒定位。
技术关键词
运动感知方法
事件相机
事件流
行人轨迹预测
知识图谱推理
Harris角点检测
动态掩膜
多模态
多传感器融合
网络
集成视觉
激光雷达
手眼标定
噪声模型
注意力
语义标签
系统为您推荐了相关专利信息
知识图谱推理方法
三元组
自然语言文本
逻辑
实体
强化学习模型
知识图谱模型
装备
历史运行数据
控制策略