摘要
本发明公开了一种融合时空语义信息的端到端单目视觉里程计方法。此方法通过彩色单目相机采集连续图像序列帧,构建了多信息融合的端到端深度学习框架;还采用异构训练域集合多种数据集课程共享参数融合训练,并通过输入连续图像序列,所述端到端深度学习框架动态耦合历史输出的隐状态特征向量,形成时序感知的特征映射关系,实现对场景中静态背景要素与动态实体对象的可解释特征解耦。经迭代式特征融合后,系统输出符合场景几何约束的稀疏深度及相机运动位姿,从而构建了一个在复杂环境下具有高鲁棒性和强泛化能力的相机轨迹估计模型。该方法显著提升了单目视觉里程计的定位精度和稳定性。
技术关键词
特征提取网络
语义特征
解码器
光流特征
注意力机制
单目相机
多源异构数据
深度学习框架
生成多尺度
编码器
单目视觉里程计
融合时序信息
场景深度估计
多层感知机
系统为您推荐了相关专利信息
原型
编码器
多尺度特征提取
解码器
前馈神经网络
光学遥感图像
道路交叉口
语义向量
匈牙利匹配算法
前馈神经网络
语音声学特征
多模态语音
文本
模型训练方法
数据
情感特征
编码特征
特征提取模型
文本
情感分类器