摘要
一种基于周视相机的前融合检测模型的方法,包括以下步骤:1)通过多个周视相机获得无人车车身周围环境的多个周视图像,并将多个周视图像输入卷积神经网络模型;2)卷积神经网络模型依次提取各周视图像的图像特征图及特征偏移量;3)根据各周视图像的特征偏移量对各周视图像的图像特征图进行偏移,形成各周视图像的图像特征图的偏移特征图,根据各周视图像的图像特征图的偏移特征图映射出各周视相机的BEV特征图;4)将各周视相机的BEV特征图沿着通道方向堆叠,将堆叠后的BEV特征图进行卷积并输出多视角融合后的目标特征图。
技术关键词
卷积神经网络模型
偏移特征
头部模型
图像特征值
索引
坐标系
无人车
多视角
相机外参
网格
车身
尺寸
通道
车辆
关系
系统为您推荐了相关专利信息
数据插补方法
历史运行数据
区域卷积神经网络模型
训练样本数据
支持向量回归模型
工艺参数优化方法
陶瓷复合装甲
共振频率
运动轨迹分析
卷积神经网络模型
检测跟踪方法
卷积神经网络模型
编码特征
注意力
图像采集模块