摘要
本发明公开了一种基于行人场景交互建模的行人轨迹预测方法及装置,其中行人轨迹预测方法包括:采用多特征图提取每个行人的轨迹特征空间,得到相对位置、速度与加速度的特征图,并分别对每个特征图进行图卷积,叠加得到行人交互特征;利用SwinTransformer对场景语义分割图进行编码,并将行人坐标序列映射为位置图,与语义特征对齐融合以得到时空场景表征;通过双向自注意力机制完成行人交互特征与场景特征的跨模态融合;采用时间外推卷积网络预测未来轨迹的双变量高斯分布参数,并以负对数似然损失进行端到端训练;该方法综合考虑行人交互行为、场景约束,能够在拥挤及复杂场景中更加精确地预测行人未来轨迹。
技术关键词
行人轨迹预测方法
交互特征
场景特征
轨迹特征
场景语义分割
加速度
注意力机制
语义特征
特征提取单元
定义
坐标系
融合特征
节点
跨模态
网络