摘要
本发明提出了一种基于Swin Transformer的交叉视图图像匹配方法。对于从无人机载体和卫星载体上获得的关于同一目标场景的图像,对其进行图像匹配,并根据匹配结果,完成无人机目标定位和无人机导航两个任务。将无人机视图图像和卫星视图图像输入到双分支深度神经网络架构中,分别提取图像的特征;将图像匹配过程视为一个图像分类过程,将提取的特征输入到分类网络中,通过计算双分支特征之间的余弦距离判断特征匹配结果。本发明使用SUES‑200数据集进行训练和测试,相较于其他地理定位数据集,该数据集强调图像在不同高度的特征,证明了模型对不同高度的鲁棒性。本发明相较于其他基于深度学习的地理定位方法,具有匹配精度高、泛化能力强的优点。
技术关键词
图像匹配方法
无人机数据
深度神经网络架构
地理定位方法
地理定位数据
分类网络
双分支网络
特征提取网络
像素
图片
精度
鲁棒性
载体
分块