摘要
本发明涉及一种用于视觉任务的双图神经网络框架——Vision DualGNN(VDG)。针对现有Vision GNN(ViG)方法在构建图结构时仅依赖语义信息而导致的对象邻居分布分散及图处理不足的问题,VDG通过融合空间与语义信息,采用双流图神经网络架构,分别处理基于空间和语义构建的图,从而有效提升了图像中节点特征的表达能力和图级别的表示效果。具体而言,本发明包括:1)应用节点编码器,将图像块转换为具有高表达性的节点特征;2)构建双图结构,其中空间图作为语义图的约束条件,增强节点特征的空间感知能力。实验结果表明,本发明提出的VDG模型在ImageNet和CIFAR‑100数据集上均取得了优于其他基线模型的表现,证明了其在视觉任务中的有效性和优越性。
技术关键词
结构化数据表示方法
节点特征
语义
编码器模块
神经网络框架
通道注意力机制
神经网络架构
邻居
图像分割
度量
图像块
分类器
视觉
参数
系统为您推荐了相关专利信息
数据智能分析系统
编码向量
数据项
编码特征
语义协同
车辆行驶状况
车辆行驶数据
数据采集方法
数据标签
交通标志
控制程序生成方法
多智能体协作
自然语言
闭环反馈机制
策略