摘要
本发明公开了一种基于邻居网络的视频场景边界检测方法,该方法通过构建特征图和时间图,利用图卷积网络传播信息,将语义相似的镜头连接起来。特征图中的边权重通过节点对的邻居关系估算,引入邻居节点关系以抑制不同场景之间的潜在连接。时间图考虑了成对镜头的相似度及其时间邻居镜头的相似度,重新计算边权重以更好地捕捉镜头关系。该方法有效地抑制了噪声边缘,增强了同一场景内镜头的关联,减弱了不同场景间镜头的关联,解决了以往方法在同一场景内捕捉上下文信息不完整的问题,从而提高了镜头上下文的捕捉能力。
技术关键词
镜头
边界检测方法
序列特征
视频
网络
邻居节点关系
噪声边缘
关键帧
训练场景
多层感知机
标签
矩阵
语义
算法
动态