摘要
本发明公开了一种基于时空交错的视频事件检索方法,特点是首先通过待训练的特征提取模型、待训练的时空交错模型和待训练的哈希检索模型获取训练样本的哈希编码、训练样本的视频事件分类预测结果和单个对象的动作分类预测,随后基于总损失函数的约束进行训练得到训练后的特征提取模型、训练后的时空交错模型和训练后的哈希检索模型;再将查询样本和检索样本分别通过训练后的各个上述模型得到对应的查询样本的哈希编码和检索样本的哈希编码,在检索集哈希编码检索库中查找与查询样本的哈希编码的海明距离最近的哈希编码作为检索结果显示完成对查询样本的检索过程;优点是输出的哈希编码高效紧凑,检索准确率较高。
技术关键词
特征提取模型
事件检索方法
对象
视频
视觉特征提取
注意力
前馈神经网络
融合特征
特征提取模块
时序特征
编码
样本
关系
多尺度特征提取
双线性插值
卷积模块
传播算法
系统为您推荐了相关专利信息
文档对象模型
终端主题
计算机设备
终端面板
客户端
内容审核方法
文本识别模型
视频流
关键词
计算机程序指令
车辆行人检测方法
公交站台
行人检测模型
通道注意力机制
卷积模块
网站识别方法
多模态特征融合
人工智能服务
特征提取模型
多模态信息