摘要
本发明公开了跨模态时空相关性分析的事件‑可见光联合视频增强方法,步骤是:1)通过事件相机仿真模型生成对应的动态事件流帧,划分数据集;2)构建基于UNet的Feature Extractor模块,特征提取;3)构建基于BCPS的跨模态重建单元,恢复可见光视频帧的轮廓信息;4)构建空域噪声过滤网络VSNF和时域噪声过滤网络VTNF,分别特征分析;5)构建基于UNet的特征融合模块,生成符合人类视觉感知特性的去噪结果;6)设计损失函数,通过多次循环训练达到最佳平衡状态。本发明属于图像处理技术领域,解决了现有技术去噪过程中动态特征提取不完全,时域信息利用不充分,视频的整体视觉质量低的问题。
技术关键词
可见光视频
时域噪声
补丁
Sigmoid函数
人类视觉感知
注意力
事件相机
视频帧特征
卷积滤波器
网络
索引
仿真模型
通道
特征提取模块
表达式
照度
轮廓信息
系统为您推荐了相关专利信息
图像自动聚焦方法
胚胎
输入神经网络模型
排序损失
混合损失函数
显示检测方法
检测头
网络模块
表达式
深度特征信息
脑电分类方法
多头注意力机制
稳态视觉诱发
干扰特征
门控循环单元
跨尺度特征融合
生成特征
拾取乒乓球
检测头
注意力机制