摘要
本发明公开了一种视频图像超级宽动态处理方法,其先构建由CNN部分和LSTM部分组成的CNN‑LSTM模型,所述CNN部分用于提取每一帧的空间特征;将经过所述CNN部分提取得到的特征输入至所述LSTM部分提取该特征在帧之间的动态信息;LSTM部分的输出送至全连接层处理后生成宽动态处理后的视频图像;接着采集不同曝光设置下的视频图像数据并且分成训练集和测试集;将训练集中图像数据分解成一系列连续的图像帧并组成图像数据序列,接着将图像数据序列输入至得到的CNN‑LSTM模型中进行训练;取测试集对经过训练的CNN‑LSTM模型进行评估并调整超参数得到最优的CNN‑LSTM模型。本发明基于深度学习的方法构建适合夜视视频图像超级宽动态处理的深度学习网络,从而提高极弱光条件下的夜视成像效果。
技术关键词
LSTM模型
宽动态
视频
图像重建
数据
序列
双曲正切函数
更新模型参数
深度学习网络
优化器
超参数
颜色校正
传播算法
输出特征
像素
传感器
元素
指数
系统为您推荐了相关专利信息
AR眼镜
图像获取方法
手势信号识别
支持向量机模型
数据识别分类
光网络
残差神经网络
计算机可读取存储介质
上采样
计算机可读指令
控制盒设备
隔离保护电路
信号接收电路
RJ45网口
数据线