摘要
本发明公开了一种基于文本描述的背景替换及视频重打光方法,包括获取3D渲染视频;获取待处理的原始真实视频的法线视频,以获取各视频帧的像素点集合;随机选取像素点集合中的模拟点光源,随机选取模拟点光源所对应的颜色并将其重新应用到各视频帧中,以获取模拟重打光视频;通过3D渲染视频与模拟重打光视频对构建的视频获取模型进行训练,获取最优视频生成模型;以实现基于文本描述的背景替换及视频重打光的视频获取过程。解决了现有基于图像重打光模型构建的方法,不能很好的利用视频帧之间连续的时序关联关系,不能有效实现对视频帧时序关联的建模效果;此外,该领域缺乏高质量的视频重打光数据集,严重限制了模型的重打光能力的问题。
技术关键词
视频生成方法
视频帧
点光源
打光方法
像素点
文本
视频编码
噪声图像
拼接模块
光照
风格
视频生成模型
数据
颜色
输入模块
相机
场景
系统为您推荐了相关专利信息
国土调查
国土空间规划
认定方法
分类识别模型
数据分类识别
医学影像数据
识别置信度
疾病特征
分析方法
分辨率
视觉特征
深度强化学习模型
注意力机制
集成向量
关键帧
合金电阻
实时检测方法
像素点
图像处理
灰度直方图