摘要
本发明公开了一种基于音频驱动的面部多帧动态融合实现方法,涉及面部多帧动态融合技术领域,包括人脸运动序列生成方法和人脸视频生成方法,人脸运动序列生成方法包括以下步骤:输入一段参考音频、一段参考视频和一段驱动音频;从所述参考视频中提取人物的面部表情和头部运动信息;从所述参考音频和驱动音频中提取语音的语义和声学特征;利用多帧动态融合的方法,将提取的面部表情和头部运动信息与语音的语义和声学特征结合起来。该基于音频驱动的面部多帧动态融合实现方法,通过将学习到的说话风格与输入的驱动音频相结合,能够生成逼真自然的面部表情和头部运动。
技术关键词
序列生成方法
声学特征
人脸
视频生成方法
动态
运动
面部关键点
音频特征
语义
风格
图像识别算法
信号处理技术
深度学习模型
语音特征
系统为您推荐了相关专利信息
图像去反光
数据训练神经网络
人脸
神经网络模型
三通道
超级电容器
混合储能系统
模糊算法
低通滤波器
电压
智能车队
协同控制方法
加速度
运动控制器
分配控制器
量化评估方法
训练集数据
word2vec模型
非结构化文本
企业