摘要
本发明公开了一种视频互动方法及相关装置,基于视频多模态情绪数据对视频进行综合分析,确定视频中的情绪波动点,并确定包含情绪波动点的情绪波动区域,当视频播放至情绪波动区域时,获取用户观看视频时的多维度情绪数据,并基于多维度情绪数据在视频上生成个性化情绪响应,基于多维度情绪数据预测用户情绪波动趋势,并基于用户情绪波动趋势调整视频内容。本申请通过对视频多模态情绪数据进行采集和分析,实现用户在进行视频互动时,能够根据用户观看视频时的多维度情绪数据,在视频上生成个性化情绪响应,并可根据用户情绪波动趋势调整视频内容,实现即时的、多样化的情绪反馈,增强情绪互动的实时性和多元性,从而满足用户的情感互动需求。
技术关键词
视频互动方法
多模态情绪
音频信号处理技术
视频内容特征
数据
文本
计算机视觉技术
音频特征
视觉特征
计算机存储介质
情绪特征
面部表情识别
人脸识别技术
深度学习模型
电子设备
处理器