摘要
本发明适用于智能音频调节领域,提供了一种沉浸式影音音频随动调节方法及系统,所述方法包括:构建多维度感知体系,实时采集多源信息;基于深度神经网络模型对采集的多源信息进行融合处理,通过时空关联分析挖掘用户状态与影音内容的动态映射关系,识别出用户交互意图以及影音内容的情感基调和空间场景属性;依据融合处理结果,调用动态参数调节引擎,实时生成音频参数调节方案;构建用户体验反馈闭环,通过眼动追踪设备采集用户的视觉关注区域,生成个性化调节偏好参数;本发明实现音频效果与用户状态、影音内容的精准适配,显著提升沉浸式体验的自然性与适配性,兼顾通用性与个体差异,为用户带来更贴合场景与自身需求的音频体验。
技术关键词
视觉关注区域
眼动追踪设备
深度神经网络模型
可穿戴生物传感器
动态变化数据
分布式压力传感器
沉浸式体验
开阔场地
参数
多声道
场景
红外热成像技术
音频特征数据
运动矢量场
视频帧特征
采集单元
偏好特征
动态物体