摘要
本发明公开了一种基于多模态时空融合与SE(3)流形优化的声纹持续跟踪系统及其跟踪方法,包括以下步骤:S1:获取来自部署在用户佩戴设备上的麦克风阵列的声学信号、来自惯性测量单元的惯性数据、以及可选地来自摄像头的视觉数据;S2:估计所述用户佩戴设备的实时位姿,所述位姿在SE(3)流形上表示;S3:定义声源的联合状态向量,所述状态向量包含声源在世界坐标系下的三维位置和声纹特征向量;S4:构建一个在SE(3)流形上运行的贝叶斯滤波框架,利用所述实时位姿。其结合波场合成理论和神经辐射场技术,构建扩展的声学NeRF模型,利用估计的声源状态和眼镜位姿,实时重建动态的全息声场和空间分布的声纹特征,并在 XR 设备中进行可视化的问题。
技术关键词
跟踪方法
多模态
麦克风阵列
贝叶斯滤波
佩戴设备
跟踪系统
声纹特征
梅尔频率倒谱系数
神经处理单元
辐射场技术
空间权重矩阵
优化信噪比
多模型算法
动态全息
计算机程序指令
融合视觉
数据
坐标系
身份
系统为您推荐了相关专利信息
数据安全交换方法
攻击检测模型
传输路径
节点
多模态
铁路轨道结构
小波变换处理
多模态
测试方法
曲线
水面
视频帧
跟踪方法
RANSAC算法
全局运动估计
图像生成模型
多模态信息
网络
图像生成方法
输入区