摘要
本申请实施例公开了一种跨语言的会议翻译方法及智能眼镜,涉及人机交互技术领域,用于解决现有翻译不准确且难以结合图像渲染和翻译功能的问题。方法包括:基于智能眼镜采集的声音信号特征,提取人声信号,以根据人声信号,获取智能眼镜所对应的翻译场景;确定翻译场景是否具有对应的联动翻译信息;若否,则在翻译场景下提取人声信号内的待翻译人声信号,以将其翻译为目标语言的翻译结果;通过智能眼镜检测的视角信息与图像信息,以及待翻译人声信号所对应的方位信息,对翻译结果进行渲染显示。
技术关键词
智能眼镜
人声
翻译方法
声音信号特征
场景
会议
视角
声纹特征
图像
交互特征
时序特征
麦克风模组
人机交互技术
麦克风阵列
算法规划
翻译模型
频谱特征
摄像模组
显示模组
系统为您推荐了相关专利信息
手语翻译方法
CRF模型
特征提取方法
多头注意力机制
时序
检测分析方法
充电桩检测设备
方程
多项式拟合算法
大功率
海洋环境数据
建模方法
图像信息处理技术
纹理
透明度