摘要
公开了一种可穿戴设备的控制方法和可穿戴设备。该方法包括:响应于设备进入交互界面,在屏幕的多个显示区域显示多个可选项;检测设备所处环境的噪声;响应于噪声大于第一且小于第二噪声阈值,确定佩戴者在屏幕上的凝视坐标以及语音识别结果;至少将噪声、语音识别结果对应的第一可选项的显示区域、凝视坐标最接近的第二可选项的第一距离和第二可选项的显示区域输入已训练的机器学习模型得到被选显示区域;以及基于被选显示区域的被选可选项控制所述交互界面。本公开利用可穿戴设备上设置的相机采集用户眼部图像以获取凝视坐标,并结合识别出的语音指令共同用于在嘈杂环境下基于机器学习网络推理的用户指令的确定。
技术关键词
可穿戴设备
机器学习模型
坐标
噪声
非暂时性机器可读存储介质
语音识别模型
屏幕
计算机程序指令
显示交互界面
语音活动检测
校准
处理器
图像
麦克风
计算机程序产品
关系
检测设备