摘要
本申请提出了一种基于眼动追踪的人机交互方法,其特征在于,包括:S1、获取原始图像,对原始图像进行预处理;S2、生成经过预处理的原始图像的深度信息图像,以及对经过预处理的原始图像进行面部特征检测与截取,得到面部特征图像;S3、对面部特征图像进行眼部特征检测与截取,分别得到左眼特征图像和右眼特征图像,以及根据面部特征图像获取用户特征信息;S4、利用深度学习模型对面部特征图像、左眼特征图像和右眼特征图像进行处理,并结合深度信息图像计算出注视点;S5、结合注视点和用户特征信息输出用户特征与注视信息,并响应于交互动作执行对应程序。本申请实现了图像中每个像素点深度信息的精确计算,生成与输入图像完全对应的深度信息图。
技术关键词
面部特征图像
人机交互方法
深度信息图像
注视点
RGB摄像头
深度学习模型
交互动作
安卓操作系统
面部特征检测
位置检测单元
数据处理模块
人机交互系统
卷积特征提取
人机交互装置
显示器
系统为您推荐了相关专利信息
自动化控制方法
电容式传感器阵列
红外光谱仪
多模态数据融合
RGB摄像头
深度学习系统
人体关节点
空间特征提取
图像采集模块
深度学习模型
智慧柜台
多模态数据采集
多模态传感器
云端
眼球追踪装置
眼动数据
注意力测评方法
多模态生理
眼动追踪器
脑电设备