摘要
本发明涉及一种基于时空注意力机制和高斯过程的个性化视线追踪方法,属于视线追踪技术领域。其包括:采用基于深度残差网络的卷积神经网络模型接收输入视频并提取所有帧的特征映射;通过基于双重和交叉结构的混合空间注意力模型来处理特征映射,得到连续帧之间的空间运动信息;空间运动信息通过时间注意力模型学习使用过去帧嵌入的时间动态,得到具有时间维度动态信息的特征;通过视线回归层将时间注意力模型输出的具有时间维度动态信息的特征映射到预测视线方向序列中;通过基于高斯过程的个性化时空注意力模型得到的后验均值函数预测凝视角残差值,并将其用于校正预测视线方向序列后输出最终预测视线方向向量。本发明能够提取更多的凝视细节。
技术关键词
空间注意力模型
视线追踪方法
时空注意力机制
时空注意力模型
卷积神经网络模型
深度残差网络
视频帧
ResNet网络
多层感知机
视线追踪技术
序列
动态
输出特征
校正
模型预测值
预测残差
嵌入特征
运动
系统为您推荐了相关专利信息
腐蚀形貌
彩涂钢板
表面图像数据
物联网传感设备
支持向量机模型
LED显示屏
稳定控制方法
校准
深度学习模型
计算机程序指令
组分分析方法
飞行器
尾烟
矩阵分解算法
光谱成像系统
端口检测方法
机顶盒电路板
视觉特征提取
端口检测系统
机顶盒型号
多学科设计优化
自动变速器
变矩器
发动机外特性曲线
变量