摘要
本发明公开了一种基于多模态联合训练网络的井下危险行为识别方法,首先利用井下固定摄像头捕获RGB流视频以及生成相应的深度图数据,将其推流至后端设备,利用先进的姿态估计算法获取人体关键点坐标并将其保存为可读数据。骨骼数据一方面可以利用GCN模型进行骨骼数据行为识别,另一方面需要用骨骼坐标点生成相应的互补数据。MHP图的构建由深度图辅助RGB图生成,GOIS图由训练后的关节点权重辅助生成,分别由EfficientNet‑B7和ResNet‑18进行训练。本发明解决矿井下由于环境复杂,光线昏暗等恶劣环境条件造成的工作人员行为难以准确识别的难题。
技术关键词
识别方法
多模态
深度图数据
GCN模型
人体骨骼
人体关键点
人体关节点坐标
视频
网络
姿态估计算法
人体骨关节
恶劣环境条件
像素点
关键帧
坐标点
系统为您推荐了相关专利信息
决策支持系统
多模态生理
体外循环设备
风险
数据采集模块
多模态数据融合
输电导线
测量方法
图像
高精度传感器
动态监控
锂离子电池
三维图像数据
电池内部结构
热成像