摘要
本发明涉及服装智能印染和纺织品自动化加工技术领域,尤其涉及一种基于改进YOLOv11实例分割网络进行视觉识别的自动化注染方法,包括如下步骤:S1:对注染好的成品衣服进行拍摄,从而获得训练数据集;S2:打标训练集,训练并搭建改进后的YOLOv11网络模型;S3:将未进行注染的样品放在料框上,人工根据注染效果来设定机器人需要的注染颜色;S4:对摆放好的样品衣服进行拍摄;S5:拍摄好后利用训练完成的网络模型,对拍摄得到的图片进行视觉识别,得到图片内衣服和标志物的Mask掩码;S6:利用Opencv传统图像处理。本发明能够利用改进的神经网络模型对注染衣服进行视觉识别,为后续机器人进行自动化注染提供定位,大大提高生产效率,减少人工操作成本。
技术关键词
实例分割网络
注意力
衣服
标志物
视觉
神经网络模型
轮廓
机器人
图像处理
通道
图片
模块
服装智能
描述符
颜色
条形光源
视野
数据
环境光
系统为您推荐了相关专利信息
特征提取模型
特征提取模块
多尺度特征
暗光环境
拼接模块
保鲜冰箱
视觉识别系统
智能控制系统
电场
冰箱主体
电网线路故障
识别方法
构建训练集
注意力机制
拓扑网络
图像分类方法
融合特征
图像分类模型
分支
注意力