Nothing Special   »   [go: up one dir, main page]

CN112257620A - 一种安全穿戴情况识别方法 - Google Patents

一种安全穿戴情况识别方法 Download PDF

Info

Publication number
CN112257620A
CN112257620A CN202011169611.0A CN202011169611A CN112257620A CN 112257620 A CN112257620 A CN 112257620A CN 202011169611 A CN202011169611 A CN 202011169611A CN 112257620 A CN112257620 A CN 112257620A
Authority
CN
China
Prior art keywords
safety
wearing
box
frame
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011169611.0A
Other languages
English (en)
Other versions
CN112257620B (zh
Inventor
李静
王荣秋
李朝辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Huawei Mingtian Software Technology Co ltd
Original Assignee
Guangzhou Huawei Mingtian Software Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Huawei Mingtian Software Technology Co ltd filed Critical Guangzhou Huawei Mingtian Software Technology Co ltd
Priority to CN202011169611.0A priority Critical patent/CN112257620B/zh
Publication of CN112257620A publication Critical patent/CN112257620A/zh
Application granted granted Critical
Publication of CN112257620B publication Critical patent/CN112257620B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种安全穿戴情况识别方法,通过6个步骤能根据采集到的视频流数据得以时间段内对像的穿戴判断结果。本发明通过长短记忆算法,根据一段时间内的对像的穿戴情况对应启动长记忆算法结构或短记忆算法结构,避免因目标变形、突然运动、背景杂波、遮挡、视频丢帧等引起的误检、漏检安全服及安全帽。大大降低了误检、漏检安全服及安全帽产生的告警数量,合理输出告警信息,具有判断准确的优点。

Description

一种安全穿戴情况识别方法
技术领域
本发明涉及图像识别技术领域,特别涉及一种安全穿戴情况识别方法。
背景技术
在石油化工工作现场、建筑工地、电厂、轨道内部等,由于场景环境较为复杂,存在着威胁人身安全的各种因素,因此上述场合中工作人员均要求佩戴安全帽或穿着安全服。
智能化检测工人是否穿戴物安全帽及安全服,对于施工现场的安全防护管理以及智能信息化管理具有重要意义。如能有效提高监管人员对安全帽及安全服穿戴情况的现场管理效率,大幅度减少了人工巡视劳动成本,同时也能对工人提供了安全保障,一定程度上减少安全事故的发生。然而现有技术图像识别技术在目标检测中应用时容易存在误检及漏检情况。
因此,针对现有技术不足,提供一种安全穿戴情况识别方法以解决现有技术不足甚为必要。
发明内容
本发明其中一个的目的在于避免现有技术的不足之处而提供一种安全穿戴情况识别方法。该安全穿戴情况识别方法能有效避免因目标变形、突然运动、背景杂波、遮挡、视频丢帧等引起的误检或者漏检安全穿戴物的情况,具有判断准确的特点。
本发明的上述目的通过以下技术措施实现:
提供一种安全穿戴情况识别方法,包括步骤有:
步骤一、收集多张穿戴有安全穿戴物的素材图像;
步骤二、分别对步骤一得到的素材图像进行标准穿戴物区域标注,得到多个标准穿戴物区域框信息;
步骤三、对步骤二得到的多个标准穿戴物区域框信息进行重聚类,得到重聚类分组数据;
步骤四、采用darknet框架深度学习神经网络yolov3算法对步骤三得到的重聚类分组数据和步骤二得到的标准穿戴物区域框信息进行训练得到最优模型;
步骤五、将采集区域内的视频流数据进行解析,得到多帧图像,分别将多帧图像依次输入步骤四的最优模型得到安全穿戴物边框信息和对像框信息,然后根据安全穿戴物边框信息和对像框信息得到图像的安全穿戴情况数据;
步骤六、根据长短记忆算法统计步骤五的安全穿戴情况数据的时长,得到时间段内对像的穿戴判断结果。
优选的,上述步骤六具体是根据长短记忆算法记录T时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT时,则判断存在安全穿戴物;当t<αT时则判断不存在安全穿戴物,其中α为时间阀值,且0.1<α<0.9,且T≥t>0。
优选的,上述标准穿戴物区域框信息包括标准穿戴物区域框的中心点坐标、框高和框宽。
优选的,上述长短记忆算法包括有长记忆结构和短记忆结构。
优选的,上述长记忆结构用于记录T1时间段内的安全穿戴情况数据,所述短记忆结构用于记录T2时间段内的安全穿戴情况数据,存在T1>T2>0。
当视频流数据的时长小于T1时,记录T2时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT2时判断结果为对像穿戴有安全穿戴物;当t<αT2时判断结果为对像没有穿戴安全穿戴物并发出告警。
当视频流数据存在对像框信息的时长小于T1时,记录T2时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT2时判断结果为对像穿戴有安全穿戴物;当t<αT2时判断结果为对像没有穿戴安全穿戴物并发出告警。
当视频流数据的时长大于或者等于T1时,记录T1时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT1时判断结果为对像穿戴有安全穿戴物;当t<αT1时判断结果为对像没有穿戴安全穿戴物并发出告警。
优选的,上述步骤三具体是对步骤二得到的多个标准穿戴物区域框信息进行kmean重聚类,且K设置为9,得到重聚类分组数据。
优选的,上述步骤四具体为采用darknet框架深度学习神经网络yolov3算法,根据训练参数对步骤三得到的重聚类分组数据和步骤二得到的多个标准穿戴物区域框信息进行训练得到最优模型。
优选的,上述训练参数为起始学习率设置为β,最大训练轮次为B,在轮次为C时的学习率设置为γ*β;在轮次为D时的学习率为δ*β,B>D>C>1000,β、γ和δ都为正数。
将在训练轮次中训练输出的平均损失值至恒定时,将当前训练轮次为起点,选择±V轮次范围内保存的权重测试为最优模型,存在0<V。
优选的,上述穿戴物为安全服和安全帽。
优选的,上述步骤五包括有:
步骤5.1、将采集区域内对像的视频流数据进行解析,得到多帧图像;
步骤5.2、分别将多帧图像依次输入步骤四的最优模型得到对应的安全服、安全帽及对像分别对应的class、score和box,其中class为类别信息,score为识别目标的置信度,box为识别目标的边框信息(x,y,w,h)其中x为边框中心点的x轴坐标,y为边框中心点的y轴坐标,w为边框的宽,h为边框的高;
步骤5.3、分别将score与置信阈值θ对比,当score<θ时则判定为误检目标,并删除对应的box;当score≥θ时则判定为检测目标,并进入步骤5.4,其中0.5≤θ≤0.8;
步骤5.4、将检测目标的安全服的box与对像的box进行匹配得到安全服的安全穿戴情况数据,将检测目标的安全帽的box与对像的box进行匹配得到安全帽的安全穿戴情况数据。
优选的,上述将检测目标的安全服的box与对像的box进行匹配得到安全服的安全穿戴情况数据具体为,将安全服的box与对像的box交集面积S(box_p)∩(box_c)和面积阈值η1与安全服的box的乘积η1Sbox_c进行对比,当S(box_p)∩(box_c)≥η1Sbox_c时,则判定为存在安全服穿戴情况数据,当S(box_p)∩(box_c)<η1*Sbox_c则判定为不存在安全服穿戴情况数据。
优选的,上述将检测目标的安全帽的box与对像的box进行匹配得到安全帽的安全穿戴情况数据具体为,将对像的box的边框高向y轴正方向拓展λ倍得到拓展后对像的box,将安全帽的box与拓展后对像的box交集面积S(box_p)∩(box_h)和面积阈值η2与安全帽的box的乘积η2*Sbox_h进行对比,当S(box_p)∩(box_h)≥η2*Sbox_h时,则判定为存在安全帽穿戴情况数据,当S(box_p)∩(box_h)<η2*Sbox_h则判定为不存在安全帽穿戴情况数据。
其中0.5≤η1≤0.8,0.5≤η2≤0.8,0.2≤λ≤0.5。
优选的,上述B为20000,所述D为16000,所述C为12000,所述β为0.001,所述γ为0.1,所述δ为0.01;
优选的,上述θ为0.65。
优选的,上述T1为10秒,T2为5秒,α为0.5。
优选的,上述η1和η2都为0.6。
优选的,上述λ为0.3。
优选的,上述V为2000。
本发明的一种安全穿戴情况识别方法,通过6个步骤能根据采集到的视频流数据得以时间段内对像的穿戴判断结果。本发明通过长短记忆算法,根据一段时间内的对像的穿戴情况对应启动长记忆算法结构或短记忆算法结构,避免因目标变形、突然运动、背景杂波、遮挡、视频丢帧等引起的误检、漏检安全服及安全帽。大大降低了误检、漏检安全服及安全帽产生的告警数量,合理输出告警信息,具有判断准确的特点。
附图说明
利用附图对本发明作进一步的说明,但附图中的内容不构成对本发明的任何限制。
图1为一种安全穿戴情况识别方法的流程图。
具体实施方式
结合以下实施例对本发明的技术方案作进一步说明。
实施例1。
一种安全穿戴情况识别方法,如图1所示,包括步骤:
步骤一、收集多张穿戴有安全穿戴物的素材图像;
步骤二、分别对步骤一得到的素材图像进行标准穿戴物区域标注,得到多个标准穿戴物区域框信息;
步骤三、对步骤二得到的多个标准穿戴物区域框信息进行重聚类,得到重聚类分组数据;
步骤四、采用darknet框架深度学习神经网络yolov3算法对步骤三得到的重聚类分组数据和步骤二得到的标准穿戴物区域框信息进行训练得到最优模型;
步骤五、将采集区域内的视频流数据进行解析,得到多帧图像,分别将多帧图像依次输入步骤四的最优模型得到安全穿戴物边框信息和对像框信息,然后根据安全穿戴物边框信息和对像框信息得到图像的安全穿戴情况数据;
步骤六、根据长短记忆算法统计步骤五的安全穿戴情况数据的时长,得到时间段内对像的穿戴判断结果。
本发明的穿戴物为安全服和安全帽。本发明的素材图像包括有对像穿戴有安全服图像和对像穿戴有安全帽图像,然后分别对每张素材图像标注出图像中对像、安全服和安全帽的区域框信息。本发明的视频流数据采集通过对工作人员佩戴头盔的摄像设备或者其他身体部位佩戴执法摄像设备,也可以通过固定到固定位置的摄像设备。
其中步骤六具体是根据长短记忆算法记录T时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT时,则判断存在安全穿戴物;当t<αT时则判断不存在安全穿戴物,其中α为时间阀值,且0.1<α<0.9,且T≥t>0。
本发明的标准穿戴物区域框信息包括有标准穿戴物区域框的中心点坐标、框高和框宽。
本发明的长短记忆算法包括有长记忆结构和短记忆结构。其中长记忆结构用于记录T1时间段内的安全穿戴情况数据,短记忆结构用于记录T2时间段内的安全穿戴情况数据,存在T1>T2>0。
当视频流数据的时长小于T1时,记录T2时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT2时判断结果为对像穿戴有安全穿戴物;当t<αT2时判断结果为对像没有穿戴安全穿戴物并发出告警。
当视频流数据存在对像框信息的时长小于T1时,记录T2时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT2时判断结果为对像穿戴有安全穿戴物;当t<αT2时判断结果为对像没有穿戴安全穿戴物并发出告警。
当视频流数据的时长大于或者等于T1时,记录T1时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT1时判断结果为对像穿戴有安全穿戴物;当t<αT1时判断结果为对像没有穿戴安全穿戴物并发出告警。
其中步骤三具体是对步骤二得到的多个标准穿戴物区域框信息进行kmean重聚类,且K设置为9,得到重聚类分组数据。
其中步骤四具体为采用darknet框架深度学习神经网络yolov3算法,根据训练参数对步骤三得到的重聚类分组数据和步骤二得到的多个标准穿戴物区域框信息进行训练得到最优模型。
其中训练参数为起始学习率设置为β,最大训练轮次为B,在轮次为C时的学习率设置为γ*β;在轮次为D时的学习率为δ*β,B>D>C>1000,β、γ和δ都为正数。本实施例β具体为0.001,γ为0.1,δ为0.01,B为20000,D为16000,C为12000。
因为越向后的轮次就越接真实值,因此越靠后的轮次的学习率就越少,从而得到越接真实值的最优模型。经多次实验验证,β为0.001,γ为0.1,δ为0.01,B为20000,D为16000,C为12000时,得到的最优模型较真实。
将在训练轮次中训练输出的平均损失值至恒定时,将当前训练轮次为起点,选择±V轮次范围内保存的权重测试为最优模型,存在0<V,本实施例具体的V为2000。
本发明以本实施例进行说明,平均损失值在14000轮次训练后不再减少,也是就恒定时。以14000轮次为起点,选择±2000轮次,即为12000~16000轮次范围内保存的权重测试为最优模型。
需要说明的是,本发明采用的darknet框架深度学习神经网络yolov3算法为本领域技术公知常识,当参数设置后再将本发明的重聚类分组数据和多个标准穿戴物区域框信息进行训练后,可以得到本发明的最优模型。因此在此不再一一累述darknet框架深度学习神经网络yolov3算法的具体设置与操作过程。对于本发明所采用kmean重聚类为公知的算法,本领域技术人员也应当知晓其参数及参数设置,当参数设置后再将本发明的多个标准穿戴物区域框信息采用kmean重聚类后,可以得到本发明的重聚类分组数据。因此在此不再一一累述kmean重聚类的具体设置与操作过程。
该安全穿戴情况识别方法,通过6个步骤能根据采集到的视频流数据得以时间段内对像的穿戴判断结果。本发明通过长短记忆算法,根据一段时间内对像的穿戴情况对应启动长记忆算法结构或短记忆算法结构,避免因目标变形、突然运动、背景杂波、遮挡、视频丢帧等引起的误检、漏检安全服及安全帽。大大降低了误检、漏检安全服及安全帽产生的告警数量,合理输出告警信息,具有判断准确的优点。
实施例2。
一种安全穿戴情况识别方法,其他特征与实施例1相同,还具有如下特征:步骤五包括有:
步骤5.1、将采集区域内对像的视频流数据进行解析,得到多帧图像;
步骤5.2、分别将多帧图像依次输入步骤四的最优模型得到对应的安全服、安全帽及对像分别对应的class、score和box,其中class为类别信息,score为识别目标的置信度,box为识别目标的边框信息(x,y,w,h)其中x为边框中心点的x轴坐标,y为边框中心点的y轴坐标,w为边框的宽,h为边框的高;
步骤5.3、分别将score与置信阈值θ对比,当score<θ时则判定为误检目标,并删除对应的box;当score≥θ时则判定为检测目标,并进入步骤5.4,其中0.5≤θ≤0.8;
步骤5.4、将检测目标的安全服的box与对像的box进行匹配得到安全服的安全穿戴情况数据,将检测目标的安全帽的box与对像的box进行匹配得到安全帽的安全穿戴情况数据。
其中本发明的置信阈值θ具体为0.65,也就是说,当score小于0.65,则判定为误检目标。
本发明的步骤5.1利用FFmpeg进行解析得到多帧RGB格式的图像数据,根据检测效率和精准性要求,图像数据可选择每帧或者每隔i(i可任意设置)帧传入最优模型。
其中步骤5.2以其中一帧图像进行说明,该帧图像输入最优模型后得到了对像的class、score和box、安全服的class、score和box及安全帽的class、score和box,其中安全服的score和box具体为(coverall,0.9641,526,361,185,432),安全帽的score和box具体为(hat,0.9268,526,98,106,81),0.9641和0.9268为置信度,526,361,185,432和26,98,106,81为边框信息(x,y,w,h)。其中coverall和hat分别是安全服和安全帽对应的类别信息。
具体地,将检测目标的安全服的box与对像的box进行匹配得到安全服的安全穿戴情况数据具体为,将安全服的box与对像的box交集面积S(box_p)∩(box_c)和面积阈值η1与安全服的box的乘积η1Sbox_c进行对比,当S(box_p)∩(box_c)≥η1*Sbox_c时,则判定为存在安全服穿戴情况数据,当S(box_p)∩(box_c)<η1*Sbox_c则判定为不存在安全服穿戴情况数据,其中0.5≤η1≤0.8。
具体地,将检测目标的安全帽的box与对像的box进行匹配得到安全帽的安全穿戴情况数据具体为,将对像的box的边框高向y轴正方向拓展λ倍得到拓展后对像的box,将安全帽的box与拓展后对像的box交集面积S(box_p)∩(box_h)和面积阈值η2与安全帽的box的乘积η2*Sbox_h进行对比,当S(box_p)∩(box_h)≥η2*Sbox_h时,则判定为存在安全帽穿戴情况数据,当S(box_p)∩(box_h)<η2*Sbox_h则判定为不存在安全帽穿戴情况数据,其中0.5≤η2≤0.8,0.2≤λ≤0.5。
其中本实施例η1和η2都具体为0.6,λ为0.3。
该安全穿戴情况识别方法,通过分别计算安全帽的box和安全服的box与对像的box的交集面积,判定穿戴情况数据,能较准确地反映真实的穿戴情况。
实施例3。
一种安全穿戴情况识别方法,其他特征与实施例1相同,不同之处在于:本实施例α具体为0.5,T1为10秒,T2为5秒。
当视频流数据的时长小于10秒时,记录5秒时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥2.5秒时判断结果为对像穿戴有安全穿戴物;当t<2.5秒判断结果为对像没有穿戴安全穿戴物并发出告警。也就是说,记录人员在5秒内戴安全服及安全帽情况,当人员5s内累计超过一半时间未穿戴安全服及安全帽即产生告警。
当视频流数据存在对像框信息的时长小于10秒时,记录5秒时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥2.5秒时判断结果为对像穿戴有安全穿戴物;当t<2.5秒时判断结果为对像没有穿戴安全穿戴物并发出告警。也就是说,当视频分析连续10秒内未检测到人,当人员重新出现时,记忆人员5秒内穿戴安全服及安全帽情况,当人员5秒内累计超过一半时间未穿戴安全服及安全帽即产生告警。
当视频流数据的时长大于或者等于10秒时,记录10秒时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥5秒时判断结果为对像穿戴有安全穿戴物;当t<5秒时判断结果为对像没有穿戴安全穿戴物并发出告警。当视频分析时长大于10秒时,记忆人员10秒内穿戴安全服及安全帽情况,当人员10秒内累计超过一半时间未穿戴安全服及安全帽即产生告警。
该安全穿戴情况识别方法通过长短记忆算法能有效避免因目标变形、突然运动、背景杂波、遮挡、视频丢帧等引起的误检或者漏检安全穿戴物的情况,具有判断准确的优点。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细说明,本领域的普通技术人员应当理解,可以对本发明技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。

Claims (10)

1.一种安全穿戴情况识别方法,其特征在于,包括步骤:
步骤一、收集多张穿戴有安全穿戴物的素材图像;
步骤二、分别对步骤一得到的素材图像进行标准穿戴物区域标注,得到多个标准穿戴物区域框信息;
步骤三、对步骤二得到的多个标准穿戴物区域框信息进行重聚类,得到重聚类分组数据;
步骤四、采用darknet框架深度学习神经网络yolov3算法对步骤三得到的重聚类分组数据和步骤二得到的标准穿戴物区域框信息进行训练得到最优模型;
步骤五、将采集区域内的视频流数据进行解析,得到多帧图像,分别将多帧图像依次输入步骤四的最优模型得到安全穿戴物边框信息和对像框信息,然后根据安全穿戴物边框信息和对像框信息得到图像的安全穿戴情况数据;
步骤六、根据长短记忆算法统计步骤五的安全穿戴情况数据的时长,得到时间段内对像的穿戴判断结果。
2.根据权利要求1所述的安全穿戴情况识别方法,其特征在于:所述步骤六具体是根据长短记忆算法记录T时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT时,则判断存在安全穿戴物;当t<αT时则判断不存在安全穿戴物,其中α为时间阀值,且0.1<α<0.9,且T≥t>0。
3.根据权利要求2所述的安全穿戴情况识别方法,其特征在于:所述标准穿戴物区域框信息包括标准穿戴物区域框的中心点坐标、框高和框宽;
所述长短记忆算法包括有长记忆结构和短记忆结构,
所述长记忆结构用于记录T1时间段内的安全穿戴情况数据,所述短记忆结构用于记录T2时间段内的安全穿戴情况数据,存在T1>T2>0。
4.根据权利要求3所述的安全穿戴情况识别方法,其特征在于:当视频流数据的时长小于T1时,记录T2时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT2时判断结果为对像穿戴有安全穿戴物;当t<αT2时判断结果为对像没有穿戴安全穿戴物并发出告警;
当视频流数据存在对像框信息的时长小于T1时,记录T2时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT2时判断结果为对像穿戴有安全穿戴物;当t<αT2时判断结果为对像没有穿戴安全穿戴物并发出告警;
当视频流数据的时长大于或者等于T1时,记录T1时间段内步骤五的安全穿戴情况数据的累计时长t,当t≥αT1时判断结果为对像穿戴有安全穿戴物;当t<αT1时判断结果为对像没有穿戴安全穿戴物并发出告警。
5.根据权利要求4所述的安全穿戴情况识别方法,其特征在于:所述步骤三具体是对步骤二得到的多个标准穿戴物区域框信息进行kmean重聚类,且K设置为9,得到重聚类分组数据。
6.根据权利要求5所述的安全穿戴情况识别方法,其特征在于:所述步骤四具体为采用darknet框架深度学习神经网络yolov3算法,根据训练参数对步骤三得到的重聚类分组数据和步骤二得到的多个标准穿戴物区域框信息进行训练得到最优模型;
所述训练参数为起始学习率设置为β,最大训练轮次为B,在轮次为C时的学习率设置为γ*β;在轮次为D时的学习率为δ*β,B>D>C>1000,β、γ和δ都为正数;
将在训练轮次中训练输出的平均损失值至恒定时,将当前训练轮次为起点,选择±V轮次范围内保存的权重测试为最优模型,存在0<V。
7.根据权利要求6所述的安全穿戴情况识别方法,其特征在于:所述穿戴物为安全服和安全帽;
所述步骤五包括有:
步骤5.1、将采集区域内对像的视频流数据进行解析,得到多帧图像;
步骤5.2、分别将多帧图像依次输入步骤四的最优模型得到对应的安全服、安全帽及对像分别对应的class、score和box,其中class为类别信息,score为识别目标的置信度,box为识别目标的边框信息(x,y,w,h)其中x为边框中心点的x轴坐标,y为边框中心点的y轴坐标,w为边框的宽,h为边框的高;
步骤5.3、分别将score与置信阈值θ对比,当score<θ时则判定为误检目标,并删除对应的box;当score≥θ时则判定为检测目标,并进入步骤5.4,其中0.5≤θ≤0.8;
步骤5.4、将检测目标的安全服的box与对像的box进行匹配得到安全服的安全穿戴情况数据,将检测目标的安全帽的box与对像的box进行匹配得到安全帽的安全穿戴情况数据。
8.根据权利要求7所述的安全穿戴情况识别方法,其特征在于:所述将检测目标的安全服的box与对像的box进行匹配得到安全服的安全穿戴情况数据具体为,将安全服的box与对像的box交集面积S(box_p)∩(box_c)和面积阈值η1与安全服的box的乘积η1*Sbox_c进行对比,当S(box_p)∩(box_c)≥η1Sbox_c时,则判定为存在安全服穿戴情况数据,当S(box_p)∩(box_c)<η1*Sbox_c则判定为不存在安全服穿戴情况数据,其中0.5≤η1≤0.8。
9.根据权利要求8所述的安全穿戴情况识别方法,其特征在于:所述将检测目标的安全帽的box与对像的box进行匹配得到安全帽的安全穿戴情况数据具体为,将对像的box的边框高向y轴正方向拓展λ倍得到拓展后对像的box,将安全帽的box与拓展后对像的box交集面积S(box_p)∩(box_h)和面积阈值η2与安全帽的box的乘积η2*Sbox_h进行对比,当S(box_p)∩(box_h)≥η2*Sbox_h时,则判定为存在安全帽穿戴情况数据,当S(box_p)∩(box_h)<η2*Sbox_h则判定为不存在安全帽穿戴情况数据,其中0.5≤η2≤0.8,0.2≤λ≤0.5。
10.根据权利要求9所述的安全穿戴情况识别方法,其特征在于:所述B为20000,所述D为16000,所述C为12000,所述β为0.001,所述γ为0.1,所述δ为0.01;
所述θ为0.65;
所述T1为10秒,T2为5秒,α为0.5;
所述η1和η2都为0.6;
所述λ为0.3;
所述V为2000。
CN202011169611.0A 2020-10-27 2020-10-27 一种安全穿戴情况识别方法 Active CN112257620B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011169611.0A CN112257620B (zh) 2020-10-27 2020-10-27 一种安全穿戴情况识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011169611.0A CN112257620B (zh) 2020-10-27 2020-10-27 一种安全穿戴情况识别方法

Publications (2)

Publication Number Publication Date
CN112257620A true CN112257620A (zh) 2021-01-22
CN112257620B CN112257620B (zh) 2021-10-26

Family

ID=74262532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011169611.0A Active CN112257620B (zh) 2020-10-27 2020-10-27 一种安全穿戴情况识别方法

Country Status (1)

Country Link
CN (1) CN112257620B (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102136076A (zh) * 2011-03-14 2011-07-27 徐州中矿大华洋通信设备有限公司 基于安全帽检测的煤矿井下人员定位与跟踪方法
CN108319926A (zh) * 2018-02-12 2018-07-24 安徽金禾软件股份有限公司 一种工地现场的安全帽佩戴检测系统及检测方法
CN109101922A (zh) * 2018-08-10 2018-12-28 广东电网有限责任公司 作业人员着装分析方法、装置及电子设备
CN109255298A (zh) * 2018-08-07 2019-01-22 南京工业大学 一种动态背景中的安全帽检测方法与系统
CN110287804A (zh) * 2019-05-30 2019-09-27 广东电网有限责任公司 一种基于移动视频监控的电力作业人员着装识别方法
CN110399905A (zh) * 2019-07-03 2019-11-01 常州大学 施工场景中安全帽佩戴情况的检测及描述方法
CN110717466A (zh) * 2019-10-15 2020-01-21 中国电建集团成都勘测设计研究院有限公司 一种基于人脸检测框回归安全帽位置的方法
CN110852283A (zh) * 2019-11-14 2020-02-28 南京工程学院 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN111091069A (zh) * 2019-11-27 2020-05-01 云南电网有限责任公司电力科学研究院 一种盲图像质量评价引导的电网目标检测方法及系统
CN111160440A (zh) * 2019-12-24 2020-05-15 广东省智能制造研究所 一种基于深度学习的安全帽佩戴检测方法及装置
CN111192426A (zh) * 2020-01-14 2020-05-22 中兴飞流信息科技有限公司 基于拟人视觉图像分析视频巡航的铁路周界入侵检测方法
CN111539276A (zh) * 2020-04-14 2020-08-14 国家电网有限公司 一种在电力场景下安全帽实时检测的方法
CN111598066A (zh) * 2020-07-24 2020-08-28 之江实验室 一种基于级联预测的安全帽佩戴识别方法
CN111639552A (zh) * 2020-05-14 2020-09-08 上海闪马智能科技有限公司 一种施工现场安全帽佩戴检测方法及系统

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102136076A (zh) * 2011-03-14 2011-07-27 徐州中矿大华洋通信设备有限公司 基于安全帽检测的煤矿井下人员定位与跟踪方法
CN108319926A (zh) * 2018-02-12 2018-07-24 安徽金禾软件股份有限公司 一种工地现场的安全帽佩戴检测系统及检测方法
CN109255298A (zh) * 2018-08-07 2019-01-22 南京工业大学 一种动态背景中的安全帽检测方法与系统
CN109101922A (zh) * 2018-08-10 2018-12-28 广东电网有限责任公司 作业人员着装分析方法、装置及电子设备
CN110287804A (zh) * 2019-05-30 2019-09-27 广东电网有限责任公司 一种基于移动视频监控的电力作业人员着装识别方法
CN110399905A (zh) * 2019-07-03 2019-11-01 常州大学 施工场景中安全帽佩戴情况的检测及描述方法
CN110717466A (zh) * 2019-10-15 2020-01-21 中国电建集团成都勘测设计研究院有限公司 一种基于人脸检测框回归安全帽位置的方法
CN110852283A (zh) * 2019-11-14 2020-02-28 南京工程学院 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN111091069A (zh) * 2019-11-27 2020-05-01 云南电网有限责任公司电力科学研究院 一种盲图像质量评价引导的电网目标检测方法及系统
CN111160440A (zh) * 2019-12-24 2020-05-15 广东省智能制造研究所 一种基于深度学习的安全帽佩戴检测方法及装置
CN111192426A (zh) * 2020-01-14 2020-05-22 中兴飞流信息科技有限公司 基于拟人视觉图像分析视频巡航的铁路周界入侵检测方法
CN111539276A (zh) * 2020-04-14 2020-08-14 国家电网有限公司 一种在电力场景下安全帽实时检测的方法
CN111639552A (zh) * 2020-05-14 2020-09-08 上海闪马智能科技有限公司 一种施工现场安全帽佩戴检测方法及系统
CN111598066A (zh) * 2020-07-24 2020-08-28 之江实验室 一种基于级联预测的安全帽佩戴识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAO WU 等: "Automated visual helmet identification based on deep convolutional neural networks", 《ELSEVIER》 *
张志超: "安全帽佩戴检测方法研究", 《中国优秀硕士学位论文全文数据库 工程科技I辑》 *

Also Published As

Publication number Publication date
CN112257620B (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
CN109117827B (zh) 基于视频的工服工帽穿戴状态自动识别方法与报警系统
Li et al. Toward efficient safety helmet detection based on YoloV5 with hierarchical positive sample selection and box density filtering
CN110044486A (zh) 用于人体检验检疫系统避免重复报警的方法、装置、设备
TWI776350B (zh) 著裝及作業檢查方法、電腦裝置及儲存介質
CN113903081A (zh) 一种水电厂图像视觉识别人工智能报警方法及装置
CN111539276B (zh) 一种在电力场景下安全帽实时检测的方法
CN112396658A (zh) 一种基于视频的室内人员定位方法及定位系统
CN113807240A (zh) 基于非配合式人脸识别的变电站人员着装智能监控方法
Wang et al. A safety helmet and protective clothing detection method based on improved-yolo v 3
CN112434669A (zh) 一种多信息融合的人体行为检测方法及系统
CN117496129A (zh) 一种基于YOLOv7改进的工厂安全穿戴目标检测方法
CN113111771A (zh) 一种发电厂工作人员不安全行为的识别方法
CN113256934A (zh) 一种高空作业人员安全检测系统
CN116310943A (zh) 一种感知工人安全状况的方法
CN116264004A (zh) 基于工人重新识别和个人防护装备分类对现场安全合规性进行的基于视觉的监测
CN112257620B (zh) 一种安全穿戴情况识别方法
CN115620192A (zh) 一种高空作业安全绳穿戴检测的方法和装置
CN113487166A (zh) 一种基于卷积神经网络的化纤飘丝质量检测方法及系统
KR20050052657A (ko) 비젼기반 사람 검출방법 및 장치
CN110705453A (zh) 一种实时的疲劳驾驶检测方法
CN114663805A (zh) 一种基于换流站阀厅消防机器人的火焰定位报警系统及方法
CN114495150A (zh) 一种基于时序特征的人体摔倒检测方法及系统
CN115995093A (zh) 一种基于改进YOLOv5的安全帽佩戴识别方法
CN116030405A (zh) 一种基于人工智能的行人目标的安全护具穿戴监控方法
CN112949606A (zh) 工服穿戴状态检测方法、装置、存储介质及电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant