Nothing Special   »   [go: up one dir, main page]

CN113838094B - 一种基于智能视频识别的安全预警方法 - Google Patents

一种基于智能视频识别的安全预警方法 Download PDF

Info

Publication number
CN113838094B
CN113838094B CN202111140674.8A CN202111140674A CN113838094B CN 113838094 B CN113838094 B CN 113838094B CN 202111140674 A CN202111140674 A CN 202111140674A CN 113838094 B CN113838094 B CN 113838094B
Authority
CN
China
Prior art keywords
moving object
image
safety helmet
images
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111140674.8A
Other languages
English (en)
Other versions
CN113838094A (zh
Inventor
杜泽新
左天才
贺亚山
宋尔进
曾体健
崔珂伟
张孙蓉
张玉吉
李林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Wujiang Hydropower Development Co Ltd
Original Assignee
Guizhou Wujiang Hydropower Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Wujiang Hydropower Development Co Ltd filed Critical Guizhou Wujiang Hydropower Development Co Ltd
Priority to CN202111140674.8A priority Critical patent/CN113838094B/zh
Publication of CN113838094A publication Critical patent/CN113838094A/zh
Application granted granted Critical
Publication of CN113838094B publication Critical patent/CN113838094B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于智能视频识别的安全预警方法,包括,基于卷积神经网络,通过训练获取安全帽识别模型;通过摄像头采集视频图像;利用两帧间差分法对视频图像中的运动物体进行识别;结合安全帽识别模型对运动物体进行安全帽佩戴识别,通过训练获得安全帽识别模型,获取实时视频流,识别视频图像中的运动物体,对运动物体进行移动分析,根据安全帽识别模型进行识别比对、安全帽位置建立矩形标记框,通过安全帽识别比对结果、运动物体轮廓最高点和轮廓中心点比对结果、矩形标记框的对角线所呈角度比对结果进行安全帽佩戴识别,本发明无需基于脸部特征定位人脸,解决了费时费力,实时性差以及颜色特征识别不精准的问题。

Description

一种基于智能视频识别的安全预警方法
技术领域
本发明涉及的智能视频识别技术领域,尤其涉及一种基于智能视频识别的安全预警方法。
背景技术
现如今越来越重视安全生产,各个企业也都采取各种措施保障员工的安全生产,但是依然存在着在岗工人不佩戴安全帽从事危险作业的情况,当前在施工现场和作业场地因为违反安全规范问题而导致的安全事故时有发生,安全帽佩戴管理成为一大难点,未佩戴安全帽导致的安全问题较为常见,使用人力监督存在着成本较高、效率低下等诸多问题,现有的研究都是基于颜色特征、脸部特征定位人脸,然后根据颜色特征对安全帽进行识别,然而大多数定位人体需要使用复杂算法遍历整张图像,费时费力,实时性差,并且施工现场环境复杂,基于颜色特征的识别并不精准。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
鉴于上述现有存在的问题,提出了本发明。
因此,本发明解决的技术问题是:现有的安全帽佩戴识别基于脸部特征定位人脸,需要复杂算法遍历整张图像,费时费力,实时性差的问题,而且施工现场环境复杂,颜色特征识别不精准。
为解决上述技术问题,本发明提供如下技术方案:一种基于智能视频识别的安全预警方法,包括,
基于卷积神经网络,通过大样本的训练,获取安全帽识别模型;
通过摄像头采集一定区域内的视频图像;
利用两帧间差分法对采集到的视频图像中的运动物体进行识别;
结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述基于卷积神经网络,通过大样本的训练,获取安全帽识别模型包括:采集安全帽数据作为样本数据,并对正样本做镜像对称,生成正负样本索引目录,并且做标记,搭建卷积神经网络,利用样本数据训练卷积神经网络,将训练好的卷积神经网络保存成安全帽识别模型。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述利用两帧间差分法对采集到的视频图像中的运动物体进行识别包括:调用摄像头,获取实时视频流,记第n帧和第n-1帧图像为fn、fn-1,两帧对应像素点的灰度值记为fn(x,y)和fn-1(x,y),通过计算两帧图像对应像素点的灰度值差值的绝对值,得到差分图像Dn
Dn(x,y)=|fn(x,y)-fn-1(x,y)|
通过阈值比对,当Dn(x,y)超出设定阈值时,识别当前第n帧图像中存在运动物体。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别包括:对存在运动物体的图像进行标记,标记为第一图像,获取第一图像中的运动物体轮廓,并确定运动物体轮廓的中心点位置,进一步获取所述第一图像所对应的时间节点,并按照时间节点先后对所述第一图像进行排序,对时间节点相邻的第一图像中的运动物体进行移动分析,根据移动分析结果对第一图像进一步进行标记,被标记的第一图像为第二图像。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述确定运动物体轮廓的中心点位置包括:根据所述运动物体轮廓,获取其最高点与水平地面之间的第一直线,所述第一直线的长度为Hmax且第一直线垂直于所述水平地面,确定所述第一直线上距水平地面长度为 的两点,过所述两点做第二直线、第三直线垂直于所述第一直线,所述第二直线、第三直线截取到所述运动物体轮廓的两段轮廓边缘,记为第一轮廓边缘、第二轮廓边缘,获取所述第一轮廓边缘、第二轮廓边缘距所述第一直线最远的两点,过两点做直线垂直于水平地面,并过所述最高点做直线平行于水平地面,所做直线与水平地面之间围成一矩形,该矩形对角线的交点即为所述运动物体轮廓的中心点位置。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述对时间节点相邻的第一图像中的运动物体进行移动分析,根据移动分析结果对第一图像进一步进行标记,被标记的第一图像为第二图像包括:计算相邻的两个时间节点之间的时间间隔,记为tn,所述两个时间节点分别记为起始时间节点、截止时间节点,若所述时间间隔tn小于时间间隔阈值,则取下一个相邻时间节点与起始时间节点之间的时间间隔tn+1,直至所述时间间隔大于等于时间间隔阈值,根据所述运动物体轮廓以及中心点位置确定所述第一图像中的同一运动物体,获取同一运动物体的位置变化距离,当所述同一运动物体的位置变化距离大于等于变化距离阈值时,则将存在所述同一运动物体的第一图像标记为第二图像,所述变化距离阈值为预设的移动速度与所述时间间隔的乘积。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别还包括:获取存在运动物体的第二图像,结合安全帽识别模型对所述第二图像进行识别比对,若当前识别比对成功,则进一步对所述第二图像中识别比对成功区域进行颜色特征提取,将提取到的第二颜色特征与预先设置的第一颜色特征进行比对,若比对成功,则当前所述第二图像中存在安全帽,并对所述第二图像进行标记。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别还包括:获取被标记的第二图像,确定图像中的水平地面位置,结合安全帽在图像中的具体位置,以安全帽与水平地面之间的竖直距离H和一定值W建立矩形标记框,所述矩形标记框的长度为H、宽度为W,根据所述矩形标记框的特征进行安全帽佩戴识别。
作为本发明所述的基于智能视频识别的安全预警方法的一种优选方案,其中:所述根据所述矩形标记框的特征进行安全帽佩戴识别包括:
对所述矩形标记框的特征进行提取,连接所述矩形框的对角线,分别记对角线为l1、l2,确定对角线l1与对角线l2之间所呈角度θ1,通过公式计算得到θ1的值,当θ1满足θmin1max且所述识别比对成功区域的中心点与所述运动物体轮廓的最高点之间的距离小于预设值时,则当前安全帽佩戴识别通过,反之,则当前安全帽佩戴识别不通过,并通过被标记图像确定图像所属区域,对该区域进行安全帽未佩戴预警。
本发明的有益效果:通过训练获得安全帽识别模型,获取实时视频流,并结合两帧间差分法,判断图像中是否存在运动物体,识别不同图像中的同一运动物体,通过运动物体的移动分析结果对图像进行标记,结合安全帽识别模型对被标记的图像进行识别比对并根据安全帽存在位置建立矩形标记框,根据安全帽识别比对结果、运动物体轮廓最高点和运动物体轮廓中心点比对结果以及矩形标记框的对角线所呈角度比对结果进行安全帽佩戴识别,本发明无需基于脸部特征定位人脸,解决了费时费力,实时性差以及颜色特征识别不精准的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明一种基于智能视频识别的安全预警方法的步骤示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明,显然所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明的保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
同时在本发明的描述中,需要说明的是,术语中的“上、下、内和外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一、第二或第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
本发明中除非另有明确的规定和限定,术语“安装、相连、连接”应做广义理解,例如:可以是固定连接、可拆卸连接或一体式连接;同样可以是机械连接、电连接或直接连接,也可以通过中间媒介间接相连,也可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
实施例1
参照图1,本实施例提供了一种基于智能视频识别的安全预警方法,包括,基于卷积神经网络,通过大样本的训练,获取安全帽识别模型;
通过摄像头采集一定区域内的视频图像;
利用两帧间差分法对采集到的视频图像中的运动物体进行识别;
结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别。
基于卷积神经网络,通过大样本的训练,获取安全帽识别模型包括:采集安全帽数据作为样本数据,并对正样本做镜像对称,生成正负样本索引目录,并且做标记,搭建卷积神经网络,利用样本数据训练卷积神经网络,将训练好的卷积神经网络保存成安全帽识别模型。
利用两帧间差分法对采集到的视频图像中的运动物体进行识别包括:调用摄像头,获取实时视频流,记第n帧和第n-1帧图像为fn、fn-1,两帧对应像素点的灰度值记为fn(x,y)和fn-1(x,y),通过计算两帧图像对应像素点的灰度值差值的绝对值,得到差分图像Dn
Dn(x,y)=|fn(x,y)-fn-1(x,y)|
通过阈值比对,当Dn(x,y)超出设定阈值时,识别当前第n帧图像中存在运动物体。
结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别包括:对存在运动物体的图像进行标记,标记为第一图像,获取第一图像中的运动物体轮廓,并确定运动物体轮廓的中心点位置,进一步获取第一图像所对应的时间节点,并按照时间节点先后对第一图像进行排序,对时间节点相邻的第一图像中的运动物体进行移动分析,根据移动分析结果对第一图像进一步进行标记,被标记的第一图像为第二图像。
确定运动物体轮廓的中心点位置包括:根据运动物体轮廓,获取其最高点与水平地面之间的第一直线,第一直线的长度为Hmax且第一直线垂直于水平地面,确定第一直线上距水平地面长度为的两点,过两点做第二直线、第三直线垂直于第一直线,第二直线、第三直线截取到运动物体轮廓的两段轮廓边缘,记为第一轮廓边缘、第二轮廓边缘,获取第一轮廓边缘、第二轮廓边缘距第一直线最远的两点,过两点做直线垂直于水平地面,并过最高点做直线平行于水平地面,所做直线与水平地面之间围成一矩形,该矩形对角线的交点即为运动物体轮廓的中心点位置。
对时间节点相邻的第一图像中的运动物体进行移动分析,根据移动分析结果对第一图像进一步进行标记,被标记的第一图像为第二图像包括:计算相邻的两个时间节点之间的时间间隔,记为tn,两个时间节点分别记为起始时间节点、截止时间节点,若时间间隔tn小于时间间隔阈值,则取下一个相邻时间节点与起始时间节点之间的时间间隔tn+1,直至时间间隔大于等于时间间隔阈值,根据运动物体轮廓以及中心点位置确定第一图像中的同一运动物体,获取同一运动物体的位置变化距离,当同一运动物体的位置变化距离大于等于变化距离阈值时,则将存在同一运动物体的第一图像标记为第二图像,变化距离阈值为预设的移动速度与时间间隔的乘积。
结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别还包括:获取存在运动物体的第二图像,结合安全帽识别模型对第二图像进行识别比对,若当前识别比对成功,则进一步对第二图像中识别比对成功区域进行颜色特征提取,将提取到的第二颜色特征与预先设置的第一颜色特征进行比对,若比对成功,则当前第二图像中存在安全帽,并对第二图像进行标记。
结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别还包括:获取被标记的第二图像,确定图像中的水平地面位置,结合安全帽在图像中的具体位置,以安全帽与水平地面之间的竖直距离H和一定值W建立矩形标记框,矩形标记框的长度为H、宽度为W,根据矩形标记框的特征进行安全帽佩戴识别。
根据矩形标记框的特征进行安全帽佩戴识别包括:
对矩形标记框的特征进行提取,连接矩形框的对角线,分别记对角线为l1、l2,确定对角线l1与对角线l2之间所呈角度θ1,通过公式计算得到θ1的值,当θ1满足θmin1max且识别比对成功区域的中心点与运动物体轮廓的最高点之间的距离小于预设值时,则当前安全帽佩戴识别通过,反之,则当前安全帽佩戴识别不通过,并通过被标记图像确定图像所属区域,对该区域进行安全帽未佩戴预警。
实施例2
参照图1,本实施例提供了一种基于智能视频识别的安全预警方法,包括,
基于卷积神经网络,通过大样本的训练,获取安全帽识别模型:
采集安全帽数据作为样本数据,并对正样本做镜像对称,生成正负样本索引目录,并且做标记,搭建卷积神经网络,利用样本数据训练卷积神经网络,将训练好的卷积神经网络保存成安全帽识别模型;
通过摄像头采集一定区域内的视频图像;
利用两帧间差分法对采集到的视频图像中的运动物体进行识别:
调用摄像头,获取实时视频流,记第n帧和第n-1帧图像为fn、fn-1,两帧对应像素点的灰度值记为fn(x,y)和fn-1(x,y),通过计算两帧图像对应像素点的灰度值差值的绝对值,得到差分图像Dn
Dn(x,y)=|fn(x,y)-fn-1(x,y)|
通过阈值比对,当Dn(x,y)超出设定阈值时,识别当前第n帧图像中存在运动物体;
结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别:
对存在运动物体的图像进行标记,标记为第一图像,获取第一图像中的运动物体轮廓,并确定运动物体轮廓的中心点位置,根据运动物体轮廓,获取其最高点与水平地面之间的第一直线,第一直线的长度为Hmax且第一直线垂直于水平地面,确定第一直线上距水平地面长度为的两点,过两点做第二直线、第三直线垂直于第一直线,第二直线、第三直线截取到运动物体轮廓的两段轮廓边缘,记为第一轮廓边缘、第二轮廓边缘,获取第一轮廓边缘、第二轮廓边缘距第一直线最远的两点,过两点做直线垂直于水平地面,并过最高点做直线平行于水平地面,所做直线与水平地面之间围成一矩形,该矩形对角线的交点即为运动物体轮廓的中心点位置,进一步获取第一图像所对应的时间节点,并按照时间节点先后对第一图像进行排序,对时间节点相邻的第一图像中的运动物体进行移动分析,根据移动分析结果对第一图像进一步进行标记,被标记的第一图像为第二图像,计算相邻的两个时间节点之间的时间间隔,记为tn,两个时间节点分别记为起始时间节点、截止时间节点,若时间间隔tn小于时间间隔阈值,则取下一个相邻时间节点与起始时间节点之间的时间间隔tn+1,直至时间间隔大于等于时间间隔阈值,根据运动物体轮廓以及中心点位置确定第一图像中的同一运动物体,获取同一运动物体的位置变化距离,当同一运动物体的位置变化距离大于等于变化距离阈值时,则将存在同一运动物体的第一图像标记为第二图像,变化距离阈值为预设的移动速度与时间间隔的乘积,所述预设的移动速度取成年人的正常移动速度1.25m/s;
获取存在运动物体的第二图像,结合安全帽识别模型对第二图像进行识别比对,若当前识别比对成功,则进一步对第二图像中识别比对成功区域进行颜色特征提取,将提取到的第二颜色特征与预先设置的第一颜色特征进行比对,若比对成功,则当前第二图像中存在安全帽,并对第二图像进行标记;
获取被标记的第二图像,确定图像中的水平地面位置,结合安全帽在图像中的具体位置,以安全帽与水平地面之间的竖直距离H和一定值W建立矩形标记框,矩形标记框的长度为H、宽度为W,根据矩形标记框的特征进行安全帽佩戴识别,W的取值范围为351cm~375cm,W为成年人的肩宽,H的取值范围为150cm~200cm,H为成年人的身高,在取值范围内,H与W取任意值;
对矩形标记框的特征进行提取,连接矩形框的对角线,分别记对角线为l1、l2,确定对角线l1与对角线l2之间所呈角度θ1,通过公式计算得到θ1的值,在计算时,W可以为取值范围内的任意值,代入Hmin=150cm、Hmax=200cm计算求得θmin、θmax,当θ1满足θmix1max且识别比对成功区域的中心点与运动物体轮廓的最高点之间的距离小于预设值时,则当前安全帽佩戴识别通过,反之,则当前安全帽佩戴识别不通过,并通过被标记图像确定图像所属区域,对该区域进行安全帽未佩戴预警。
通过训练获得安全帽识别模型,获取实时视频流,并结合两帧间差分法,判断图像中是否存在运动物体,识别不同图像中的同一运动物体,通过运动物体的移动分析结果对图像进行标记,结合安全帽识别模型对被标记的图像进行识别比对并根据安全帽存在位置建立矩形标记框,根据安全帽识别比对结果、运动物体轮廓最高点和运动物体轮廓中心点比对结果以及矩形标记框的对角线所呈角度比对结果进行安全帽佩戴识别,本发明无需基于脸部特征定位人脸,解决了费时费力,实时性差以及颜色特征识别不精准的问题。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
如在本申请所使用的,术语“组件”、“模块”、“系统”等等旨在指代计算机相关实体,该计算机相关实体可以是硬件、固件、硬件和软件的结合、软件或者运行中的软件。例如,组件可以是,但不限于是:在处理器上运行的处理、处理器、对象、可执行文件、执行中的线程、程序和/或计算机。作为示例,在计算设备上运行的应用和该计算设备都可以是组件。一个或多个组件可以存在于执行中的过程和/或线程中,并且组件可以位于一个计算机中以及/或者分布在两个或更多个计算机之间。此外,这些组件能够从在其上具有各种数据结构的各种计算机可读介质中执行。这些组件可以通过诸如根据具有一个或多个数据分组(例如,来自一个组件的数据,该组件与本地系统、分布式系统中的另一个组件进行交互和/或以信号的方式通过诸如互联网之类的网络与其它系统进行交互)的信号,以本地和/或远程过程的方式进行通信。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (1)

1.一种基于智能视频识别的安全预警方法,其特征在于:包括,
基于卷积神经网络,通过大样本的训练,获取安全帽识别模型;
通过摄像头采集一定区域内的视频图像;
利用两帧间差分法对采集到的视频图像中的运动物体进行识别;
结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别;
所述基于卷积神经网络,通过大样本的训练,获取安全帽识别模型包括:采集安全帽数据作为样本数据,并对正样本做镜像对称,生成正负样本索引目录,并且做标记,搭建卷积神经网络,利用样本数据训练卷积神经网络,将训练好的卷积神经网络保存成安全帽识别模型;
所述利用两帧间差分法对采集到的视频图像中的运动物体进行识别包括:调用摄像头,获取实时视频流,记第n帧和第n-1帧图像为fn、fn-1,两帧对应像素点的灰度值记为fn(x,y)和fn-1(x,y),通过计算两帧图像对应像素点的灰度值差值的绝对值,得到差分图像Dn
Dn(x,y)=|fn(x,y)-fn-1(x,y)|
通过阈值比对,当Dn(x,y)超出设定阈值时,识别当前第n帧图像中存在运动物体;
所述结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别包括:对存在运动物体的图像进行标记,标记为第一图像,获取第一图像中的运动物体轮廓,并确定运动物体轮廓的中心点位置,进一步获取所述第一图像所对应的时间节点,并按照时间节点先后对所述第一图像进行排序,对时间节点相邻的第一图像中的运动物体进行移动分析,根据移动分析结果对第一图像进一步进行标记,被标记的第一图像为第二图像;
所述确定运动物体轮廓的中心点位置包括:根据所述运动物体轮廓,获取其最高点与水平地面之间的第一直线,所述第一直线的长度为Hmax且第一直线垂直于所述水平地面,确定所述第一直线上距水平地面长度为的两点,过所述两点做第二直线、第三直线垂直于所述第一直线,所述第二直线、第三直线截取到所述运动物体轮廓的两段轮廓边缘,记为第一轮廓边缘、第二轮廓边缘,获取所述第一轮廓边缘、第二轮廓边缘距所述第一直线最远的两点,过两点做直线垂直于水平地面,并过所述最高点做直线平行于水平地面,所做直线与水平地面之间围成一矩形,该矩形对角线的交点即为所述运动物体轮廓的中心点位置;
所述对时间节点相邻的第一图像中的运动物体进行移动分析,根据移动分析结果对第一图像进一步进行标记,被标记的第一图像为第二图像包括:计算相邻的两个时间节点之间的时间间隔,记为tn,所述两个时间节点分别记为起始时间节点、截止时间节点,若所述时间间隔tn小于时间间隔阈值,则取下一个相邻时间节点与起始时间节点之间的时间间隔tn+1,直至所述时间间隔大于等于时间间隔阈值,根据所述运动物体轮廓以及中心点位置确定所述第一图像中的同一运动物体,获取同一运动物体的位置变化距离,当所述同一运动物体的位置变化距离大于等于变化距离阈值时,则将存在所述同一运动物体的第一图像标记为第二图像,所述变化距离阈值为预设的移动速度与所述时间间隔的乘积;
所述结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别还包括:获取存在运动物体的第二图像,结合安全帽识别模型对所述第二图像进行识别比对,若当前识别比对成功,则进一步对所述第二图像中识别比对成功区域进行颜色特征提取,将提取到的第二颜色特征与预先设置的第一颜色特征进行比对,若比对成功,则当前所述第二图像中存在安全帽,并对所述第二图像进行标记;
所述结合安全帽识别模型对识别到的运动物体进行安全帽佩戴识别还包括:获取被标记的第二图像,确定图像中的水平地面位置,结合安全帽在图像中的具体位置,以安全帽与水平地面之间的竖直距离H和一定值W建立矩形标记框,所述矩形标记框的长度为H、宽度为W,根据所述矩形标记框的特征进行安全帽佩戴识别;
对所述矩形标记框的特征进行提取,连接所述矩形标记框的对角线,分别记对角线为l1、l2,确定对角线l1与对角线l2之间所呈角度θ1,通过公式计算得到θ1的值,当θ1满足θmin1max且所述识别比对成功区域的中心点与所述运动物体轮廓的最高点之间的距离小于预设值时,则当前安全帽佩戴识别通过,反之,则当前安全帽佩戴识别不通过,并通过被标记图像确定图像所属区域,对该区域进行安全帽未佩戴预警。
CN202111140674.8A 2021-09-28 2021-09-28 一种基于智能视频识别的安全预警方法 Active CN113838094B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111140674.8A CN113838094B (zh) 2021-09-28 2021-09-28 一种基于智能视频识别的安全预警方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111140674.8A CN113838094B (zh) 2021-09-28 2021-09-28 一种基于智能视频识别的安全预警方法

Publications (2)

Publication Number Publication Date
CN113838094A CN113838094A (zh) 2021-12-24
CN113838094B true CN113838094B (zh) 2024-03-05

Family

ID=78970786

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111140674.8A Active CN113838094B (zh) 2021-09-28 2021-09-28 一种基于智能视频识别的安全预警方法

Country Status (1)

Country Link
CN (1) CN113838094B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114758363B (zh) * 2022-06-16 2022-08-19 四川金信石信息技术有限公司 一种基于深度学习的绝缘手套佩戴检测方法和系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241871A (zh) * 2018-08-16 2019-01-18 北京此时此地信息科技有限公司 一种基于视频数据的公共区域人流跟踪方法
CN109255298A (zh) * 2018-08-07 2019-01-22 南京工业大学 一种动态背景中的安全帽检测方法与系统
CN110188724A (zh) * 2019-06-05 2019-08-30 中冶赛迪重庆信息技术有限公司 基于深度学习的安全帽定位与颜色识别的方法及系统
CN110263609A (zh) * 2019-01-27 2019-09-20 杭州品茗安控信息技术股份有限公司 一种安全帽佩戴情况的自动识别方法
CN110472531A (zh) * 2019-07-29 2019-11-19 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备及存储介质
US10528818B1 (en) * 2013-03-14 2020-01-07 Hrl Laboratories, Llc Video scene analysis system for situational awareness
CN112084986A (zh) * 2020-09-16 2020-12-15 国网福建省电力有限公司营销服务中心 一种基于图像特征提取的实时安全帽检测方法
CN112184773A (zh) * 2020-09-30 2021-01-05 华中科技大学 一种基于深度学习的安全帽佩戴检测方法及系统
CN112487963A (zh) * 2020-11-27 2021-03-12 新疆爱华盈通信息技术有限公司 安全帽的佩戴检测方法及系统
CN113297900A (zh) * 2021-04-02 2021-08-24 中国地质大学(武汉) 基于yolo的视频流安全帽识别方法、装置、设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10528818B1 (en) * 2013-03-14 2020-01-07 Hrl Laboratories, Llc Video scene analysis system for situational awareness
CN109255298A (zh) * 2018-08-07 2019-01-22 南京工业大学 一种动态背景中的安全帽检测方法与系统
CN109241871A (zh) * 2018-08-16 2019-01-18 北京此时此地信息科技有限公司 一种基于视频数据的公共区域人流跟踪方法
CN110263609A (zh) * 2019-01-27 2019-09-20 杭州品茗安控信息技术股份有限公司 一种安全帽佩戴情况的自动识别方法
CN110188724A (zh) * 2019-06-05 2019-08-30 中冶赛迪重庆信息技术有限公司 基于深度学习的安全帽定位与颜色识别的方法及系统
CN110472531A (zh) * 2019-07-29 2019-11-19 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备及存储介质
CN112084986A (zh) * 2020-09-16 2020-12-15 国网福建省电力有限公司营销服务中心 一种基于图像特征提取的实时安全帽检测方法
CN112184773A (zh) * 2020-09-30 2021-01-05 华中科技大学 一种基于深度学习的安全帽佩戴检测方法及系统
CN112487963A (zh) * 2020-11-27 2021-03-12 新疆爱华盈通信息技术有限公司 安全帽的佩戴检测方法及系统
CN113297900A (zh) * 2021-04-02 2021-08-24 中国地质大学(武汉) 基于yolo的视频流安全帽识别方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宽度学习算法在码头安全保障中的应用研究;王扬;《中国优秀硕士学位论文全文数据库—工程科技Ⅰ辑》;B026-94 *
杨磊 等.《网络视频监控技术》.中国传媒大学出版社,2017,175-176. *

Also Published As

Publication number Publication date
CN113838094A (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
CN109670441B (zh) 一种实现安全帽穿戴识别的方法、系统、终端以及计算机可读存储介质
CN104361327B (zh) 一种行人检测方法和系统
CN111144263A (zh) 一种建筑工人高坠事故预警方法及装置
CN112396658B (zh) 一种基于视频的室内人员定位方法及定位系统
CN110008831A (zh) 一种基于计算机视觉分析的智能化监控融合系统
JP2007128513A (ja) シーン解析
CN110991315A (zh) 一种基于深度学习的安全帽佩戴状态实时检测方法
CN109543542A (zh) 一种特定场所人员着装是否规范的判定方法
CN111062303A (zh) 图像处理方法、系统及计算机存储介质
CN113537019B (zh) 基于关键点识别变电站人员安全帽佩戴的检测方法
CN103824114B (zh) 一种基于截面流量统计的行人流量计数方法和系统
CN112071084A (zh) 一种利用深度学习判断违章停车的方法和系统
CN111738336A (zh) 基于多尺度特征融合的图像检测方法
CN103679215A (zh) 基于视觉大数据驱动的群体性行为分析的视频监控方法
CN112184773A (zh) 一种基于深度学习的安全帽佩戴检测方法及系统
CN113838094B (zh) 一种基于智能视频识别的安全预警方法
Ottakath et al. ViDMASK dataset for face mask detection with social distance measurement
CN113919627A (zh) 一种应用于水利枢纽工程的智能监控方法
CN114782988A (zh) 一种面向施工环境的多级安全预警方法
CN113111771A (zh) 一种发电厂工作人员不安全行为的识别方法
JP7211428B2 (ja) 情報処理装置、制御方法、及びプログラム
Mahtani et al. Pedestrian detection and classification for autonomous train
CN115100495B (zh) 基于子特征融合的轻量化安全帽检测方法
CN117726991B (zh) 一种高空吊篮安全带检测方法及终端
CN112001336A (zh) 行人越界报警方法、装置、设备及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant