CN111259751A - 基于视频的人体行为识别方法、装置、设备及存储介质 - Google Patents
基于视频的人体行为识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111259751A CN111259751A CN202010025983.XA CN202010025983A CN111259751A CN 111259751 A CN111259751 A CN 111259751A CN 202010025983 A CN202010025983 A CN 202010025983A CN 111259751 A CN111259751 A CN 111259751A
- Authority
- CN
- China
- Prior art keywords
- human body
- video
- frame
- human
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 239000011159 matrix material Substances 0.000 claims abstract description 70
- 238000013145 classification model Methods 0.000 claims abstract description 19
- 230000006399 behavior Effects 0.000 claims description 176
- 238000012545 processing Methods 0.000 claims description 52
- 230000015654 memory Effects 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 21
- 238000013461 design Methods 0.000 description 15
- 238000004590 computer program Methods 0.000 description 13
- 230000009471 action Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 210000003127 knee Anatomy 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 210000000544 articulatio talocruralis Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000276 sedentary effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了基于视频的人体行为识别方法、装置、设备及存储介质,涉及人体识别技术领域。具体实现方案为:获取待识别视频的每一个视频帧的人体框,每一个人体框中包括多个人体关键点,每一个人体关键点具有关键点特征;根据各视频帧的人体框构建特征矩阵;在视频帧个数的维度上,对特征矩阵进行卷积,得到第一卷积结果,并在关键点个数的维度上,对特征矩阵进行卷积,得到第二卷积结果;将第一卷积结果和第二卷积结果输入到预设分类模型中,得到待识别视频的人体行为类别。考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率。
Description
技术领域
本申请涉及图像处理技术领域中的人体识别技术,尤其涉及一种基于视频的人体行为识别方法、装置、设备及存储介质。
背景技术
随着视频和图像技术的发展,可以对视频中的人体对象进行检测,进而确定出人体对象的行为类型,从而确定是否正在进行不安全的行为。
现有技术中,在采用视频技术分析人体对象的行为类型的时候,可以基于人体对象在某一帧上的特征,确定出人体对象在视频中的行为。
然而现有技术中,只是依据一帧上的人体对象的特征,确认出人体对象在视频中的行为,进而得到人体对象在视频中的行为类型;由于,在不同的场景下相同的动作表征的语义是不同的,现有的方法并不准确,不能准确的识别出一个视频中的人体的行为类型。
发明内容
本申请提供一种基于视频的人体行为识别方法、装置、设备及存储介质,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率。
第一方面,本申请实施例提供一种基于视频的人体行为识别方法,包括:
获取待识别视频,其中,所述待识别视频中包括多个视频帧;
获取所述待识别视频的每一个视频帧的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体关键点具有关键点特征;
根据各所述视频帧的人体框构建特征矩阵,所述特征矩阵中包括每一个人体关键点的关键点特征、所述待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数;
在所述视频帧个数的维度上,对所述特征矩阵进行卷积,得到第一卷积结果,并在所述关键点个数的维度上,对所述特征矩阵进行卷积,得到第二卷积结果;
将所述第一卷积结果和所述第二卷积结果输入到预设分类模型中,得到所述待识别视频的人体行为类别。
本实施例中,基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率;并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,从而基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别。
在一种可能的设计中,所述获取待识别视频,包括:
获取待处理视频,并对所述待处理视频进行抽帧处理,得到所述多个视频帧,以得到所述待识别视频。
对待处理视频进行抽帧处理,可以减少视频中的帧数,减少计算量、加快识别出视频的人体行为的速度。
在一种可能的设计中,获取所述待识别视频的每一个视频帧的人体框,包括:
将所述待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个所述视频帧中的各人体框;
将每一个所述视频帧中的各人体框,输入至预设识别模型中,得到每一个所述人体框中的各人体关键点,其中,每一个所述人体框中的人体关键点的关键点个数为V,V=21。
每一个人体框中的人体关键点的关键点个数为21,比现有的18个人体关键点的个数多;增加人体关键点的个数,进而增加人体行为的识别准确性。
在一种可能的设计中,所述方法,还包括:
在确定所述人体框中的人体对象被遮挡时,或者,在确定所述人体框中的人体关键点的关键点个数不是V时,根据所述人体框中的各人体关键点,预测出所述人体框的全部的人体关键点。
在由于人体对象被遮挡或者识别精度,导致不能得到全部的人体关键点的时候,预测出人体框的全部的人体关键点;保证后续卷积处理和识别人体行为的准确性。
在一种可能的设计中,根据所述人体框中的各人体关键点,预测出所述人体框的全部的人体关键点,包括:
根据所述人体框中的各人体关键点,确定所述人体框中的人体对象的人体骨架结构;根据所述人体骨架结构,确定所述人体框的全部的人体关键点。
在由于人体对象被遮挡或者识别精度,导致不能得到全部的人体关键点的时候,根据已知的人体关键点,确定出人体骨架结构;进而根据人体骨架结构和已知的人体关键点,确定出人体框的全部的人体关键点;保证后续卷积处理和识别人体行为的准确性。
在一种可能的设计中,每一个视频帧中的人体框个数是M,M为正整数;M个人体框,是每一个视频帧中的人体框置信度最高的前M个人体框;所述方法,还包括:
获取每一个视频帧中的每一个人体框中的人体关键点的关键点置信度;
对每一个人体框中的人体关键点的关键点置信度进行加权求和,得到每一个人体框的人体框置信度。
针对同一个待识别视频,调整每一个视频帧中的人体框个数是一致的,保证后续卷积处理和识别处理的正确和准确性;并且,将人体框置信度较高的人体框保留,进而保证人体框是真实人体的人体框,保证了人体行为使不得准确性。
在一种可能的设计中,在待识别视频的视频个数为N时,N为正整数,所述特征矩阵中还包括所述视频个数。从而,在对多个待识别视频进行识别的时候,特征矩阵具有多个待识别视频的特征,进而,可以同时对多个待识别视频进行识别。
在一种可能的设计中,在得到所述待识别视频的人体行为类别之后,还包括:
在确定所述人体行为类别为预设类别时,发出警示信息,其中,所述警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息;
和/或,
在确定所述人体行为类别为预设类别时,对所述待识别视频进行预设处理,其中,所述预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
从而,可以预设一些危险、有益、警示的行为类别,可以输出警示信息等,进而便于工作人员和其他用户躲避危险行为、或者观看警示行为。
第二方面,本申请实施例提供一种基于视频的人体行为识别装置,包括:
第一获取单元,用于获取待识别视频,其中,所述待识别视频中包括多个视频帧;
第二获取单元,用于获取所述待识别视频的每一个视频帧的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体关键点具有关键点特征;
构建单元,用于根据各所述视频帧的人体框构建特征矩阵,所述特征矩阵中包括每一个人体关键点的关键点特征、所述待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数;
卷积单元,用于在所述视频帧个数的维度上,对所述特征矩阵进行卷积,得到第一卷积结果,并在所述关键点个数的维度上,对所述特征矩阵进行卷积,得到第二卷积结果;
识别单元,用于将所述第一卷积结果和所述第二卷积结果输入到预设分类模型中,得到所述待识别视频的人体行为类别。
本实施例中,基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率;并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,从而基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别。
在一种可能的设计中,所述第一获取单元,具体用于:
获取待处理视频,并对所述待处理视频进行抽帧处理,得到所述多个视频帧,以得到所述待识别视频。
对待处理视频进行抽帧处理,可以减少视频中的帧数,减少计算量、加快识别出视频的人体行为的速度。
在一种可能的设计中,所述第二获取单元,包括:
第一识别模块,将所述待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个所述视频帧中的各人体框;
第二识别模块,将每一个所述视频帧中的各人体框,输入至预设识别模型中,得到每一个所述人体框中的各人体关键点,其中,每一个所述人体框中的人体关键点的关键点个数为V,V=21。
每一个人体框中的人体关键点的关键点个数为21,比现有的18个人体关键点的个数多;增加人体关键点的个数,进而增加人体行为的识别准确性。
在一种可能的设计中,所述装置,还包括:
预测单元,用于在确定所述人体框中的人体对象被遮挡时,或者,在确定所述人体框中的人体关键点的关键点个数不是V时,根据所述人体框中的各人体关键点,预测出所述人体框的全部的人体关键点。
在由于人体对象被遮挡或者识别精度,导致不能得到全部的人体关键点的时候,预测出人体框的全部的人体关键点;保证后续卷积处理和识别人体行为的准确性。
在一种可能的设计中,所述预测单元,具体用于:
根据所述人体框中的各人体关键点,确定所述人体框中的人体对象的人体骨架结构;根据所述人体骨架结构,确定所述人体框的全部的人体关键点。
在由于人体对象被遮挡或者识别精度,导致不能得到全部的人体关键点的时候,根据已知的人体关键点,确定出人体骨架结构;进而根据人体骨架结构和已知的人体关键点,确定出人体框的全部的人体关键点;保证后续卷积处理和识别人体行为的准确性。
在一种可能的设计中,每一个视频帧中的人体框个数是M,M为正整数;M个人体框,是每一个视频帧中的人体框置信度最高的前M个人体框;所述装置,还包括:
第三获取单元,用于获取每一个视频帧中的每一个人体框中的人体关键点的关键点置信度;对每一个人体框中的人体关键点的关键点置信度进行加权求和,得到每一个人体框的人体框置信度。
针对同一个待识别视频,调整每一个视频帧中的人体框个数是一致的,保证后续卷积处理和识别处理的正确和准确性;并且,将人体框置信度较高的人体框保留,进而保证人体框是真实人体的人体框,保证了人体行为使不得准确性。
在一种可能的设计中,在待识别视频的视频个数为N时,N为正整数,所述特征矩阵中还包括所述视频个数。从而,在对多个待识别视频进行识别的时候,特征矩阵具有多个待识别视频的特征,进而,可以同时对多个待识别视频进行识别。
在一种可能的设计中,所述装置,还包括:
警示单元,用于在所述识别单元得到所述待识别视频的人体行为类别之后,在确定所述人体行为类别为预设类别时,发出警示信息,其中,所述警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息;
和/或,
处理单元,用于在所述识别单元得到所述待识别视频的人体行为类别之后,在确定所述人体行为类别为预设类别时,对所述待识别视频进行预设处理,其中,所述预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
从而,可以预设一些危险、有益、警示的行为类别,可以输出警示信息等,进而便于工作人员和其他用户躲避危险行为、或者观看警示行为。
第三方面,本申请提供一种基于视频的人体行为识别方法,包括:
获取待识别视频,其中,所述待识别视频中包括多个视频帧;
获取所述待识别视频的每一个视频帧的人体特征;
根据各个相邻的视频帧的人体特征,确定所述待识别视频的人体行为类别。
本实施例中,考虑了视频帧之间的时间维度,考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率。并且,还在空间维度上得到卷积结果,基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别。
第四方面,本申请提供一种电子设备,包括:处理器和存储器;存储器中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行如第一方面中任一项所述的基于视频的人体行为识别方法,或者执行如第三方面所述的基于视频的人体行为识别方法。
第五方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任一项所述的基于视频的人体行为识别方法,或者执行如第三方面所述的基于视频的人体行为识别方法。
第六方面,本申请实施例提供一种程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得服务器执行第一方面中任一所述的基于视频的人体行为识别方法,或者执行如第三方面所述的基于视频的人体行为识别方法。
上述申请中的一个实施例具有如下优点或有益效果:可以基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率;并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是可以实现本申请实施例的应用场景图;
图2是根据本申请第一实施例的示意图;
图3是根据本申请第二实施例的示意图;
图4是可以实现申请实施例的SSD网络模型的示意图;
图5是可以实现申请实施例的人体框的示意图一;
图6是可以实现申请实施例的人体框的示意图二;
图7是可以实现申请实施例的人体框的示意图三;
图8是可以实现申请实施例的人体关键点的示意图;
图9是根据本申请第三实施例的示意图;
图10是根据本申请第三实施例的示意图;
图11是根据本申请第四实施例的示意图;
图12是根据本申请第五实施例的示意图;
图13是用来实现本申请实施例的基于视频的人体行为识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
随着视频和图像技术的发展,可以对视频中的人体对象进行检测,进而确定出人体对象的行为类型,从而确定是否正在进行不安全的行为。在各类公共场合,例如学校、监狱、火车站、地铁等场合中,为了社会稳定性、人员安全性,可以对人体的行为进行检测和识别,进而可以检测出打架、斗殴、偷摸抢砸、持刀、自燃等不安全的行为。
一个示例中,可以基于摄像头获取视频,然后针对这些视频,通过这些视频,获取出人体的表情、手势、体态和关键点等信息,这些信息构成了人体分析技术的重要元素;然后对这些信息进行分析,进而得到人体的行为类型。
一个示例中,根据查询视频中的某一帧图片的特征,进行视频级别的名称输出,进而,将该帧图片的特征,作为视频的特征,以得到视频中的人体的行为类型。这是一种基于图片级的分类模型,对视频的人体行为进行识别的方法。但是在监控场景下,通过摄像机采集视频信息,由于摄像机的视角、摄像机与人体对象之间举例距离、遮挡和光照等多种因素带来的干扰和不确定性,导致采用图片级的分类模型的识别效果很差。此外,图片级的分类模型的鲁班性也较差;并且,图片级的分类模型中没有考虑上下帧之间关系,即,没有引入时间维度的信息,从而会造成视频内容理解上出现偏差,导致识别的准确率较低以及召回率降低。
一个示例中,可以从视频内容的特征进行分类,得到视频的人体行为。但是该方法没有将人体属性纳入考虑,对于区分人数的场景有很大弊端;从而在人数较多的场景中,无法准确的对视频的人体行为进行识别。
一个示例中,可以查询视频的标题或者视频某些属性,然后得到视频名的结果;将所得到视频名的结果,作为视频中的人体的行为类型
一个示例中,在采用视频技术分析人体对象的行为类型的时候,可以利用热力图和人体姿态估计方式,提取每一帧上的人体对象的骨骼点,进而根据骨骼点的坐标,识别出人体对象的动作;然后,确定出人体对象在当前帧上的行为类型。然后,对于一段视频,采用投票得的方式,将人体对象的行为类型的投票最高的行为类型,作为该视频的行为类型。但是该方式,只是依据每一帧上的人体对象的骨骼点,确定出人体对象在当前帧上的行为类型,然后将人体对象在一帧上的行为类型,作为人体对象在视频中的行为类型。然而在不同的场景下相同的动作表征的语义是不同的;仅仅依据一帧上的骨骼点的坐标,确定出人体对象的行为类型,然后将人体对象的行为类型的投票最高的行为类型作为该视频的行为类型,这样的方式并不准确,不能准确的识别出一个视频中的人体的行为类型。
可知,上述各方式中,只是依据一帧上的人体对象的特征,确认出人体对象在视频中的行为,进而得到人体对象在视频中的行为类型;由于,在不同的场景下相同的动作表征的语义是不同的,现有的方法并不准确,不能准确的识别出一个视频中的人体的行为类型。
并且,在现实场景下需要处理的人体对象和任务可能会非常多,进而会产生极大的计算资源消耗,从而进一步的加重了人体行为识别的不准确性。
本申请提供一种基于视频的人体行为识别方法、装置、设备及存储介质,以解决上述问题。
图1是可以实现本申请实施例的应用场景图,如图1所示,采用本申请实施例提供的方案,可以对视频中的人体的行为进行识别,并且识别出视频的人体行为类型。
图2是根据本申请第一实施例的示意图,如图2所示,该方法,包括:
S101、获取待识别视频,其中,待识别视频中包括多个视频帧。
示例性地,本实施例以执行主体可以是控制设备、或者终端设备、或者远程服务器、或者其他可以执行本实施例方法的装置或设备。本实施例以执行主体为控制设备进行说明。
在识别人体行为的环境中布置摄像机,摄像机可以是高清摄像机;摄像机与控制设备连接,摄像机可以采集视频,控制设备可以获取摄像机采集的视频,然后,控制设备对视频进行分析,即,控制设备采用本实施例提供的方法对视频进行分析,以得到视频的行为类型。
控制设备获取摄像机采集的待识别视频,其中,待识别视频由多帧视频帧所构成。
S102、获取待识别视频的每一个视频帧的人体框,其中,每一个人体框中包括多个人体关键点,每一个人体关键点具有关键点特征。
示例性地,控制设备可以将待识别视频输入到预设的网络模型中,得到待识别视频的每一个视频帧中的人体框。每一个视频帧中具有一个或多个人体框,个别的视频帧中可以没有人体框。
在人体框中,可以将视频帧中的人体标记出来,并且,为了便于后续的识别,网络模型会将每一个人体框中的人体关键点标记出来;例如,采用open pose算法可以得到每一个人体框中的各个人体关键点。
并且,每一个人体关键点具有关键点特征。例如,人体关键点为鼻子,该人体关键点具有鼻子在视频帧中的坐标信息,即,关键点特征为鼻子在视频帧中的坐标信息。
一个示例中,控制设备获取摄像机采集的视频;控制设备采用预设的网络模型对视频中的每一个视频帧进行分析,得到每一个视频帧中的人体框,每一个人体框标记出了视频帧中的每一个人体对象;控制设备再采用预设的网络模型对每一个视频帧中的每一个人体框进行关键点的识别,例如采用open pose算法识别出每一个人体框中的各个人体关键点,每一个人体关键点具有在视频帧中的坐标信息。
举例来说,控制设备可以得到视频帧1中的人体框A和人体框B,人体框A中具有多个人体关键点,人体框B中具有多个人体关键点;并且,控制是河北可以得到视频帧1之后的视频帧2中的人体框A、人体框B和人体框C,人体框A中具有多个人体关键点,人体框B中具有多个人体关键点,人体框C中具有多个人体关键点。
S103、根据各视频帧的人体框构建特征矩阵,特征矩阵中包括每一个人体关键点的关键点特征、待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数。
示例性地,控制设备根据待识别视频中的每一个视频帧中的每一个人体框的各关键点的关键点特征、待识别视频中的视频帧个数、每一个人体框的关键点个数、以及每一个视频帧的人体框个数,构建出一个特征矩阵;从而,该特征矩阵中包括上述信息。
一个示例中,在对多个待识别视频进行集体的识别的时候,还可以将待识别视频的视频个数,加入到特征矩阵中。
举例来说,针对每一个待识别视频,得到每一个待识别视频的特征矩阵(C,T,V,M);其中,C是一个三维矩阵,三维矩阵C中的每一个元素代表一个人体关键点的关键点特征;T是待识别视频中的视频帧个数,例如,T=300;V是每一个人体框中的关键点个数,例如V=18或21;M是每一个视频帧中的人体框个数,例如M=3。此时,特征矩阵(C,T,V,M)是一个四维矩阵。
再举例来说,针对N个待识别视频,可以得到特征矩阵(N,C,T,V,M);其中,N是待识别视频的视频个数,例如,N=180;C是一个三维矩阵,三维矩阵C中的每一个元素代表一个人体关键点的关键点特征;T是待识别视频中的视频帧个数,例如,T=300;V是每一个人体框中的关键点个数,例如V=18或21;M是每一个视频帧中的人体框个数,例如M=3。此时,特征矩阵(N,C,T,V,M)是一个五维矩阵。针对于每一个待识别视频来说,待识别视频中的视频帧个数T的取值是相同的;针对于每一个人体框来说,人体框的关键点个数V的取值是相同的;针对于每一个视频帧来说,视频帧的人体框个数M的取值是相同的。
S104、在视频帧个数的维度上,对特征矩阵进行卷积,得到第一卷积结果,并在关键点个数的维度上,对特征矩阵进行卷积,得到第二卷积结果。
示例性地,针对每一个待识别视频,可以得到上述特征矩阵(C,T,V,M)。为了在时间维度上对视频中的各人体对象进行分析,可以利用网络模型,在视频帧个数的维度上,对步骤S103所得到的特征矩阵进行卷积,进而得到第一卷积结果,该第一卷积结果表征出了在时间维度上待识别视频中的各人体对象的特征。并且,为了得到每一个人体对象的人体框之间的关系、以及每一个人体对象中的各人体关键点之间的位置关系,可以利用网络模型,在关键点个数的维度上,对步骤S103所得到的特征矩阵进行卷积,进而得到第二卷积结果,该第二卷积结果表征出了每一个人体对象的人体框之间的关系、以及每一个人体对象中的各人体关键点之间的位置关系。
其中,网络模型可以是神经网络模型中的任意一种。
针对于N个每一个待识别视频,可以得到上述特征矩阵(N,C,T,V,M)。同样,可以利用网络模型,对特征矩阵(N,C,T,V,M)进行卷积;在卷积的过程中,可以分别针对每一个待识别视频进行上述两个维度的卷积处理,得到每一个待识别视频的第一卷积结果和第二卷积结果。
S105、将第一卷积结果和第二卷积结果输入到预设分类模型中,得到待识别视频的人体行为类别。
示例性地,针对每一个待识别视频,控制设备将每一个待识别视频的第一卷积结果和第二卷积结果,输入到预设分类模型中;通过分类模型对上述两个维度的卷积结果进行特征分析,进而输出每一个待识别视频的人体行为类别。分类模型可以是神经网络模型中的任意一种。
例如,人体行为类别为静坐类型、持刀类型、偷摸类型、抢砸类型、群殴类型、斗殴类型、等等。
本实施例,通过获取待识别视频,待识别视频中包括多个视频帧;获取待识别视频的每一个视频帧的人体框,每一个人体框中包括多个人体关键点,每一个人体关键点具有关键点特征;根据各视频帧的人体框构建特征矩阵,特征矩阵中包括每一个人体关键点的关键点特征、待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数;在视频帧个数的维度上,对特征矩阵进行卷积,得到第一卷积结果,并在关键点个数的维度上,对特征矩阵进行卷积,得到第二卷积结果;将第一卷积结果和第二卷积结果输入到预设分类模型中,得到待识别视频的人体行为类别。针对每一个待识别视频,可以得到每一个待识别视频中的各视频帧中的人体框,人体框为人体对象的人体框;并且,可以得到每一个人体框中的人体对象的人体关键点;进而对关键点特征、人体框所构成的特征矩阵,分别在时间维度(待识别视频的视频帧个数的维度)、空间维度(人体框的关键点个数的维度)上进行卷积处理,得到第一卷积结果和第二卷积结果,第一卷积结果表征出了在时间维度上待识别视频中的各人体对象的特征,第二卷积结果表征出了每一个人体对象的人体框之间的关系、以及每一个人体对象中的各人体关键点之间的位置关系;进而基于上述卷积结果进行人体行为的识别,得到待识别视频的人体行为类别。由于可以得到视频中的各视频帧的人体对象的人体框和人体关键点,可以基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率。并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,该卷积结果表征出了每一个人体对象的人体框之间的关系、以及每一个人体对象中的各人体关键点之间的位置关系,从而基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别。
图3是根据本申请第二实施例的示意图,如图3所示,该方法,包括:
S201、获取待处理视频,并对待处理视频进行抽帧处理,得到多个视频帧,以得到待识别视频。
示例性地,本实施例以执行主体可以是控制设备、或者终端设备、或者远程服务器、或者其他可以执行本实施例方法的装置或设备。本实施例以执行主体为控制设备进行说明。
在识别人体行为的环境中布置摄像机,摄像机可以是高清摄像机;摄像机与控制设备连接,摄像机可以采集视频,控制设备可以获取摄像机采集的视频,然后,控制设备对视频进行分析,即,控制设备采用本实施例提供的方法对视频进行分析,以得到视频的行为类型。
控制设备获取摄像机采集的视频,此时的视频中包括了多帧图像,且视频是未经过处理的视频。为了减少计算量、加快控制设备识别出视频的人体行为的速度,可以对摄像机采集的视频进行采样,减少视频中的帧数;控制设备可以对摄像机采集的视频进行抽帧处理,进而从视频中抽取出多个视频帧,将多个视频帧构成待识别视频。
一个示例中,控制设备对摄像机所及的视频中的图像进行均匀采样,得到多个视频帧。一个示例中,控制设备可以采用使用开源工具FFMPEG,对视频进行抽帧处理。
S202、将待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个视频帧中的各人体框。
示例性地,控制设备可以将待识别视频输入到单阶段多尺度目标检测(SingleShot MultiBox Detector,简称SSD)网络模型中;SSD网络模型已经经过了标记出人体框的图像的训练,进而SSD网络模型可以对视频中的视频帧的人体对象进行识别,进而标记出视频帧中人体对象,即,为人体对象标记人体框。图4是可以实现申请实施例的SSD网络模型的示意图,如图4所示,SSD网络模型具有多层结构;并且,可以使用开源工具飞桨PaddlePaddle对SSD网络模型进行训练。
从而,图5是可以实现申请实施例的人体框的示意图一,如图5所示,控制设备可以得到每一个视频帧中的每一个人体对象的人体框。可知,为每一个人体对象标记一个人体框。每一个人体框具有四个角点。
并且,SSD网络模型在输出每一个视频帧的人体对象的人体框的时候,会为每一个人体框赋予一个置信度,即,这里的置信度,是SSD网络模型为人体框赋予的置信度;置信度的取值大于预设阈值,例如,大于0.4。
S203、将每一个视频帧中的各人体框,输入至预设识别模型中,得到每一个人体框中的各人体关键点,其中,每一个人体框中的人体关键点的关键点个数为V,V=21。
示例性地,控制设备在得到每一个视频帧中的人体对象的人体框之后,需要确定出每一个人体框中的人体对象的人体关键点。
控制设备将每一个视频帧中的各人体框,输入至预设识别模型中。识别模型可以是神经网络模型;识别模型已经采用了标记出人体关键点的图像和视频进行了训练。从而,识别模型可以识别出每一个人体框中的人体对象的人体关键点。并且,识别模型可以输出每一个人体关键点的关键点置信度,关键点置信度表征了人体关键点确定为真实人体关键点的概率。
本实施例中,为了增加人体行为的识别准确性,可以增加人体关键点的个数;在采用open pose算法识别人体关键点的时候,针对每一个人体对象,可以得到18个关键点;但是在本实施例中,针对每一个人体对象,可以得到21个关键点。图6是可以实现申请实施例的人体框的示意图二,图7是可以实现申请实施例的人体框的示意图三,如图6-图7所示,控制设备可以得到每一个视频帧中的每一个人体对象的人体框,并且,得到每一个人体对象的人体关键点;针对每一个人体对象,可以将该人体对象的人体关键点进行连接。
图8是可以实现申请实施例的人体关键点的示意图,如图8所示,针对每一个人体对象可以得到21个人体关键点。每一个人体框中的21个人体关键点,分别为鼻子{0,"nose"},左眼{1,"left_eye"},右眼{2,"right_eye"},左耳朵{3,"left_ear"},右耳朵{4,"right_ear"},左肩膀{5,"left_shoulder"},右肩膀{6,"right_shoulder"},左肘部{7,"left_elbow"},右肘部{8,"right_elbow"},左手腕{9,"left_wrist"},右手腕{10,"right_wrist"},左臀部{11,"left_hip"},右臀部{12,"right_hip"},左膝盖{13,"left_knee"},右膝盖{14,"right_knee"},左踝关节{15,"left_ankle"},右踝关节{16,"right_ankle"},头顶{17,"top_head"},颈部{18,"neck"},左嘴角{19,"left_mouth_corner"},右嘴角{20,"right_mouth_corner"}。
S204、在确定人体框中的人体对象被遮挡时,或者,在确定人体框中的人体关键点的关键点个数不是V时,根据人体框中的各人体关键点,预测出人体框的全部的人体关键点。
一个示例中,步骤S204,具体包括:根据人体框中的各人体关键点,确定人体框中的人体对象的人体骨架结构;根据人体骨架结构,确定人体框的全部的人体关键点。
示例性地,控制设备在得到每一个人体对象的人体关键点之后,可能会存在个别的人体对象无法得到全部的21个人体关键点。
一个示例中,步骤S203的预设识别模型在识别每一个人体框中的人体对象的人体关键点的时候,预设识别模型可以识别出哪些人体对象被遮挡了,这些被遮挡的人体对象是无法识别出全部的21个人体关键点的。一个示例中,步骤S203的预设识别模型在识别每一个人体框中的人体对象的人体关键点的时候,由于人体对象被遮挡或者识别精度的问题,可能无法得到全部的21个人体关键点。
所以,在步骤S203之后,控制设备针对没有得到V=21个人体关键的人体对象,即,不是21个人体关键点的人体框,控制设备需要预测出该人体框的全部的人体关键点。
一个示例中,控制设备针对没有得到V=21个人体关键的人体对象,即,不是21个人体关键点的人体框,该人体框已经具有了多个人体关键点,并且控制设备可以或者该人体框的已知的人体关键点的位置和类别。例如,为某一个视频帧中的一个人体对象,标记出了人体框;该人体框具有18个人体关键点,18个人体关键点分别为鼻子、左眼、左耳朵、左肩膀、左肘部、右肘部、左手腕、右手腕、左臀部、右臀部、左膝盖、右膝盖、左踝关节、右踝关节、头顶、颈部、左嘴角、右嘴角;上述每一个类别的人体关键点都标记出了位置。
然后,控制设备可以根据已知的人体关键点的位置和类别,勾勒出该人体框中的人体对象的人体骨架结构;此时的人体骨架结构由于缺少人体关键点,从而该人体骨架结构是残缺不全的;由于已经获知了已知的人体关键点的位置和类别,可以根据该人体骨架结构,在人体骨架结构上补足其他的人体关键点。例如,根据人体骨架结构的对称关系,预测出其余的人体关键点。
举例来说,为某一个视频帧中的一个人体对象,标记出了人体框;该人体框具有18个人体关键点,18个人体关键点分别为鼻子、左眼、左耳朵、左肩膀、左肘部、右肘部、左手腕、右手腕、左臀部、右臀部、左膝盖、右膝盖、左踝关节、右踝关节、头顶、颈部、左嘴角、右嘴角。控制设备可以根据这18个人体关键点的位置和类别,勾勒出该人体框中的人体对象的人体骨架结构;然后,控制设备确定缺少的人体关键点,分别为右眼、右耳、右肩膀;控制设备根据已知的人体关键点“左眼”和该人体骨架结构的结构关系,可以根据对称原则,确定出人体关键点“右眼”;同样,控制设备根据已知的人体关键点“左耳”和该人体骨架结构的结构关系,可以根据对称原则,确定出人体关键点“右耳”;控制设备根据已知的人体关键点“左肩膀”和该人体骨架结构的结构关系,可以根据对称原则,确定出人体关键点“右肩膀”。
S205、根据各视频帧的人体框构建特征矩阵,特征矩阵中包括每一个人体关键点的关键点特征、待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数。
一个示例中,在待识别视频的视频个数为N时,N为正整数,特征矩阵中还包括视频个数。
一个示例中,每一个视频帧中的人体框个数是M,M为正整数;M个人体框,是每一个视频帧中的人体框置信度最高的前M个人体框。本实施例提供的方法,还可以执行以下步骤:获取每一个视频帧中的每一个人体框中的人体关键点的关键点置信度;对每一个人体框中的人体关键点的关键点置信度进行加权求和,得到每一个人体框的人体框置信度。
示例性地,待识别视频中的视频帧个数为T,例如T=300。在需要对多个待识别视频进行识别的时候,由于在步骤S201中对每一个待识别视频进行了抽帧处理,进而每一个待识别视频的视频帧的个数是相同的。例如,对N个待识别视频进行识别,N=180。
在上述步骤中,针对每一个待识别视频中的每一个视频帧,识别出了每一个视频帧的人体框、每一个人体框的人体关键点;并且针对不足V个人体关键点的人体框,预测并补足了全部的V个人体关键点,例如,V=21。进而,每一个人体框的关键点个数是相同的。
并且,每一个人体关键点具有关键点特征,例如,关键点特征为(x,y,score),x为人体关键点在视频帧中的x轴上的坐标,y为人体关键点在视频帧中的y轴上的坐标,score为人体关键点的关键点置信度,关键点置信度是步骤S203中的识别模型所输出的人体关键点的置信度。
但是,在上述步骤中,在输出每一个视频帧中的人体框的时候,每一个视频帧中的人体框的个数有可能是不同的;为了便于后续的卷积处理,针对同一个待识别视频,需要调整该待识别视频中的每一个视频帧的人体框个数是一致的。本步骤中,针对同一个待识别视频,由于步骤S203中的识别模型输出了人体关键点的关键点置信度,从而控制设备可以获取到每一个视频帧中的每一个人体框中的人体关键点的关键点置信度;然后,针对该待识别视频的每一个人体框,控制设备根据预设的权重值,对每一个人体框中的人体关键点的关键点置信度进行加权求和,进而得到每一个人体框的人体框置信度;然后,针对该待识别视频的每一个人体框,控制设备选取人体框置信度最高的前几个人体框,即,排名前M的人体框,例如M=1,或者M=3。从而,控制设备将同一个待识别视频中的每一个视频帧的人体框个数,调整为M个;进而,保证后续卷积处理和识别处理的正确和准确性。并且,将人体框置信度较高的人体框保留,进而保证人体框是真实人体的人体框,保证了人体行为使不得准确性。
从而,针对每一个待识别视频,控制设备根据以上特征,得到每一个待识别视频的特征矩阵(C,T,V,M);C是一个三维矩阵,三维矩阵C中的每一个元素代表一个人体关键点的关键点特征;T是待识别视频中的视频帧个数,例如,T=300;V是每一个人体框中的关键点个数,例如V=18或21;M是每一个视频帧中的人体框个数,例如M=1或者M=3。
针对N个待识别视频,可以得到特征矩阵(N,C,T,V,M),特征矩阵(N,C,T,V,M)是一个五维矩阵。
S206、在视频帧个数的维度上,对特征矩阵进行卷积,得到第一卷积结果,并在关键点个数的维度上,对特征矩阵进行卷积,得到第二卷积结果。
示例性地,本步骤可以参见图2所示的步骤S104,不再赘述。本步骤中,可以采用彩色图像(例如,RGB图像)作为空间卷积网络,采用光流场作为时间流卷积网络,即,采用空间卷积网络,在视频帧个数的维度上对特征矩阵进行卷积,得到第一卷积结果;采用时间流卷积网络,在关键点个数的维度上对特征矩阵进行卷积,得到第二卷积结果。
S207、将第一卷积结果和第二卷积结果输入到预设分类模型中,得到待识别视频的人体行为类别。
示例性地,本步骤可以参见图2所示的步骤S105,不再赘述。
在步骤S207之后,还可以执行步骤S208和/或步骤S209。
S208、在确定人体行为类别为预设类别时,发出警示信息,其中,警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息。
示例性地,针对每一个待识别视频,可以实时的对待识别视频进行上述步骤的处理过程,进而得到待识别视频的人体行为类别;控制设备可以预先设定一些危险的行为类别,例如,静坐类型、持刀类型、偷摸类型、抢砸类型、群殴类型、斗殴类型、等等,然后,控制设备在确定待识别视频的人体行为类别为这些预设类别的时候,控制设备可以发出警示信息。
例如,控制设备直接发出语音和/或文字,进而通知工作人员对危险的人体行为进行处理,对其他人员进行保护。例如,控制设备可以发出灯光,进而通知所有人员对危险的人体行为进行躲避。例如,控制设备可以显示待识别视频,进而在待识别视频上框选出具有危险行为类别的用户,进而使得工作人员对该用户进行处理,或者便于后续对待识别视频和待识别视频的具有危险行为的动作,进行分析。
S209、在确定人体行为类别为预设类别时,对待识别视频进行预设处理,其中,预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
示例性地,在对视频进行实时的播放,使得更多的用户进行观看的时候,控制设备可以采用上述步骤完成视频的人体行为类别的识别;为了避免一些行为会对大众造成不良的影响,控制设备在检测出人体行为类别之后,可以对待识别视频进行处理。这里,控制设备可以预先设定一些不利于大众观看的不良行为类别,例如,裸露类型、持刀类型、血腥类型等等;控制设备在确定待识别视频的人体行为类别为这些预设类别的时候,控制设备可以直接对视频进行处理,例如,删除具有不良行为类别的视频帧或者视频,或者,对具有不良行为类别的视频帧进行遮挡处理。
或者,在对视频进行实时的播放,或者再次播放的时候,视频中会具有一些有趣或者警示的内容,为了便于用户可以更多的观看这些内容;控制设备在检测出人体行为类别之后,可以对待识别视频进行处理。这里,控制设备可以预先设定一些需要用户可以重复观看的有益行为类别或者警示行为类别,例如,偷盗类型、玩笑类型等等;控制设备在确定待识别视频的人体行为类别为这些预设类别的时候,控制设备可以直接对视频进行处理,例如,重复播放具有有益行为类别或者警示行为类别的视频帧或者视频。
本实施例,在上述实施例的基础上,可以基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率;并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别;进而得到视频的行为动作和动作标签,利于优化卷积模型和识别模型,并利用用户和其他智能设备理解视频内容。并且,基于空间卷积网络和时间流卷积网络,度特征矩阵进行卷积,根据卷积结果进行人体行为的识别;从而,可以减少视频理解上的偏差,提升识别结果的准确率和召回率。并且,本实施例中可以预设一些危险、有益、警示的行为类别,可以输出警示信息等,进而便于工作人员和其他用户躲避危险行为、或者观看警示行为。并且,本实施例所采用的各个模型,可以采用预设的行为类别和识别进行训练和模拟,可以提升识别和分类能力,不需要直接的人体检测和动作检测,减少计算消耗,节约了成本;由于本实施例提供的方案的识别准确率较高,从而可以降低来也降低由于摄像机视角、距离、光线等因素带来的干扰,有效提高视频中的人体框、关键点等特征的提取准确度。
图9是根据本申请第三实施例的示意图,如图9所示,本实施例提供的基于视频的人体行为识别方法,可以包括:
S301、获取待识别视频,其中,待识别视频中包括多个视频帧。
示例性地,本步骤可以参见图2所示步骤S101,不再赘述。
S302、获取待识别视频的每一个视频帧的人体特征。
示例性地,针对每一个待识别视频,可以采用上述实施例的方法,得到每一个视频帧的人体特征,每一个视频帧的人体特征包括了每一个视频帧的每一个人体框、每一个视频帧的每一个人体框中的各人体关键点、各人体关键点的关键点特征。并且,每一个待识别视频中包括多个视频帧。
S303、根据各个相邻的视频帧的人体特征,确定待识别视频的人体行为类别。
示例性地,针对每一个待识别视频,根据各个相邻的视频帧的人体特征,在时间维度上进行卷积,得到第一卷积结果;在空间维度上进行卷积,得到第二卷积结果。一个示例中,为了在时间维度上对视频中的各人体对象进行分析,可以利用网络模型,在视频帧个数的维度上,对人体特征进行卷积,进而得到第一卷积结果,该第一卷积结果表征出了在时间维度上待识别视频中的各人体对象的特征。为了得到每一个人体对象的人体框之间的关系、以及每一个人体对象中的各人体关键点之间的位置关系,可以利用网络模型,在关键点个数的维度上,对人体特征进行卷积,进而得到第二卷积结果,该第二卷积结果表征出了每一个人体对象的人体框之间的关系、以及每一个人体对象中的各人体关键点之间的位置关系。
然后,针对每一个待识别视频,控制设备将每一个待识别视频的第一卷积结果和第二卷积结果,输入到预设分类模型中;通过分类模型对上述两个维度的卷积结果进行特征分析,进而输出每一个待识别视频的人体行为类别。分类模型可以是神经网络模型中的任意一种。
本实施例,通过根据各个相邻的视频帧的人体特征,确定待识别视频的人体行为类别;从而,在分别在时间维度(待识别视频的视频帧个数的维度)、空间维度(人体框的关键点个数的维度)上进行卷积处理;考虑了视频帧之间的时间维度,考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率。并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别。
图10是根据本申请第三实施例的示意图,如图10所示,本实施例提供的基于视频的人体行为识别装置,可以包括:
第一获取单元31,用于获取待识别视频,其中,待识别视频中包括多个视频帧。
第二获取单元32,用于获取待识别视频的每一个视频帧的人体框,其中,每一个人体框中包括多个人体关键点,每一个人体关键点具有关键点特征。
构建单元33,用于根据各视频帧的人体框构建特征矩阵,特征矩阵中包括每一个人体关键点的关键点特征、待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数。
卷积单元34,用于在视频帧个数的维度上,对特征矩阵进行卷积,得到第一卷积结果,并在关键点个数的维度上,对特征矩阵进行卷积,得到第二卷积结果。
识别单元35,用于将第一卷积结果和第二卷积结果输入到预设分类模型中,得到待识别视频的人体行为类别。
本实施例的基于视频的人体行为识别装置,可以执行图2-图3,图9所示方法中的技术方案,其具体实现过程和技术原理参见图2-图3,图9所示方法中的相关描述,此处不再赘述。
图11是根据本申请第四实施例的示意图,在图10所示实施例的基础上,如图11所示,本实施例提供的基于视频的人体行为识别装置中,第一获取单元31,具体用于:
获取待处理视频,并对待处理视频进行抽帧处理,得到多个视频帧,以得到待识别视频。
一个示例中,第二获取单元32,包括:
第一识别模块321,将待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个视频帧中的各人体框。
第二识别模块322,将每一个视频帧中的各人体框,输入至预设识别模型中,得到每一个人体框中的各人体关键点,其中,每一个人体框中的人体关键点的关键点个数为V,V=21。
一个示例中,本实施例提供的装置,还包括:
预测单元41,用于在确定人体框中的人体对象被遮挡时,或者,在确定人体框中的人体关键点的关键点个数不是V时,根据人体框中的各人体关键点,预测出人体框的全部的人体关键点。
一个示例中,预测单元41,具体用于:
根据人体框中的各人体关键点,确定人体框中的人体对象的人体骨架结构;根据人体骨架结构,确定人体框的全部的人体关键点。
一个示例中,每一个视频帧中的人体框个数是M,M为正整数;M个人体框,是每一个视频帧中的人体框置信度最高的前M个人体框;本实施例提供的装置,还包括:
第三获取单元42,用于获取每一个视频帧中的每一个人体框中的人体关键点的关键点置信度;对每一个人体框中的人体关键点的关键点置信度进行加权求和,得到每一个人体框的人体框置信度。
一个示例中,在待识别视频的视频个数为N时,N为正整数,特征矩阵中还包括视频个数。
一个示例中,本实施例提供的装置,还包括:
警示单元43,用于在识别单元35得到待识别视频的人体行为类别之后,在确定人体行为类别为预设类别时,发出警示信息,其中,警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息。
和/或,
处理单元44,用于在识别单元35得到待识别视频的人体行为类别之后,在确定人体行为类别为预设类别时,对待识别视频进行预设处理,其中,预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
本实施例的基于视频的人体行为识别装置,可以执行图2-图3所示方法中的技术方案,其具体实现过程和技术原理参见图2-图3所示方法中的相关描述,此处不再赘述。
图12是根据本申请第五实施例的示意图;如图12所示,本实施例中的电子设备50可以包括:处理器51和存储器52。
存储器52,用于存储程序;存储器52,可以包括易失性存储器(英文:volatilememory),例如随机存取存储器(英文:random-access memory,缩写:RAM),如静态随机存取存储器(英文:static random-access memory,缩写:SRAM),双倍数据率同步动态随机存取存储器(英文:Double Data Rate Synchronous Dynamic Random Access Memory,缩写:DDR SDRAM)等;存储器也可以包括非易失性存储器(英文:non-volatile memory),例如快闪存储器(英文:flash memory)。存储器52用于存储计算机程序(如实现上述方法的应用程序、功能模块等)、计算机指令等,上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器52中。并且上述的计算机程序、计算机指令、数据等可以被处理器51调用。
上述的计算机程序、计算机指令等可以分区存储在一个或多个存储器52中。并且上述的计算机程序、计算机指据等可以被处理器51调用。
处理器51,用于执行存储器52存储的计算机程序,以实现上述实施例涉及的方法中的各个步骤。
具体可以参见前面方法实施例中的相关描述。
处理器51和存储器52可以是独立结构,也可以是集成在一起的集成结构。当处理器51和存储器52是独立结构时,存储器52、处理器51可以通过总线53耦合连接。
本实施例的电子设备可以执行图2-图3,图9所示方法中的技术方案,其具体实现过程和技术原理参见图2-图3,图9所示方法中的相关描述,此处不再赘述。
本实施例,通过基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率;并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别;进而得到视频的行为动作和动作标签,利于优化卷积模型和识别模型,并利用用户和其他智能设备理解视频内容。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
图13是用来实现本申请实施例的基于视频的人体行为识别方法的电子设备的框图,如图13所示,电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图13所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图13中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的基于视频的人体行为识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的基于视频的人体行为识别方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的基于视频的人体行为识别方法对应的程序指令/模块(例如,附图10所示的第一获取单元31、第二获取单元32、构建单元33、卷积单元34和识别单元35)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的基于视频的人体行为识别方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于视频的人体行为识别方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至基于视频的人体行为识别方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
基于视频的人体行为识别方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图13中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与基于视频的人体行为识别方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
基于视频的人体行为识别方法的电子设备还可以包括:摄像机605;摄像机605通过总线与处理器601、存储器602连接。摄像机605所采集的图像和视频,可以输送给处理器601、存储器602。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,基于前后相邻的视频帧的人体对象的人体框和人体关键点,进行人体对象的分析,即,在时间维度上进行分析,从而考虑了前后帧的视频帧的关系,可以减少视频理解上的偏差,提升视频的人体行为类别的准确率和召回率;并且,还在空间维度(人体框的关键点个数的维度)上得到卷积结果,基于两种卷积结果可以进一步的加强人体对象之间的关系,加强基于时间上的人体对象的行为变化的分析,更加准确的得到视频的人体行为类别;进而得到视频的行为动作和动作标签,利于优化卷积模型和识别模型,并利用用户和其他智能设备理解视频内容。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种基于视频的人体行为识别方法,其特征在于,包括:
获取待识别视频,其中,所述待识别视频中包括多个视频帧;
获取所述待识别视频的每一个视频帧的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体关键点具有关键点特征;
根据各所述视频帧的人体框构建特征矩阵,所述特征矩阵中包括每一个人体关键点的关键点特征、所述待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数;
在所述视频帧个数的维度上,对所述特征矩阵进行卷积,得到第一卷积结果,并在所述关键点个数的维度上,对所述特征矩阵进行卷积,得到第二卷积结果;
将所述第一卷积结果和所述第二卷积结果输入到预设分类模型中,得到所述待识别视频的人体行为类别。
2.根据权利要求1所述的方法,其特征在于,所述获取待识别视频,包括:
获取待处理视频,并对所述待处理视频进行抽帧处理,得到所述多个视频帧,以得到所述待识别视频。
3.根据权利要求1所述的方法,其特征在于,获取所述待识别视频的每一个视频帧的人体框,包括:
将所述待识别视频输入至单阶段多尺度目标检测网络模型中,得到每一个所述视频帧中的各人体框;
将每一个所述视频帧中的各人体框,输入至预设识别模型中,得到每一个所述人体框中的各人体关键点,其中,每一个所述人体框中的人体关键点的关键点个数为V,V=21。
4.根据权利要求3所述的方法,其特征在于,所述方法,还包括:
在确定所述人体框中的人体对象被遮挡时,或者,在确定所述人体框中的人体关键点的关键点个数不是V时,根据所述人体框中的各人体关键点,预测出所述人体框的全部的人体关键点。
5.根据权利要求4所述的方法,其特征在于,根据所述人体框中的各人体关键点,预测出所述人体框的全部的人体关键点,包括:
根据所述人体框中的各人体关键点,确定所述人体框中的人体对象的人体骨架结构;
根据所述人体骨架结构,确定所述人体框的全部的人体关键点。
6.根据权利要求1-5任一项所述的方法,其特征在于,每一个视频帧中的人体框个数是M,M为正整数;M个人体框,是每一个视频帧中的人体框置信度最高的前M个人体框;
所述方法,还包括:
获取每一个视频帧中的每一个人体框中的人体关键点的关键点置信度;
对每一个人体框中的人体关键点的关键点置信度进行加权求和,得到每一个人体框的人体框置信度。
7.根据权利要求1-5任一项所述的方法,其特征在于,在待识别视频的视频个数为N时,N为正整数,所述特征矩阵中还包括所述视频个数。
8.根据权利要求1-5任一项所述的方法,其特征在于,在得到所述待识别视频的人体行为类别之后,还包括:
在确定所述人体行为类别为预设类别时,发出警示信息,其中,所述警示信息包括以下的一种或多种:语音信息、文字信息、灯光信息、框选信息;
和/或,
在确定所述人体行为类别为预设类别时,对所述待识别视频进行预设处理,其中,所述预设处理包括以下一种或多种:重复播放处理、删除处理、遮挡处理。
9.一种基于视频的人体行为识别装置,其特征在于,包括:
第一获取单元,用于获取待识别视频,其中,所述待识别视频中包括多个视频帧;
第二获取单元,用于获取所述待识别视频的每一个视频帧的人体框,其中,每一个所述人体框中包括多个人体关键点,每一个所述人体关键点具有关键点特征;
构建单元,用于根据各所述视频帧的人体框构建特征矩阵,所述特征矩阵中包括每一个人体关键点的关键点特征、所述待识别视频中的视频帧的视频帧个数、每一个人体框的人体关键点的关键点个数、每一个视频帧中的人体框的人体框个数;
卷积单元,用于在所述视频帧个数的维度上,对所述特征矩阵进行卷积,得到第一卷积结果,并在所述关键点个数的维度上,对所述特征矩阵进行卷积,得到第二卷积结果;
识别单元,用于将所述第一卷积结果和所述第二卷积结果输入到预设分类模型中,得到所述待识别视频的人体行为类别。
10.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
11.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
12.一种基于视频的人体行为识别方法,其特征在于,包括:
获取待识别视频,其中,所述待识别视频中包括多个视频帧;
获取所述待识别视频的每一个视频帧的人体特征;
根据各个相邻的视频帧的人体特征,确定所述待识别视频的人体行为类别。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010025983.XA CN111259751B (zh) | 2020-01-10 | 2020-01-10 | 基于视频的人体行为识别方法、装置、设备及存储介质 |
US17/022,219 US11430265B2 (en) | 2020-01-10 | 2020-09-16 | Video-based human behavior recognition method, apparatus, device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010025983.XA CN111259751B (zh) | 2020-01-10 | 2020-01-10 | 基于视频的人体行为识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259751A true CN111259751A (zh) | 2020-06-09 |
CN111259751B CN111259751B (zh) | 2023-08-29 |
Family
ID=70948659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010025983.XA Active CN111259751B (zh) | 2020-01-10 | 2020-01-10 | 基于视频的人体行为识别方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11430265B2 (zh) |
CN (1) | CN111259751B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753724A (zh) * | 2020-06-24 | 2020-10-09 | 上海依图网络科技有限公司 | 一种异常行为识别方法及装置 |
CN112001229A (zh) * | 2020-07-09 | 2020-11-27 | 浙江大华技术股份有限公司 | 视频行为识别的方法、装置、系统和计算机设备 |
CN113177472A (zh) * | 2021-04-28 | 2021-07-27 | 北京百度网讯科技有限公司 | 动态手势识别方法、装置、设备以及存储介质 |
CN113762017A (zh) * | 2021-01-13 | 2021-12-07 | 北京京东振世信息技术有限公司 | 一种动作识别方法、装置、设备及存储介质 |
CN114092556A (zh) * | 2021-11-22 | 2022-02-25 | 北京百度网讯科技有限公司 | 用于确定人体姿态的方法、装置、电子设备、介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449657B (zh) * | 2021-07-05 | 2022-08-30 | 中山大学 | 一种基于人脸关键点的深度伪造人脸视频检测方法、系统及介质 |
CN113673459B (zh) * | 2021-08-26 | 2024-05-14 | 中国科学院自动化研究所 | 基于视频的生产施工场所安全巡检方法、系统、设备 |
CN113743293B (zh) * | 2021-09-02 | 2023-11-24 | 泰康保险集团股份有限公司 | 跌倒行为检测方法、装置、电子设备及存储介质 |
CN113837112A (zh) * | 2021-09-27 | 2021-12-24 | 联想(北京)有限公司 | 一种视频数据处理方法及电子设备 |
US20230252784A1 (en) * | 2022-02-04 | 2023-08-10 | Walid Mohamed Aly AHMED | Methods, systems, and media for identifying human coactivity in images and videos using neural networks |
CN114594770B (zh) * | 2022-03-04 | 2024-04-26 | 深圳市千乘机器人有限公司 | 一种巡检机器人不停车的巡检方法 |
CN116189305B (zh) * | 2023-03-09 | 2023-07-18 | 合肥市轨道交通集团有限公司 | 一种基于神经网络模型嵌入的人员危险动作识别方法 |
CN118397710B (zh) * | 2024-06-25 | 2024-08-23 | 广东海洋大学 | 一种基于语义分解多关系图卷积网络的骨架动作识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389549A (zh) * | 2015-10-28 | 2016-03-09 | 北京旷视科技有限公司 | 基于人体动作特征的对象识别方法及装置 |
CN107239728A (zh) * | 2017-01-04 | 2017-10-10 | 北京深鉴智能科技有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
WO2018049952A1 (zh) * | 2016-09-14 | 2018-03-22 | 厦门幻世网络科技有限公司 | 一种照片获取方法及装置 |
CN109508736A (zh) * | 2018-10-30 | 2019-03-22 | 航天信息股份有限公司 | 一种基于深度学习的监狱异常情况监测方法及监测系统 |
CN109635721A (zh) * | 2018-12-10 | 2019-04-16 | 山东大学 | 基于轨迹加权深度卷积次序池化描述子的视频人体跌倒检测方法及系统 |
CN110472604A (zh) * | 2019-08-20 | 2019-11-19 | 中国计量大学 | 一种基于视频的行人与人群行为识别方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080147488A1 (en) * | 2006-10-20 | 2008-06-19 | Tunick James A | System and method for monitoring viewer attention with respect to a display and determining associated charges |
TW200939135A (en) * | 2008-03-04 | 2009-09-16 | Avisonic Technology Corp | Apparatus and method of image calculating process and face detection system using the same |
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
US8983203B2 (en) * | 2011-10-14 | 2015-03-17 | Ulsee Inc. | Face-tracking method with high accuracy |
US9449221B2 (en) * | 2014-03-25 | 2016-09-20 | Wipro Limited | System and method for determining the characteristics of human personality and providing real-time recommendations |
CN111325492B (zh) * | 2018-12-14 | 2023-04-28 | 阿里巴巴集团控股有限公司 | 供应链优化方法及系统 |
US11687778B2 (en) * | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US11157744B2 (en) * | 2020-01-15 | 2021-10-26 | International Business Machines Corporation | Automated detection and approximation of objects in video |
-
2020
- 2020-01-10 CN CN202010025983.XA patent/CN111259751B/zh active Active
- 2020-09-16 US US17/022,219 patent/US11430265B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389549A (zh) * | 2015-10-28 | 2016-03-09 | 北京旷视科技有限公司 | 基于人体动作特征的对象识别方法及装置 |
WO2018049952A1 (zh) * | 2016-09-14 | 2018-03-22 | 厦门幻世网络科技有限公司 | 一种照片获取方法及装置 |
CN107239728A (zh) * | 2017-01-04 | 2017-10-10 | 北京深鉴智能科技有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
US20180186452A1 (en) * | 2017-01-04 | 2018-07-05 | Beijing Deephi Technology Co., Ltd. | Unmanned Aerial Vehicle Interactive Apparatus and Method Based on Deep Learning Posture Estimation |
CN109508736A (zh) * | 2018-10-30 | 2019-03-22 | 航天信息股份有限公司 | 一种基于深度学习的监狱异常情况监测方法及监测系统 |
CN109635721A (zh) * | 2018-12-10 | 2019-04-16 | 山东大学 | 基于轨迹加权深度卷积次序池化描述子的视频人体跌倒检测方法及系统 |
CN110472604A (zh) * | 2019-08-20 | 2019-11-19 | 中国计量大学 | 一种基于视频的行人与人群行为识别方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753724A (zh) * | 2020-06-24 | 2020-10-09 | 上海依图网络科技有限公司 | 一种异常行为识别方法及装置 |
CN112001229A (zh) * | 2020-07-09 | 2020-11-27 | 浙江大华技术股份有限公司 | 视频行为识别的方法、装置、系统和计算机设备 |
CN112001229B (zh) * | 2020-07-09 | 2021-07-20 | 浙江大华技术股份有限公司 | 视频行为识别的方法、装置、系统和计算机设备 |
CN113762017A (zh) * | 2021-01-13 | 2021-12-07 | 北京京东振世信息技术有限公司 | 一种动作识别方法、装置、设备及存储介质 |
CN113762017B (zh) * | 2021-01-13 | 2024-04-16 | 北京京东振世信息技术有限公司 | 一种动作识别方法、装置、设备及存储介质 |
CN113177472A (zh) * | 2021-04-28 | 2021-07-27 | 北京百度网讯科技有限公司 | 动态手势识别方法、装置、设备以及存储介质 |
CN113177472B (zh) * | 2021-04-28 | 2024-03-29 | 北京百度网讯科技有限公司 | 动态手势识别方法、装置、设备以及存储介质 |
CN114092556A (zh) * | 2021-11-22 | 2022-02-25 | 北京百度网讯科技有限公司 | 用于确定人体姿态的方法、装置、电子设备、介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111259751B (zh) | 2023-08-29 |
US20210192194A1 (en) | 2021-06-24 |
US11430265B2 (en) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259751B (zh) | 基于视频的人体行为识别方法、装置、设备及存储介质 | |
CN112528850B (zh) | 人体识别方法、装置、设备和存储介质 | |
CN111178323B (zh) | 基于视频的群体行为识别方法、装置、设备及存储介质 | |
US20190392587A1 (en) | System for predicting articulated object feature location | |
CN111062429A (zh) | 基于深度学习的厨师帽和口罩佩戴的检测方法 | |
US20160328604A1 (en) | Systems and methods of monitoring activities at a gaming venue | |
US20160078289A1 (en) | Gesture Recognition Apparatuses, Methods and Systems for Human-Machine Interaction | |
CN111598164A (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
CN110659600B (zh) | 物体检测方法、装置及设备 | |
CN113378770B (zh) | 手势识别方法、装置、设备、存储介质 | |
JP2023541752A (ja) | ニューラルネットワークモデルのトレーニング方法、画像検索方法、機器及び媒体 | |
CN111783600B (zh) | 一种人脸识别模型训练方法、装置、设备及介质 | |
CN111783619A (zh) | 人体属性的识别方法、装置、设备及存储介质 | |
CN114241379A (zh) | 一种乘客异常行为识别方法、装置、设备及乘客监控系统 | |
CN112784760B (zh) | 人体行为识别方法、装置、设备以及存储介质 | |
CN112001248A (zh) | 主动交互的方法、装置、电子设备和可读存储介质 | |
CN112001265A (zh) | 视频事件识别方法、装置、电子设备及存储介质 | |
CN114937285B (zh) | 动态手势识别方法、装置、设备及存储介质 | |
CN112396494B (zh) | 商品引导方法、装置、设备及存储介质 | |
CN112270303A (zh) | 图像识别方法、装置以及电子设备 | |
CN114463835A (zh) | 行为识别方法、电子设备及计算机可读存储介质 | |
CN113837066A (zh) | 行为识别方法、装置、电子设备及计算机存储介质 | |
Mentari et al. | Detecting Objects Using Haar Cascade for Human Counting Implemented in OpenMV | |
US20220222941A1 (en) | Method for recognizing action, electronic device and storage medium | |
CN111783598B (zh) | 一种人脸识别模型训练方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |