Nothing Special   »   [go: up one dir, main page]

CN114550298A - 短视频的动作识别方法及系统 - Google Patents

短视频的动作识别方法及系统 Download PDF

Info

Publication number
CN114550298A
CN114550298A CN202210174978.4A CN202210174978A CN114550298A CN 114550298 A CN114550298 A CN 114550298A CN 202210174978 A CN202210174978 A CN 202210174978A CN 114550298 A CN114550298 A CN 114550298A
Authority
CN
China
Prior art keywords
data stream
network
human body
network model
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210174978.4A
Other languages
English (en)
Inventor
温建伟
其他发明人请求不公开姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhuohe Technology Co Ltd
Original Assignee
Beijing Zhuohe Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhuohe Technology Co Ltd filed Critical Beijing Zhuohe Technology Co Ltd
Priority to CN202210174978.4A priority Critical patent/CN114550298A/zh
Publication of CN114550298A publication Critical patent/CN114550298A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本文提供一种短视频的动作识别方法及系统,其方法包括:获取一段人体运动图像;将所述人体运动图像输入到第一网络模型训练得到第一数据流;利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;将所述RGB帧输入到第二网络模型训练得到第二数据流;将所述第一数据流和所述第二数据流融合确定目标人体动作类型。该方法不仅可以识别单人行为,还可以识别两人交互行为,提高了相似行为的识别精度,同时用卡尔曼滤波处理图像可替代对大量数据的手工标注,大大提升了图像的标注效率。

Description

短视频的动作识别方法及系统
及图像识别领域,尤其涉及一种短视频的动作识别方法及系统、介质及设备。
背景技术
随着移动摄像机的发展,用短视频记录我们的日常生活已经成为一种引人注目的趋势。这些短视频包含大量的信息,如何使移动设备能够有效地识别视频中的人体动作是当前研究的重要课题。在现实场景中,经常存在许多不可控的因素,例如灯光、阴影和相机角度的变化,这会极大地限制人体动作识别的应用。要识别视频中的人体动作,不仅要考虑单个帧图像,还要考虑视频连续帧之间的其他关系。
目前,在图像识别领域,人体动作识别算法主要分为传统的特征提取方法和基于深度学习的方法。传统的人体行为识别方法又分为两类:基于人体运动信息的特征提取方法和基于时空点的特征提取方法。基于人体运动信息的特征提取方法主要使用运动能量图像和运动历史图像来解释一系列图像中的人的运动。例如从人体深度图像中收集节点的三维坐标,并将这些节点形成的人体轮廓作为行为识别的特征。基于时空兴趣点的特征提取方法主要通过在三维时空中进行高斯模糊和局部角点提取,得到时空兴趣点,并对时空兴趣点进行像素直方图统计,最终形成描述动作的特征向量。基于深度学习的方法包括很多深度学习模型,如AlexNet、GoogleNet、ResNet、CNN、YOLO和SSD等。然而,以上方法在人体动作识别中仍然存在许多问题,如区别相似人体动作、识别人与人之间交互动作的精度不高,同时需要对大量视频数据进行手工标注。
发明内容
为克服相关技术中存在的问题,本文提供短视频的动作识别方法及系统、介质及设备,基于改进的卷积神经网络模型不仅可以识别单人行为,还可以识别两人交互行为,提高了相似行为的识别精度,同时避免了对大量视频数据进行手工标注。
根据本文的第一方面,提供一种短视频的动作识别方法,包括:获取一段人体运动图像;将所述人体运动图像输入到第一网络模型训练得到第一数据流;利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;将所述RGB帧输入到第二网络模型训练得到第二数据流;将所述第一数据流和所述第二数据流融合确定目标人体动作类型。
基于前述方案,所述将所述人体运动图像输入到第一网络模型训练之前,还包括以连续帧的形式提取人体运动图像生成视频运动块。
基于前述方案,所述第一网络模型包括深度卷积神经网络VGG-16网络;所述第二网络模型包括深度卷积神经网络VGG-16网络、区域建议网络RPN、兴趣区域池ROI层和分类层。
基于前述方案,所述将所述人体运动图像输入到第一网络模型训练得到第一数据流,包括:将所述视频运动块组成数据集,所述数据集输入到所述深度卷积神经网络VGG-16网络得到所述第一数据流。
基于前述方案,所述将所述RGB帧输入到第二网络模型训练得到第二数据流,包括:将所述RGB帧输入到所述深度卷积神经网络VGG-16网络训练、并将训练结果作为所述区域建议网络RPN的输入、将RPN的输出结果作为兴趣区域池ROI层的输入,将所述兴趣区域池ROI层的输出结果输入到所述分类层以得到所述第二数据流。
基于前述方案,所述将所述第一数据流和所述第二数据流融合确定目标人体动作类型,包括:利用Softmax分类器分别生成所述第一数据流和所述第二数据流生成概率分数,与最高分数相对应的动作类型确定为所述目标人体动作类型。
根据本文的另一方面,提供一种短视频的动作识别系统,包括:获取单元,用于获取一段人体运动图像;第一生成单元,用于将所述人体运动图像输入到第一网络模型训练得到第一数据流;提取单元,用于利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;第二生成单元,用于将所述RGB帧输入到第二网络模型训练得到第二数据流;融合单元,用于将所述第一数据流和所述第二数据流融合确定目标人体动作类型。
根据本文的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被执行时实现短视频的动作识别方法的步骤。
根据本文的另一方面,提供一种计算机设备,包括处理器、存储器和存储于所述存储器上的计算机程序,所述处理器执行所述计算机程序时实现短视频的动作识别方法的步骤。
本文基于改进的卷积神经网络模型实现,该模型主要包括两个部分,第一网络模型和第二网络模型。首先,获取一段人体运动图像;将所述人体运动图像输入到第一网络模型训练得到第一数据流;利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;将所述RGB帧输入到第二网络模型训练得到第二数据流;将所述第一数据流和所述第二数据流融合确定目标人体动作类型。该方法不仅可以识别单人行为,还可以识别两人交互行为,提高了相似行为的识别精度,同时用卡尔曼滤波处理图像可替代对大量数据的手工标注,大大提升了图像的标注效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本文。
附图说明
构成本文的一部分的附图用来提供对本文的进一步理解,本文的示意性实施例及其说明用于解释本文,并不构成对本文的不当限定。在附图中:
图1是根据一示例性实施例示出的短视频的动作识别方法的流程图。
图2是根据一示例性实施例示出的第二网络模型的结构框图。
图3是根据一示例性实施例示出的短视频的动作识别系统的框图。
图4是根据一示例性实施例示出的动作识别设备的框图。
具体实施方式
为使本文实施例的目的、技术方案和优点更加清楚,下面将结合本文实施例中的附图,对本文实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本文一部分实施例,而不是全部的实施例。基于本文中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文保护的范围。需要说明的是,在不冲突的情况下,本文中的实施例及实施例中的特征可以相互任意组合。
除非上下文明确要求,否则整个说明书和权利要求书中的“包括”、“包含”等类似词语应当解释为包含的含义而不是排他或穷举的含义;也就是说,是“包括但不限于”的含义。
在本发明公开的描述中,需要理解的是,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明公开的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本文提供一种短视频的动作识别方法及系统,其实现基于改进的卷积神经网络模型,通过该模型不仅可以识别单人行为,还可以识别两人交互行为,提高了相似行为的识别精度。
图1是根据一示例性实施例示出的一种短视频的动作识别方法的流程图。参考图1,动作识别方法至少包括:
步骤101:获取一段人体运动图像;
具体地说,从原始视频帧中提取人体运动图像,以连续帧的形式提取人体运动图像生成视频运动块。可以是每连续10帧视频提取人体运动图像生成人体运动图像的视频运动块,然后将人体运动图像的视频运动块组织成数据集,输入到深度卷积神经网络VGG-16网络。
步骤102:将所述人体运动图像输入到第一网络模型训练得到第一数据流;
具体地说,第一网络模型包括深度卷积神经网络VGG-16网络;该深度卷积神经网络VGG-16网络代表了一种具有优越识别能力的深度卷积神经网络。该网络模型分为六部分,前五部分表示卷积网络,最后一部分是全连接网络。输入图像的大小调整为224×224像素。对于所有卷积层,卷积核的大小都设置为3×3。
第一部分由两个conv3–64层和一个maxpool层组成。在该部分中,图像大小从224×224变为224×224×64,这可视为第二部分的输入。第二部分与第一部分类似,由两个conv3–128层和一个maxpool层组成。在这一部分中,图像的大小调整为56×56×128。第三部分由三个conv3–256层和一个maxpool层组成。在这一部分中,图像大小从56×56×128变为28×28×256。与第三部分类似,第四部分由三个conv3–512层和一个maxpool层组成。在这一部分中,图像大小从28×28×256变为14×14×512。第五部分的输出被转换成一个由7×7×512=25088个参数组成的一维向量,然后发送到两个完全连接的层,这两个层有4096个神经元和一个丢失层。使用由1000个神经元组成的全连接层和Softmax层来处理分类输出概率。通过分类输出得到第一数据流。
需要说明的是,一般先对深度卷积神经网络VGG-16网络进行训练。具体地,从原始视频帧中提取人体运动图像生成视频运动块,然后将该视频运动块组织成数据集,用于训练深度卷积神经网络VGG-16网络。然后将原始视频帧中的视频运动块组成的数据集,馈送到经过训练的VGG16网络输入进行判断,输出第一数据流。
视频运动块一般通过图像亮度来表示目标运动,具体计算每个像素值的变化时间。假设τ表示人体的移动时间,δ表示衰减参数。当τ太小时,部分运动信息丢失。另一方面,当τ太大时,像素强度无法准确确定,因此很难判断运动方向。
视频运动块的强度值Hτ(x,y,t),由式(1)定义:
Figure BDA0003519846430000061
更新函数φ由帧间差分法定义,由式(2)、式(3)定义:
Figure BDA0003519846430000062
D(x,y,t)=|I(x,y,t)-I(x,y,t±Δ)| 式(3)
ξ是人为设置的差分阈值。假设I(x,y,t)定义在图像帧t中一个像素坐标(x,y)的强度值,Δ代表图像帧间距离。当ξ变大时,ξ会导致图像中心区域出现空洞。
步骤103:利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;
具体地说,卡尔曼滤波是一种最优线性递归滤波方法,在解决人体图像跟踪问题时非常有效。在本文中,使用卡尔曼滤波器在原始视频帧的每一帧中用最小矩形框标注目标人体运动图像,然后将获得的矩形框坐标信息用于训练深度卷积神经网络VGG-16网络。用卡尔曼滤波处理图像可替代对大量数据的手工标注,大大提升了图像的标注效率。
卡尔曼滤波器是基于状态方程和测量方程的,它使用递归方法来预测线性系统的变化。状态方程和测量方程分别由式(4)、式(5)定义:
xk=Ak,k-1xk-1k-1 式(4)
zk=Hkzkk 式(5)
其中xk定义为时刻k的状态,zk定义为时刻k的测量值,Ak,k-1xk-1为状态转移矩阵,Hk是测量矩阵,ξk是系统噪声,ξk∈N(0,Qk);此外,ηk为测量噪声,ηk∈N(0,Rk);最后,Qk和Rk分别是ξ和η的方差。卡尔曼滤波可以概括为状态预测和状态校正的过程。
状态预测方程由式(6)给出:
Figure BDA0003519846430000071
误差协方差预测方程由式(7)给出:
Figure BDA0003519846430000072
卡尔曼滤波器增益定义由式(8)如下:
Figure BDA0003519846430000073
状态校正方程由下式给出:
Figure BDA0003519846430000074
误差协方差校正矩阵由下式给出:
Pk=Pk,k-1-KkHkPk,k-1 式(10)
状态预测方程基于式(4)和状态预测向量
Figure BDA0003519846430000075
获得;误差协方差预测向量Pk,k-1通过式(7)获得。状态校正方程基于式(5)给出的测量方程,并校正状态预测向量,确定向量
Figure BDA0003519846430000076
并计算最小误差协方差矩阵。
本领域技术人员可以理解,卡尔曼滤波检测方法是本领域的常规的检测方法。首先,设置初始参数并读取原始视频序列。接下来,执行图像背景估计以生成初始背景图像。然后,依次读取该原始视频序列,并使用初始背景图像的背景和当前帧上的数据获得当前图像帧中的前景目标,当前图像帧上的数据表示卡尔曼滤波算法基于前一帧数据获得的估计;然后,检测目标人体运动图像。最后,目标人体运动图像的坐标被保存为神经网络训练的输入。
本文中,通过卡尔曼滤波提取所述人体运动图像得到带有注释信息的RGB帧;该注释信息可以是人体运动图像帧的边框坐标。
步骤104:将所述RGB帧输入到第二网络模型训练得到第二数据流;
具体地说,该第二网络模型20包括深度卷积神经网络VGG-16网络201、区域建议网络RPN202、兴趣区域池ROI层203和分类层204。图2示出了第二网络模型20的结构框图。
需要说明的是,所述深度卷积神经网络VGG-16网络与第一网络模型中的VGG-16结构相同。
将步骤103中带有注释信息的RGB帧输入到该深度卷积神经网络VGG-16网络、并将输出结果作为所述区域建议网络RPN的输入、将RPN的输出结果作为兴趣区域池ROI层的输入,将所述兴趣区域池ROI层的输出结果输入到所述分类层以得到所述第二数据流。
值得一提的是,在本文中深度卷积神经网络VGG-16网络的第五部分的输出表示RPN输入。传统的区域建议生成方法,例如滑动窗口方法和R-CNN中的选择性搜索方法耗时大,本文中使用RPN生成区域建议,可以大大减少了运行时间。
首先将3×3滑动窗口滑入原始图像,将当前3×3区域的中心点映射回原始图像。因此,每个像素对应于九个锚。锚映射回原始图像的公式可以表示为:
(x,y)=(Sx',Sy') 式(11)
其中S代表卷积神经网络的最终产物,x和y代表原始图像上的坐标,x'和y'代表特征地图上的坐标。
然后,锚被送入两个平行的完全连接的层,盒回归层和盒分类层。盒回归层用于调整候选盒的位置,盒分类层用于区分锚定对象是否为目标。最后,这些建议被保存下来,用于兴趣区域池ROI池。
假设ROI坐标为(x0,y0,x1,y1),输入大小为(y1-y0)×(x1-x0)。然后,当输出大小为Hp×Wp时,ROI的内核滑动的大小定义为:
ks=(y1-y0)/Hp×(x1-x0)/Wp 式(12)
在ROI池层之后,提取图像特征图作为分类输入。全连通层和软最大层用于判断目标图像所属的人体动作,然后确定该人体动作概率。同时,采用包围盒回归方法,使检测到的目标盒更加准确。
步骤105:将所述第一数据流和所述第二数据流融合确定目标人体动作类型。
具体地说,在本文中,使用Softmax分类器生成的概率分数来融合第一数据流和第二数据流。
需要说明的是,本领域技术人员可以理解,实际应用中,Softmax分类器通常用于解决多分类问题,其定义如下:
Figure BDA0003519846430000091
AC=max[M,R] 式(14)
Softmax分类器P(·)的输出是标准化分类概率,因此P(·)值高达1。在式(13)中,θ表示多个输入。最后选择输出节点时,选择概率最高的节点作为预测目标。在本文中,M分数表示第一网络模型输出第一数据流的Softmax概率,R分数表示第二网络模型输出第二数据流的Softmax概率。M分数和R分数的融合结果可由式(14)表示。与最高分数相对应的动作类型被确定目标人体动作类型。动作类型可以是步行、慢跑、跑步、拳击、挥手和鼓掌等。
图3是根据一示例性实施例,示出的一种短视频的动作识别系统30。所述系统30包括:
获取单元301,用于获取一段人体运动图像;
第一生成单元302,用于将所述人体运动图像输入到第一网络模型训练得到第一数据流;
提取单元303,用于利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;
第二生成单元304,用于将所述RGB帧输入到第二网络模型训练得到第二数据流;
融合单元305,用于将所述第一数据流和所述第二数据流融合确定目标人体动作类型。
不难发现,本实施方式为与第一实施方式相对应的系统实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施方式中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
图4是根据一示例性实施例示出的一种用于计算机设备40的框图。参照图4,设备40包括处理器401,处理器的个数可以根据需要设置为一个或者多个。设备40还包括存储器402,用于存储可由处理器401的执行的指令,例如应用程序。存储器的个数可以根据需要设置一个或者多个。其存储的应用程序可以为一个或者多个。处理器401被配置为执行指令,以执行上述方法。
存储器402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储选项列表等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施方式中,存储器402可选包括相对于处理器401远程设置的存储器,这些远程存储器可以通过网络连接至外接设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本领域技术人员应明白,本文的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本文可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本文可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质上实施的计算机程序产品的形式。计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质,包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质等。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
本文是参照根据本文实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本文的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本文范围的所有变更和修改。
显然,本领域的技术人员可以对本文进行各种改动和变型而不脱离本文的精神和范围。这样,倘若本文的这些修改和变型属于本文权利要求及其等同技术的范围之内,则本文的意图也包含这些改动和变型在内。

Claims (10)

1.一种短视频的动作识别方法,其特征在于,包括:
获取一段人体运动图像;
将所述人体运动图像输入到第一网络模型训练得到第一数据流;
利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;
将所述RGB帧输入到第二网络模型训练得到第二数据流;
将所述第一数据流和所述第二数据流融合确定目标人体动作类型。
2.如权利要求1所述的一种短视频的动作识别方法,其特征在于,所述将所述人体运动图像输入到第一网络模型训练之前,还包括以连续帧的形式提取人体运动图像生成视频运动块。
3.如权利要求2所述的一种短视频的动作识别方法,其特征在于,所述第一网络模型包括深度卷积神经网络VGG-16网络;所述第二网络模型包括深度卷积神经网络VGG-16网络、区域建议网络RPN、兴趣区域池ROI层和分类层。
4.如权利要求3所述的一种短视频的动作识别方法,其特征在于,所述将所述人体运动图像输入到第一网络模型训练得到第一数据流,包括:将所述视频运动块组成数据集,所述数据集输入到所述深度卷积神经网络VGG-16网络得到所述第一数据流。
5.如权利要求3所述的一种短视频的动作识别方法,其特征在于,所述将所述RGB帧输入到第二网络模型训练得到第二数据流,包括:将所述RGB帧输入到所述深度卷积神经网络VGG-16网络训练、并将训练结果作为所述区域建议网络RPN的输入、将RPN的输出结果作为兴趣区域池ROI层的输入,将所述兴趣区域池ROI层的输出结果输入到所述分类层以得到所述第二数据流。
6.如权利要求1所述的一种短视频的动作识别方法,其特征在于,所述将所述第一数据流和所述第二数据流融合确定目标人体动作类型,包括:
利用Softmax分类器分别生成所述第一数据流和所述第二数据流生成概率分数,与最高分数相对应的动作类型确定为所述目标人体动作类型。
7.一种短视频的动作识别系统,其特征在于,包括:
获取单元,用于获取一段人体运动图像;
第一生成单元,用于将所述人体运动图像输入到第一网络模型训练得到第一数据流;
提取单元,用于利用卡尔曼滤波器提取所述人体运动图像得到带有注释信息的RGB帧;
第二生成单元,用于将所述RGB帧输入到第二网络模型训练得到第二数据流;
融合单元,用于将所述第一数据流和所述第二数据流融合确定目标人体动作类型。
8.如权利要求7所述的一种短视频的动作识别系统,其特征在于,所述第一网络模型包括深度卷积神经网络VGG-16网络;所述第二网络模型包括深度卷积神经网络VGG-16网络、区域建议网络RPN、兴趣区域池ROI层和分类层。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被执行时实现如权利要求1-6中任意一项所述方法的步骤。
10.一种计算机设备,包括处理器、存储器和存储于所述存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-6中任意一项所述方法的步骤。
CN202210174978.4A 2022-02-25 2022-02-25 短视频的动作识别方法及系统 Pending CN114550298A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210174978.4A CN114550298A (zh) 2022-02-25 2022-02-25 短视频的动作识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210174978.4A CN114550298A (zh) 2022-02-25 2022-02-25 短视频的动作识别方法及系统

Publications (1)

Publication Number Publication Date
CN114550298A true CN114550298A (zh) 2022-05-27

Family

ID=81678854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210174978.4A Pending CN114550298A (zh) 2022-02-25 2022-02-25 短视频的动作识别方法及系统

Country Status (1)

Country Link
CN (1) CN114550298A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115171217A (zh) * 2022-07-27 2022-10-11 北京拙河科技有限公司 一种动态背景下的动作识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538528A (zh) * 2021-06-04 2021-10-22 航天信息股份有限公司 一种基于卡尔曼滤波的视频标注方法及系统
CN113673307A (zh) * 2021-07-05 2021-11-19 浙江工业大学 一种轻量型的视频动作识别方法
CN113902919A (zh) * 2021-09-15 2022-01-07 国家电网有限公司 一种基于双流网络的目标检测方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538528A (zh) * 2021-06-04 2021-10-22 航天信息股份有限公司 一种基于卡尔曼滤波的视频标注方法及系统
CN113673307A (zh) * 2021-07-05 2021-11-19 浙江工业大学 一种轻量型的视频动作识别方法
CN113902919A (zh) * 2021-09-15 2022-01-07 国家电网有限公司 一种基于双流网络的目标检测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CONGCONG LIU ET AL.: ""Improved human action recognition approach based on two-stream convolutional neural network model"", 《SPRINGER》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115171217A (zh) * 2022-07-27 2022-10-11 北京拙河科技有限公司 一种动态背景下的动作识别方法及系统
CN115171217B (zh) * 2022-07-27 2023-03-03 北京拙河科技有限公司 一种动态背景下的动作识别方法及系统

Similar Documents

Publication Publication Date Title
CN109977262B (zh) 从视频中获取候选片段的方法、装置及处理设备
Fang et al. Recurrent autoregressive networks for online multi-object tracking
US20220417590A1 (en) Electronic device, contents searching system and searching method thereof
US10769480B2 (en) Object detection method and system
US10671855B2 (en) Video object segmentation by reference-guided mask propagation
US10002313B2 (en) Deeply learned convolutional neural networks (CNNS) for object localization and classification
US8345984B2 (en) 3D convolutional neural networks for automatic human action recognition
Santner et al. PROST: Parallel robust online simple tracking
US11640714B2 (en) Video panoptic segmentation
Roth et al. On-line conservative learning for person detection
US20130251246A1 (en) Method and a device for training a pose classifier and an object classifier, a method and a device for object detection
CN113326835B (zh) 一种动作检测方法、装置、终端设备和存储介质
CN109598735A (zh) 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备
CN109426805A (zh) 用于对象检测的方法、设备和计算机程序产品
CN109492576B (zh) 图像识别方法、装置及电子设备
Aroulanandam et al. Object Detection in Convolution Neural Networks Using Iterative Refinements.
CN111914878A (zh) 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质
Yi et al. Human action recognition based on action relevance weighted encoding
CN108256567B (zh) 一种基于深度学习的目标识别方法及系统
CN106407978B (zh) 一种结合似物度的无约束视频中显著物体检测方法
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
CN112131944B (zh) 一种视频行为识别方法及系统
Goel Realtime object detection using tensorflow an application of ml
Huerta et al. Combining where and what in change detection for unsupervised foreground learning in surveillance
Duffner et al. Using discriminative motion context for online visual object tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220527