Nothing Special   »   [go: up one dir, main page]

CN110991317A - 一种基于多尺度透视感知型网络的人群计数方法 - Google Patents

一种基于多尺度透视感知型网络的人群计数方法 Download PDF

Info

Publication number
CN110991317A
CN110991317A CN201911197570.3A CN201911197570A CN110991317A CN 110991317 A CN110991317 A CN 110991317A CN 201911197570 A CN201911197570 A CN 201911197570A CN 110991317 A CN110991317 A CN 110991317A
Authority
CN
China
Prior art keywords
perspective
neural network
convolution
network
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911197570.3A
Other languages
English (en)
Other versions
CN110991317B (zh
Inventor
纪庆革
包笛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201911197570.3A priority Critical patent/CN110991317B/zh
Publication of CN110991317A publication Critical patent/CN110991317A/zh
Application granted granted Critical
Publication of CN110991317B publication Critical patent/CN110991317B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理和计算机视觉技术,为基于多尺度透视感知型网络的人群计数方法,包括步骤:根据原图像生成密度图和透视图,形成密度图和透视图数据集;构建神经网络模型,该神经网络模型分为主干网络和透视图分支网络;基于密度图和透视图数据集,训练神经网络模型,并利用训练好的神经网络模型输出密度图,得到人群计数结果。本发明的神经网络在每列网络使用不同扩张率的空洞卷积使得网络进行多尺度人头的特征提取,获得人群密度计数所需的密度图,对人群密度进行准确计算。

Description

一种基于多尺度透视感知型网络的人群计数方法
技术领域
本发明涉及图像处理和计算机视觉技术,具体为基于多尺度透视感知型网络的人群计数方法。
背景技术
随着城市化进程的推进,城市高密度人口流动性的剧增、大量人口的流动在带动经济发展的同时也为城市发展带来了各种难题。从城市管理的角度来看,在公共场所有必要对人流量进行自动监控。现有人群计数方法较好地解决了“自动”的问题,可以在大量的监控数据中进行实时人数的统计,为发送预警信息、人员调度等方面提供了技术基础。现有人群计数方法,可分为:
1.基于检测的方法
此类方法通过对图像上每个行人或者人头进行定位与识别,再根据定位结果统计人数。优点在于可以做到准确定位行人或者人头位置,但缺点在于对高密度的人群图像来说,其检测效果差。
2.基于回归的方法
此类方法没有精确定位行人位置,而是对大概的人群数目给出个估计值。优点在于对高密度人群图像来说,比基于检测的方法的效果好,但缺点是没有精确的定位能力。
3.基于密度图回归的方法
根据已知的每个人头位置,再估计该位置所在人头的大小,这样可以得到该人头覆盖的区域,通过高斯核将该区域转化为该区域内可能为人头的概率(该区域概率和为1),最终可以得到一张人群密度图。之后通过深度神经网络可以通过原图像得到密度图。
密度图回归作为目前人群计数方法的主流方法被很多方法所使用。Single-ImageCrowd Counting via Multi-Column Convolutional Neural Network(CVPR2016)提出了多列卷积神经网络(MCNN),此方法利用多列卷积网络,使用不同的卷积核来适应由于透视现象产生的人头大小不同的情况。但在Dilated Convolutional Neural Networks forUnderstanding the Highly Congested Scenes(CVPR2018)的实验提出MCNN的多列网络经过统计的训练数据显示每一列并没有明显的区分度。所以在其网络结构CSRNet引入了空洞卷积(dilated convolution)的概念,使得在卷积操作时,可以在不增加参数的情况下提取更广范围的特征,但这样的做法又忽视了图像中人头因为透视现象而产生的多尺度变化。
发明内容
为解决现有技术所存在的问题,本发明提供一种基于多尺度透视感知型网络的人群计数方法,该方法基于CSRNet的空洞卷积优势,将其延伸成为多列卷积神经网络,在每列网络使用不同扩张率的空洞卷积使得网络进行多尺度人头的特征提取,获得人群密度计数所需的密度图,对人群密度进行准确计算。
本发明采用以下技术方案来实现:一种基于多尺度透视感知型网络的人群计数方法,包括以下步骤:
S1、数据预处理,根据原图像生成密度图和透视图,形成密度图和透视图数据集;
S2、构建神经网络模型,该神经网络模型分为主干网络和透视图分支网络;
S3、基于密度图和透视图数据集,训练神经网络模型,并利用训练好的神经网络模型输出密度图,得到人群计数结果;
所述主干网络包括至少三列利用空洞卷积进行计算的卷积神经网络,在每列卷积神经网络使用不同扩张率的空洞卷积使得神经网络进行多尺度人头的特征提取,获得人群密度计数所需的密度图。
在优选的技术方案中,步骤S1基于公共人群数据集的多样性,采用神经网络自编码器拟合透视图;所述神经网络自编码器的输入为公共人群数据集中已有的透视图,输出为拟合后的透视图。
在优选的技术方案中,步骤S2所述透视图分支网络采用神经网络自编码器实现。
在优选的技术方案中,步骤S2所述主干网络包括前半部分和后半部分;
主干网络前半部分分为4个阶段,第一阶段是连续的两个3*3*64的卷积层,然后接一个最大池化层;第二阶段为连续两个3*3*128的卷积层,然后接一个最大池化层;第三阶段为连续三个3*3*256的卷积层,然后接一个最大池化层;第四阶段为连续三个3*3*512的卷积层,然后接一个最大池化层;
主干网络后半部分是延伸出的三列利用空洞卷积进行计算的卷积神经网络;第一列为扩张率为2的空洞卷积,依次为三个3*3*512的卷积层,然后为3*3*256、3*3*128、3*3*64的三个卷积层;第二列为扩张率为1的空洞卷积,等价于普通卷积,卷积核尺寸和数量与第一列相同;第三列为扩张率为2和4的混合空洞卷积,卷积核尺寸和数量与第一列相同,但前三层的扩张率为2,后三层的扩张率为4。
在优选的技术方案中,步骤S2所构建的神经网络模型把透视图分支网络所输出的透视图的值进行归一化,然后将归一化的值作为权重和神经网络模型的主干网络所生成的人头特征图进行合并,得到新的密度图作为神经网络模型的输出结果。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明将已有的框架CSRNet进行扩展,延伸成三列卷积神经网络作为主干网络,每列使用不同扩张率的空洞卷积进行不同感受野的特征提取,然后进行融合得到人群密度计数所需要的密度图,对人群密度进行准确计算。
2、本发明还添加一个分支输出透视图作为加权的基准,对三列卷积神经网络得到的三张特征图进行加权计算得到一张密度图,使得因透视而呈现的远处比近处人头较小的现象在加权后取得一个平衡。因此,本发明通过引入透视图分支,进行多列权重的重新分配,最终得到质量更高的密度图,进而更准确得到场景中的人数。
3、传统技术对透视图进行密度图的修正时,依据特定的公式进行透视图的生成,因而只能依靠手动调整参数,比较局限。本发明利用神经网络自编码器通过较少的透视图进行训练,然后进行大量透视图的生成;之后将透视图分支和主干网络进行结合,进行一个重新加权的操作,获得最终的密度图作为卷积神经网络输出。因此,本发明对密度图进行修正时,依靠神经网络可以更好地挖掘透视图的特征,得到质量更高的密度图。
附图说明
图1是本发明的人群计数方法流程图;
图2是神经网络模型的结构示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本发明包括基于多尺度透视感知型网络的人群计数方法,包括以下步骤:
S1、数据预处理,根据原图像生成密度图和透视图,形成密度图和透视图数据集。
根据原图像生成密度图的过程为:
(1)一幅有N个人头的原图像可按像素点表示为:
Figure BDA0002295046800000031
其中,xi表示人头在图像中的像素位置,δ(x-xi)表示图像中人头位置的冲激函数,N为图像中的人头总数。
(2)接下来用一个高斯核G对人头表示区域进行概率分布处理,每个点的值表示人头出现的概率,则密度图的生成公式为:
Figure BDA0002295046800000032
σi=βdi
Figure BDA0002295046800000041
σi表示高斯核G的标准差,di表示距离xi人头的最近m个人头与此人头的距离均值,β为常数参数。F(x)即经过处理后的密度图。
根据原图像生成透视图的过程为:
(1)可以从网络下载公共人群数据集,获得部分透视图;透视图有些采用线性处理得到,有些采用非线性处理。
(2)基于公共人群数据集的多样性,采用一个神经网络自编码器拟合透视图。自编码器的输入为公共人群数据集中已有的透视图,输出为拟合后的透视图。通过部分透视图(来自公共人群数据集)来训练该自编码器,进而得到更多数据集的透视图作为神经网络模型的训练数据。
S2、构建神经网络模型,该神经网络模型分为主干网络和透视图分支网络,其中透视图分支网络采用神经网络自编码器来实现。
(1)如图2,神经网络模型的主干网络前半部分是经典神经网络模型vgg16的前10层,可分为4个阶段。
第一阶段是连续的两个3*3*64(3为长和宽,64为个数,下同)的卷积层,然后接一个最大池化层;第二阶段为连续两个3*3*128的卷积层,然后接一个最大池化层;第三阶段为连续三个3*3*256的卷积层,然后接一个最大池化层;最后一个阶段,即第四阶段为连续三个3*3*512的卷积层,然后接一个最大池化层。
(2)神经网络模型的主干网络的后半部分是延伸出的三列利用空洞卷积进行计算的卷积神经网络。后半部分的三列卷积的括号表示卷积核的参数,依次为长度、通道数、扩张率。从上至下第一列为扩张率为2的空洞卷积,依次为三个3*3*512的卷积层,然后为3*3*256、3*3*128、3*3*64的三个卷积层;第二列为扩张率为1的空洞卷积,等价于普通卷积,卷积核尺寸和数量与第一列相同;第三列为扩张率为2和4的混合空洞卷积,卷积核尺寸和数量与第一列相同,但前三层的扩张率为2,后三层的扩张率为4。所构建的神经网络模型主干网络的具体参数可参见表1。
Figure BDA0002295046800000042
Figure BDA0002295046800000051
表1神经网络模型主干网络的参数
因为人头大小会由于透视现象,也就是近大远小来改变,所以本发明需要同时提取大、中、小三个尺度范围的人头特征图;而不同扩张率的感受野不同,扩张率大,感受野也更大,从而提取尺度不同的特征,以实现大、中、小三个尺度范围的人头特征图提取。
(3)所构建的神经网络模型把透视图分支网络所输出的透视图的值进行归一化,然后将归一化的值作为权重和神经网络模型的主干网络所生成的人头特征图进行合并,得到新的密度图作为神经网络模型的输出结果。
由主干网络得到三张特征图,其大小均为原图像的1/8,需要由密度图进行重新加权将其合并成一张新的密度图。首先在预处理过程中由从自编码器会得到一张透视图,命名为p,透视图p与三张特征图的大小一致。图2中有两个权重层,需要将透视图p输入权重层进行归一化表示权重,由下列公式得到:
Figure BDA0002295046800000061
其中i∈{1,2},αi和βi为可训练的参数,σ为进行归一化的sigmoid函数,令W为wi组成的矩阵。
Du=WI⊙D2+(1-W1)⊙D1
Dd=W2⊙D2+(1-W2)⊙D3
此为一组合并公式,Du、Dd分别代表由加权产生的两张特征图,Di表示由上至下的三列特征图,i∈{1,2,3},⊙代表按元素的矩阵乘积。最后再将两张特征图进行合并得到一张密度图作为神经网络模型的输出结果。输出的密度图为原图像大小的1/8,所以还需进行双线性插值将密度图扩展成原图像大小。
S3、基于密度图和透视图数据集,训练神经网络模型,并利用训练好的神经网络模型输出密度图,得到人群计数结果。
首先需要在数据预处理阶段对透视图分支网络的自编码器进行训练,自编码器产生两张大小分别和第一列卷积神经网络、第二列卷积神经网络输出的特征图相同尺寸的透视图。自编码器的训练过程分为两个阶段,在第一阶段的输入为透视图,输出为透视图,该模型为自编码器的常规训练方式,损失函数为:
Figure BDA0002295046800000062
其中Ep为编码函数,Dp为解码函数,
Figure BDA0002295046800000063
Figure BDA0002295046800000064
为各自的训练参数。第一阶段两个参数需要同时训练。第二阶段的输入为原图像,输出为透视图,其损失函数为:
Figure BDA0002295046800000071
其中EI为新的编码函数,
Figure BDA0002295046800000072
为其训练参数。此过程保持
Figure BDA0002295046800000073
训练过程不变。最终得到的自编码器可以由原图像生成其对应的透视图。生成的透视图和第一列卷积神经网络输出的特征图对应,而后通过下采样得到另一个透视图和第二列卷积神经网络输出的特征图对应。
在主干网络的前半部分,使用的是经典网络vgg16的前10层,所以这前半部分在初始化网络时使用的是预训练的参数,然后和主干网络后半部分一起进行训练。由于神经网络模型分为多个部分,所以损失函数由多个部分组成,单个部分的损失函数为:
Figure BDA0002295046800000074
其中Di代表神经网络输出,Gi代表真值;SSIM代表结构相似性,代表两幅图像相似程度。最大为1时,代表两幅图完全一样;λ为平衡参数。所以最终的总体损失函数为:
L=LD+ηLpsp
其中LD为最终输出密度图的损失函数,Lpsp为透视图p的损失函数,分别由单个部分损失函数进行替换。η为平衡参数。在本实施例中,优化器采用Adam优化器,学习率设置为0.0001。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种基于多尺度透视感知型网络的人群计数方法,其特征在于,包括以下步骤:
S1、数据预处理,根据原图像生成密度图和透视图,形成密度图和透视图数据集;
S2、构建神经网络模型,该神经网络模型分为主干网络和透视图分支网络;
S3、基于密度图和透视图数据集,训练神经网络模型,并利用训练好的神经网络模型输出密度图,得到人群计数结果;
所述主干网络包括至少三列利用空洞卷积进行计算的卷积神经网络,在每列卷积神经网络使用不同扩张率的空洞卷积使得神经网络进行多尺度人头的特征提取,获得人群密度计数所需的密度图。
2.根据权利要求1所述的人群计数方法,其特征在于,步骤S1基于公共人群数据集的多样性,采用神经网络自编码器拟合透视图;所述神经网络自编码器的输入为公共人群数据集中已有的透视图,输出为拟合后的透视图。
3.根据权利要求1所述的人群计数方法,其特征在于,步骤S2所述透视图分支网络采用神经网络自编码器实现。
4.根据权利要求1所述的人群计数方法,其特征在于,步骤S2所述主干网络包括前半部分和后半部分;
主干网络前半部分分为4个阶段,第一阶段是连续的两个3*3*64的卷积层,然后接一个最大池化层;第二阶段为连续两个3*3*128的卷积层,然后接一个最大池化层;第三阶段为连续三个3*3*256的卷积层,然后接一个最大池化层;第四阶段为连续三个3*3*512的卷积层,然后接一个最大池化层;
主干网络后半部分是延伸出的三列利用空洞卷积进行计算的卷积神经网络;第一列为扩张率为2的空洞卷积,依次为三个3*3*512的卷积层,然后为3*3*256、3*3*128、3*3*64的三个卷积层;第二列为扩张率为1的空洞卷积,等价于普通卷积,卷积核尺寸和数量与第一列相同;第三列为扩张率为2和4的混合空洞卷积,卷积核尺寸和数量与第一列相同,但前三层的扩张率为2,后三层的扩张率为4。
5.根据权利要求1所述的人群计数方法,其特征在于,步骤S2所构建的神经网络模型把透视图分支网络所输出的透视图的值进行归一化,然后将归一化的值作为权重和神经网络模型的主干网络所生成的人头特征图进行合并,得到新的密度图作为神经网络模型的输出结果。
CN201911197570.3A 2019-11-29 2019-11-29 一种基于多尺度透视感知型网络的人群计数方法 Active CN110991317B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911197570.3A CN110991317B (zh) 2019-11-29 2019-11-29 一种基于多尺度透视感知型网络的人群计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911197570.3A CN110991317B (zh) 2019-11-29 2019-11-29 一种基于多尺度透视感知型网络的人群计数方法

Publications (2)

Publication Number Publication Date
CN110991317A true CN110991317A (zh) 2020-04-10
CN110991317B CN110991317B (zh) 2023-05-16

Family

ID=70088188

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911197570.3A Active CN110991317B (zh) 2019-11-29 2019-11-29 一种基于多尺度透视感知型网络的人群计数方法

Country Status (1)

Country Link
CN (1) CN110991317B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709290A (zh) * 2020-05-18 2020-09-25 杭州电子科技大学 基于编解码-跳跃连接尺度金字塔网络的人群计数方法
CN112115988A (zh) * 2020-09-03 2020-12-22 中国农业大学 一种麦穗计数方法、装置及自行走小车
CN112668537A (zh) * 2021-01-06 2021-04-16 北京理工大学 一种基于多尺度跳跃连接的群体计数方法
CN114897147A (zh) * 2022-05-18 2022-08-12 北京百度网讯科技有限公司 骨干网络的生成方法、装置、设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921822A (zh) * 2018-06-04 2018-11-30 中国科学技术大学 基于卷积神经网络的图像目标计数方法
CN109271960A (zh) * 2018-10-08 2019-01-25 燕山大学 一种基于卷积神经网络的人数统计方法
CN110020606A (zh) * 2019-03-13 2019-07-16 北京工业大学 一种基于多尺度卷积神经网络的人群密度估计方法
CN110210603A (zh) * 2019-06-10 2019-09-06 长沙理工大学 人群的计数模型构建方法、计数方法和装置
CN110490936A (zh) * 2019-07-15 2019-11-22 杭州飞步科技有限公司 车辆摄像头的标定方法、装置、设备及可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921822A (zh) * 2018-06-04 2018-11-30 中国科学技术大学 基于卷积神经网络的图像目标计数方法
CN109271960A (zh) * 2018-10-08 2019-01-25 燕山大学 一种基于卷积神经网络的人数统计方法
CN110020606A (zh) * 2019-03-13 2019-07-16 北京工业大学 一种基于多尺度卷积神经网络的人群密度估计方法
CN110210603A (zh) * 2019-06-10 2019-09-06 长沙理工大学 人群的计数模型构建方法、计数方法和装置
CN110490936A (zh) * 2019-07-15 2019-11-22 杭州飞步科技有限公司 车辆摄像头的标定方法、装置、设备及可读存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709290A (zh) * 2020-05-18 2020-09-25 杭州电子科技大学 基于编解码-跳跃连接尺度金字塔网络的人群计数方法
CN112115988A (zh) * 2020-09-03 2020-12-22 中国农业大学 一种麦穗计数方法、装置及自行走小车
CN112115988B (zh) * 2020-09-03 2024-02-02 中国农业大学 一种麦穗计数方法、装置及自行走小车
CN112668537A (zh) * 2021-01-06 2021-04-16 北京理工大学 一种基于多尺度跳跃连接的群体计数方法
CN114897147A (zh) * 2022-05-18 2022-08-12 北京百度网讯科技有限公司 骨干网络的生成方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN110991317B (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
CN107977932B (zh) 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法
CN110991317A (zh) 一种基于多尺度透视感知型网络的人群计数方法
CN106845621B (zh) 基于深度卷积神经网络的密集人群人数计数方法及系统
CN110287777B (zh) 一种自然场景下的金丝猴躯体分割算法
CN110210551A (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN112396027A (zh) 基于图卷积神经网络的车辆重识别方法
CN107506692A (zh) 一种基于深度学习的密集人群计数与人员分布估计方法
CN112446891A (zh) 基于U-Net网络脑胶质瘤的医学图像分割方法
CN110879982B (zh) 一种人群计数系统及方法
CN104217214A (zh) 基于可配置卷积神经网络的rgb-d人物行为识别方法
CN109846469A (zh) 一种基于卷积神经网络的非接触式心率测量方法
CN111709290B (zh) 基于编解码-跳跃连接尺度金字塔网络的人群计数方法
CN113269787A (zh) 一种基于门控融合的遥感图像语义分割方法
CN114170286B (zh) 一种基于无监督深度学习的单目深度估计方法
CN114758293B (zh) 基于辅助分支优化和局部密度块增强的深度学习人群计数方法
CN112070768A (zh) 基于Anchor-Free的实时实例分割方法
CN113239904B (zh) 基于卷积神经网络的高分辨率密集目标计数方法
CN111047078B (zh) 交通特征预测方法、系统及存储介质
CN111079539A (zh) 一种基于异常追踪的视频异常行为检测方法
CN115424209A (zh) 一种基于空间金字塔注意力网络的人群计数方法
CN105719292A (zh) 利用两层级联的Boosting分类算法实现视频目标跟踪的方法
CN110992414A (zh) 一种基于卷积神经网络的室内单目场景深度估计的方法
CN113782190A (zh) 基于多级时空特征和混合注意力网络的抑郁症诊断方法
CN114519402A (zh) 一种基于神经网络模型的柑橘病虫害检测方法
CN110503014A (zh) 基于多尺度掩码感知回馈卷积神经网络的人数统计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant