Nothing Special   »   [go: up one dir, main page]

CN113902703B - 对象统计模型的训练方法、对象统计方法及装置 - Google Patents

对象统计模型的训练方法、对象统计方法及装置 Download PDF

Info

Publication number
CN113902703B
CN113902703B CN202111173473.8A CN202111173473A CN113902703B CN 113902703 B CN113902703 B CN 113902703B CN 202111173473 A CN202111173473 A CN 202111173473A CN 113902703 B CN113902703 B CN 113902703B
Authority
CN
China
Prior art keywords
image
training
identified
images
inputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111173473.8A
Other languages
English (en)
Other versions
CN113902703A (zh
Inventor
王洪昌
鉴海防
鲁华祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Semiconductors of CAS
Original Assignee
Institute of Semiconductors of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Semiconductors of CAS filed Critical Institute of Semiconductors of CAS
Priority to CN202111173473.8A priority Critical patent/CN113902703B/zh
Publication of CN113902703A publication Critical patent/CN113902703A/zh
Application granted granted Critical
Publication of CN113902703B publication Critical patent/CN113902703B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本公开实施例提供了一种对象统计模型的训练方法、对象统计方法及装置。该训练方法包括:获取训练样本数据集,其中,训练样本数据集中的训练样本包括训练图像以及训练图像的标签数据,其中,训练图像包括多个对象,对象包括动物和/或植物;将训练图像输入深度神经网络模型,输出预测密度图;根据预测密度图和标签数据计算损失函数,得到损失结果;以及根据损失结果迭代地调整深度神经网络模型的网络参数,生成经训练的对象统计模型。

Description

对象统计模型的训练方法、对象统计方法及装置
技术领域
本公开涉实施例涉及计算机技术领域,更具体地,涉及一种对象统计模型的训练方法、对象统计方法、对象统计模型的训练装置、对象统计装置、电子设备、计算机可读存储介质以及计算机程序产品。
背景技术
在生态领域中,不同对象对生活环境的敏感性不同,从而可以根据某一对象的数量对生态环境做出一定的判别。例如鸟类因为其对生活环境的敏感性较强,从而被当作生态环境的指示物种,进而通过对自然保护区中关键区域中鸟类的数量能够反映出整个生态保护区的环境状况,以便及时制定出相应的保护政策。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:人工统计对象数量的方式较为繁琐,人工成本较高。
发明内容
有鉴于此,本公开实施例提供了一种对象统计模型的训练方法、对象统计方法、对象统计模型的训练装置、对象统计装置、电子设备、计算机可读存储介质以及计算机程序产品。
本公开实施例的一个方面提供了一种对象统计模型的训练方法,包括
获取上述训练样本数据集,其中,上述训练样本数据集中的训练样本包括训练图像以及上述训练图像的标签数据,其中,上述训练图像包括多个对象,上述对象包括动物和/或植物;
将上述训练图像输入深度神经网络模型,输出预测密度图;
根据上述预测密度图和上述标签数据计算损失函数,得到损失结果;以及
根据上述损失结果迭代地调整上述深度神经网络模型的网络参数,生成经训练的上述对象统计模型。
根据本公开的实施例,上述深度神经网络模型包括特征提取层、卷积层、多个空洞卷积层、上采样层以及密度生成网络;
其中,上述将上述训练图像输入上述深度神经网络模型,输出预测密度图,包括:
将上述训练样本数据集输入上述特征提取层,输出第一特征图;
将上述第一特征图输入多个上述空洞卷积层,输出第二特征图;
将上述第二特征图输入卷积层,输出第三特征图;
将上述第三特征图输入上述上采样层,输出第四特征图;以及
将上述第四特征图输入上述密度生成网络,输出上述预测密度图。
本公开实施例的另一个方面提供了一种对象统计方法,包括:
获取目标图像,其中,上述目标图像包括多个对象,上述对象包括动物和/或植物;以及
将上述目标图像输入对象统计模型,得到识别结果,其中,上述识别结果包括统计密度图;
其中,上述对象统计模型方法是基于如上所述的方法训练的。
根据本公开的实施例,上述目标图像的数量包括多个;
上述方法还包括:
利用对象统计模型将多个上述密度图合并成密度总图;以及
根据上述密度总图生成统计数据。
根据本公开的实施例,上述对象统计方法还包括:
获取多个拍摄图像,其中,上述拍摄图像包括多个上述对象;
对多个上述拍摄图像进行预处理,得到待识别图像,其中,上述待识别图像为超分辨率图像;以及
对上述待识别图像进行裁剪处理,得到多个上述目标图像。
根据本公开的实施例,上述目标图像的数量为N个,上述目标图像的数量N的计算公式如下所示:
其中,x表征待识别图像的真实长度像素值,y表征待识别图像的真实高度像素值,x0表征预设长度像素值,y0表征预设高度像素值,a表征待识别图像的真实长度像素值除以预设长度像素值并向下取整得到的整数,b表征待识别图像的真实长度像素值除以预设长度像素值并向上取整得到的整数,m表征待识别图像的真实长度像素值除以预设长度像素值所得的余数,λ为预设常数,表征对真实高度像素值进行调整的比例。
根据本公开的实施例,上述对上述待识别图像进行裁剪处理,得到多个上述目标图像,包括:
在上述待识别图像的像素尺寸不满足预设条件的情况下,调整上述待识别图像的像素尺寸,得到调整后的待识别图像;以及
对上述调整后的待识别图像进行裁剪处理,得到多个上述目标图像。
根据本公开的实施例,上述目标图像包括图像编号;
上述对象统计方法还包括:
根据每个上述目标图像的上述图像编号,对多个上述目标图像进行拼接,以生成输出图像。
根据本公开的实施例,上述对多个上述拍摄图像进行预处理,得到待识别图像,包括:
利用统计方法对多个上述拍摄图像进行筛选,以得到筛选后的拍摄图像;以及
对多个上述筛选后的拍摄图像进行拼接,得到上述待识别图像。
根据本公开的实施例,上述动物包括鸟类。
本公开实施例的另一个方面提供了一种对象统计模型的训练装置,包括:
第一获取模块,用于获取上述训练样本数据集,其中,上述训练样本数据集中的训练样本包括训练图像以及上述训练图像的标签数据,其中,上述训练图像包括多个对象,上述对象包括动物和/或植物;
第一输出模块,用于将上述训练图像输入深度神经网络模型,输出预测密度图;
第二输出模块,用于根据上述预测密度图和上述标签数据计算损失函数,得到损失结果;以及
生成模块,用于根据上述损失结果迭代地调整上述深度神经网络模型的网络参数,生成经训练的上述对象统计模型。
本公开实施例的另一个方面提供了一种对象统计装置,包括:
第二获取模块,用于获取目标图像,其中,上述目标图像包括多个对象,上述对象包括动物和/或植物;以及
得到模块,用于将上述目标图像输入对象统计模型,得到识别结果,其中,上述识别结果包括统计密度图;
其中,上述对象统计模型方法是基于如上所述的方法训练的。
本公开实施例的另一个方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上所述的方法。
本公开实施例的另一个方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开实施例的另一个方面提供了一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
根据本公开的实施例,通过对深度神经网络模型进行训练得到对象统计模型,从而可以利用对象统计模型对动物和/或植物的密度进行预测,所以至少部分地克服了人工统计对象数量的方式较为繁琐,人工成本较高的技术问题,进而达到了提高对象的数量统计的便捷性,降低统计成本的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的应用对象统计模型的训练方法或对象统计方法的示例性系统架构;
图2示意性示出了根据本公开实施例的对象统计模型的训练方法的流程图;
图3示意性示出了根据本公开实施例的深度神经网络模型输出预测密度图的方法流程图;
图4示意性示出了根据本公开实施例的对象统计方法的流程图;
图5示意性示出了根据本公开实施例的对象统计方法的方法示意图;
图6示意性示出了根据本公开的实施例的对象统计模型的训练装置的框图;
图7示意性示出了根据本公开的实施例的对象统计装置的框图;以及
图8示意性示出了根据本公开实施例的实现对象统计模型的训练方法或对象统计方法的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
相关技术中通过摄像头对保护区的关键区域进行图像采集,然后通过人工的方式进行图像中对象的计数,例如通过人工方式对图像中鸟类的数量进行统计。然而人工计数的过程繁杂,消耗大量人力和财力。
有鉴于此,发明人发现可以利用包括鸟类等对象的训练样本数据集对深度神经网络模型进行训练,可以得到经训练的对象统计模型,利用该对象统计模型可以实现对鸟类等对象的数量统计,从而可以避免人工统计方式造成的人力和财力的浪费。
本公开的实施例提供了一种对象统计模型的训练方法、对象统计方法、对象统计模型的训练装置、对象统计装置、电子设备、计算机可读存储介质以及计算机程序产品。该方法包括获取训练样本数据集,其中,训练样本数据集中的训练样本包括训练图像以及训练图像的标签数据,其中,训练图像包括多个对象,对象包括动物和/或植物;将训练图像输入深度神经网络模型,输出预测密度图;根据预测密度图和标签数据计算损失函数,得到损失结果;以及根据损失结果迭代地调整深度神经网络模型的网络参数,生成经训练的对象统计模型。
图1示意性示出了根据本公开实施例的可以应用对象统计模型的训练方法或对象统计方法的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送数据等,数据包括训练样本数据集或目标图像。终端设备101、102、103上可以安装有各种客户端应用,例如对象统计应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所传输的数据提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的数据进行分析等处理,并将处理结果(例如根据用户的数据生成的对象统计模型或统计密度图等)反馈给终端设备。
需要说明的是,本公开实施例所提供的对象统计模型的训练方法或对象统计方法一般可以由服务器105执行。相应地,本公开实施例所提供的对象统计模型的训练装置或对象统计装置一般可以设置于服务器105中。本公开实施例所提供的对象统计模型的训练方法或对象统计方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的对象统计模型的训练装置或对象统计装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。或者,本公开实施例所提供的对象统计模型的训练方法或对象统计方法也可以由终端设备101、102、或103执行,或者也可以由不同于终端设备101、102、或103的其他终端设备执行。相应地,本公开实施例所提供的对象统计模型的训练装置或对象统计装置也可以设置于终端设备101、102、或103中,或设置于不同于终端设备101、102、或103的其他终端设备中。
例如,训练样本数据集或目标图像可以原本存储在终端设备101、102、或103中的任意一个(例如,终端设备101,但不限于此)之中,或者存储在外部存储设备上并可以导入到终端设备101中。然后,终端设备101可以在本地执行本公开实施例所提供的对象统计模型的训练方法或对象统计方法,或者将训练样本数据集或目标图像发送到其他终端设备、服务器、或服务器集群,并由接收该训练样本数据集或目标图像的其他终端设备、服务器、或服务器集群来执行本公开实施例所提供的对象统计模型的训练方法或对象统计方法。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的对象统计模型的训练方法的流程图。
如图2所示,该对象统计模型的训练方法可以包括操作S210~S240。
在操作S210,获取训练样本数据集,其中,训练样本数据集中的训练样本包括训练图像以及训练图像的标签数据。训练图像可以包括多个对象,对象可以包括动物和/或植物。
在操作S220,将训练图像输入深度神经网络模型,输出预测密度图。
在操作S230,根据预测密度图和标签数据计算损失函数,得到损失结果。
在操作S240,根据损失结果迭代地调整深度神经网络模型的网络参数,生成经训练的对象统计模型。
根据本公开的实施例,训练图像可以包括由摄像头拍摄的图像。动物可以包括但不限于鱼类、爬行类、鸟类、两栖类或哺乳类等动物。植物可以包括但不限于种子植物、藻类植物、苔藓植物、蕨类植物等。
根据本公开的实施例,对象还可以包括其他物体,如汽车、火车或轮船等物体,或者仓库内的物品等。
根据本公开的实施例,可以采用标注工具对训练图像进行标注,并获取对象在目标图像中的位置坐标,并根据位置坐标生成标签数据。标签数据的文件格式可以包括mat文件。
为了便于对本发明进行描述,以下实施例以鸟类举例说明。
根据本公开的实施例,深度神经网络模型的特征提取部分可以采用深度残差网络(Deep residual network,ResNet),例如,由于样本数据集的背景较为复杂,包含有多种对象的信息,因此可以采用图像识别领域中效果较好的ResNet34网络作为深度神经网络模型的特征提取部分。损失函数可以采用欧几里得距离。
需要说明的是,本实施例的深度神经网络不限于ResNet34网络等深度残差网络,也可以为其他类型的神经网络。本公开实施例不对此进行限制。
根据本公开的实施例,将获取的训练图像输入深度神经网络模型,输出预测密度图,并根据预测密度图和标签数据计算损失函数,根据损失结果迭代地调整深度神经网络模型的网络参数。在损失结果收敛的情况下,可以得到经训练的对象统计模型。
根据本公开的实施例,通过对深度神经网络模型进行训练得到对象统计模型,从而可以利用对象统计模型对动物和/或植物的密度进行预测,所以至少部分地克服了人工统计对象数量的方式较为繁琐,人工成本较高的技术问题,进而达到了提高对象的数量统计的便捷性,降低统计成本的技术效果。
根据本公开的实施例,深度神经网络模型可以包括特征提取层、卷积层、多个空洞卷积层、上采样层以及密度生成网络。
根据本公开的实施例,密度图可以用来表示鸟类数量和分布情况的图。密度图生成网络可以指使用卷积神经网络搭建的用于生成密度图的算法结构。
根据本公开的实施例,ResNet34网络的特征提取层作为深度神经网络模型的特征提取部分,为了与密度生成网络衔接,可以将ResNet34网络的全连接层去掉。
根据本公开的实施例,ResNet34网络在训练之前已经基于千万级数据集(如imagenet数据集)进行了预训练,因此ResNet34网络的权重中包含丰富的目标特征信息,从而使用ResNet34网络作为特征提取部分,可以有效加快深度神经网络模型训练的收敛速度。
图3示意性示出了根据本公开实施例的深度神经网络模型输出预测密度图的方法流程图。
如图3所示,将训练图像输入深度神经网络模型,输出预测密度图,可以包括操作S310~操作S350。
在操作S310,将训练样本数据集输入特征提取层,输出第一特征图。
在操作S320,将第一特征图输入多个空洞卷积层,输出第二特征图。
在操作S330,将第二特征图输入卷积层,输出第三特征图。
在操作S340,将第三特征图输入上采样层,输出第四特征图。
在操作S350,将第四特征图输入密度生成网络,输出预测密度图。
根据本公开的实施例,ResNet34网络的特征提取层输出的第一特征图的尺寸可以为128×96,尺寸的单位为像素。以下实施例中的尺寸单位均为像素,不再进行单独描述。
根据本公开的实施例,由于训练图像中鸟类的个体较小,并且个体遮挡情况较为普遍,因此需要更加丰富、完整的局部特征信息来辅助生成特征图。本实施例通过将第一特征图输入多个空洞卷积层以进行空洞计算,可以增大卷积运算的感受野,实现了在不做卷积网络的特征提取的前提下让每个空洞卷积层输出的特征图均包含较大范围的信息。此外为了尽可能保留训练图像中鸟类的特征信息,在本实施例中的深度神经网络模型不使用池化层。
根据本公开的实施例,为了减少标签数据误差对对象统计模型的训练造成的影响,可以在密度生成网络之前,将第三特征图输入密度生成网络以进行上采样操作,上采样层输出的第四特征图的尺寸可以为256×192。
图4示意性示出了根据本公开实施例的对象统计方法的流程图。
图5示意性示出了根据本公开实施例的对象统计方法的方法示意图。
如图4和图5所示,该对象统计方法可以包括操作S410~操作S420。
在操作S410,获取目标图像,其中,目标图像包括多个对象,对象包括动物和/或植物.
在操作S420,将目标图像输入对象统计模型,得到识别结果,其中,识别结果包括统计密度图。对象统计模型方法是基于如上所述的方法训练的。
根据本公开的实施例,动物可以包括鸟类。
根据本公开的实施例,通过利用经训练的对象统计模型对目标图像中的对象进行识别,可以得到关于该对象的统计密度图,从而可以判断该目标图像中对象的聚集程度。
根据本公开的实施例,通过对深度神经网络模型进行训练得到对象统计模型,从而可以利用对象统计模型对动物和/或植物的密度进行预测,所以至少部分地克服了人工统计对象数量的方式较为繁琐,人工成本较高的技术问题,进而达到了提高对象的数量统计的便捷性,降低统计成本的技术效果。
根据本公开的实施例,目标图像的数量包括多个。
如图5所示,对象统计方法还可以包括如下操作。
利用对象统计模型将多个密度图合并成密度总图。根据密度总图生成统计数据。
根据本公开的实施例,为了更加便于了解多个目标图像中鸟类的总数量,可以利用密度图拼接模块根据每个目标图像生成的密度图进行合并,得到一个密度总图,对该密度总图进行积分即可得到多个目标图像中鸟类的总数量。
根据本公开的实施例,通过对密度图积分计算鸟类数量的方式能够降低人工统计对象数量的繁琐性,方便快捷且成本较低。
如图5所示,对象统计方法还可以包括如下操作。
获取多个拍摄图像,其中,拍摄图像包括多个对象。对多个拍摄图像进行预处理,得到待识别图像。待识别图像为超分辨率图像。对待识别图像进行裁剪处理,得到多个目标图像。
根据本公开的实施例,拍摄图像可以包括由摄像头摄录的视频中的多帧图像。拍摄图像可以为三通道的RGB图像。
根据本公开的实施例,由于摄像头的视角有限,为了确保采集的视频中图像帧足够清晰,需要以一定速度转动摄像头以获取包含需要进行鸟类计数的全局场景范围的视频。由于多帧拍摄图像中可能存在交叉重叠的无效图像,因此可以对多帧拍摄图像进行筛选等预处理,以便得到能够表征完整拼接出待计数的全局场景的拍摄图像。
根据本公开的实施例,对筛选得到的多个拍摄图像进行拼接,得到全局大视角场景下的超分辨率图像,其中,超分辨率图像可以包括尺寸大于或等于30720×1080。根据得到的超分辨率图像进行裁剪,可以得到多个尺寸为1024×768的目标图像。
需要说明的是,在本公开的实施例以及下文中所涉及的30720×1080或1024×768等像素值并非为了限制本公开的范围,其只是为了说明本申请的技术方案所举的示例,其具体数值可以根据需求具体设定。
如图5所示,对待识别图像进行裁剪处理,得到多个目标图像,可以包括如下操作。
在待识别图像的像素尺寸不满足预设条件的情况下,调整待识别图像的像素尺寸,得到调整后的待识别图像。对调整后的待识别图像进行裁剪处理,得到多个目标图像。
根据本公开的实施例,预设条件可以包括长度像素为N×1024,宽度像素为768,其中,N为大于或等于1的正整数。
根据本公开的实施例,在待识别图像的像素尺寸不满足预设条件的情况下,需要对该待识别图像的像素进行调整,其中,可以利用像素操作算法进行调整,像素操作算法包括但不限于Resize算法。
根据本公开的实施例,通过对调整后的待识别图像进行裁剪,可以得到N个1024×768的目标图像。
根据本公开的实施例,目标图像的数量为N个,目标图像的数量N的计算公式如下所示:
其中,x表征待识别图像的真实长度像素值,y表征待识别图像的真实高度像素值,x0表征预设长度像素值,y0表征预设高度像素值,a表征待识别图像的真实长度像素值除以预设长度像素值并向下取整得到的整数,b表征待识别图像的真实长度像素值除以预设长度像素值并向上取整得到的整数,m表征待识别图像的真实长度像素值除以预设长度像素值所得的余数,λ为预设常数,表征对真实高度像素值进行调整的比例。
根据本公开的实施例,预设长度像素值可以为1024,预设高度像素值可以为768。
根据本公开的实施例,在进行调整之前,需要确定目标图像的数量N,根据目标图像的数量N确定调整的比例。例如,通过公式可以确定待识别图像可以裁剪为4.5个目标图像,根据四舍五入的原则确定最终目标图像的数量为5个,则可以将待识别图像的尺寸调整为(5×1024)×768。
根据本公开的实施例,目标图像包括图像编号。
上述对象统计方法还可以包括如下操作。
根据每个目标图像的图像编号,对多个目标图像进行拼接,以生成输出图像。
根据本公开的实施例,目标图像的图像编号可以在待识别图像的裁剪过程中进行编号,例如,目标图像的编号可以按照如下命名方式进行编号:“原始图像名字_xx.jpg”。
根据本公开的实施例,在输出密度图的同时,可以输出该输出图像,该输出图像中与每个目标图像对应的区域输出包括该目标图像的密度图和计数数据。也可以在输出图像的其他区域输出该待识别图像的密度总图和统计数据。其中,该计数数据可以根据每个目标图像的密度图进行积分生成。
根据本公开的实施例,对多个拍摄图像进行预处理,得到待识别图像,可以包括如下操作。
利用统计方法对多个拍摄图像进行筛选,以得到筛选后的拍摄图像。
对多个筛选后的拍摄图像进行拼接,得到待识别图像。
根据本公开的实施例,在摄像头环绕转动的角度和转动速度确定的情况下,可以通过统计方法确定出摄像头摄录的视频中能够完整拼接出待计数全局场景的待识别图像的帧数,设计视频关键帧抽帧方法获取视频中的有效帧,并利用图像拼接模块将多个有效帧拼接为超分辨率的待识别图像。
例如,通过确定需要确定拍摄图像中的对象哪一个为需要统计的对象,在确定统计的对象后,确定该对象的特征,根据该特征在多个拍摄图像中进行统计,然而由于多个拍摄图像中存在区域交叉的情况,根据统计的结果判断哪个拍摄图像为无效帧,从而确定出能够表征待计数全局场景的待识别图像的有效帧。
图6示意性示出了根据本公开的实施例的对象统计模型的训练装置的框图。
如图6所示,对象统计模型的训练装置600可以包括第一获取模块610、第一输出模块620、第二输出模块630和生成模块640。
第一获取模块610用于获取训练样本数据集,其中,训练样本数据集中的训练样本包括训练图像以及训练图像的标签数据,其中,训练图像包括多个对象,对象包括动物和/或植物。
第一输出模块620用于将训练图像输入深度神经网络模型,输出预测密度图。
第二输出模块630用于根据预测密度图和标签数据计算损失函数,得到损失结果。
生成模块640用于根据损失结果迭代地调整深度神经网络模型的网络参数,生成经训练的对象统计模型。
根据本公开的实施例,通过对深度神经网络模型进行训练得到对象统计模型,从而可以利用对象统计模型对动物和/或植物的密度进行预测,所以至少部分地克服了人工统计对象数量的方式较为繁琐,人工成本较高的技术问题,进而达到了提高对象的数量统计的便捷性,降低统计成本的技术效果。
根据本公开的实施例,深度神经网络模型可以包括特征提取层、卷积层、多个空洞卷积层、上采样层以及密度生成网络。
根据本公开的实施例,第一输出模块620可以包括第一输出单元、第二输出单元、第三输出单元、第四输出单元和第五输出单元。
第一输出单元用于将训练样本数据集输入特征提取层,输出第一特征图。
第二输出单元用于将第一特征图输入多个空洞卷积层,输出第二特征图。
第三输出单元用于将第二特征图输入卷积层,输出第三特征图。
第四输出单元用于将第三特征图输入上采样层,输出第四特征图。
第五输出单元用于将第四特征图输入密度生成网络,输出预测密度图。
图7示意性示出了根据本公开的实施例的对象统计装置的框图。
如图7所示,对象统计装置700可以包括第二获取模块710和得到模块720。
第二获取模块710用于获取目标图像,其中,目标图像包括多个对象,对象包括动物和/或植物。
得到模块720用于将目标图像输入对象统计模型,得到识别结果,其中,识别结果包括统计密度图。
其中,对象统计模型方法是基于如上所述的方法训练的。
根据本公开的实施例,通过对深度神经网络模型进行训练得到对象统计模型,从而可以利用对象统计模型对动物和/或植物的密度进行预测,所以至少部分地克服了人工统计对象数量的方式较为繁琐,人工成本较高的技术问题,进而达到了提高对象的数量统计的便捷性,降低统计成本的技术效果。
根据本公开的实施例,目标图像的数量可以包括多个。
根据本公开的实施例,对象统计装置700还可以包括合并模块和生成模块。
合并模块用于利用对象统计模型将多个密度图合并成密度总图。
生成模块用于根据密度总图生成统计数据。
根据本公开的实施例,对象统计装置700还可以包括第三获取模块、预处理模块和裁剪模块。
第三获取模块用于获取多个拍摄图像,其中,拍摄图像包括多个对象。
预处理模块用于对多个拍摄图像进行预处理,得到待识别图像,其中,待识别图像为超分辨率图像。
裁剪模块用于对待识别图像进行裁剪处理,得到多个目标图像。
根据本公开的实施例,目标图像的数量可以为N个,目标图像的数量N的计算公式如下所示:
其中,x表征待识别图像的真实长度像素值,y表征待识别图像的真实高度像素值,x0表征预设长度像素值,y0表征预设高度像素值,a表征待识别图像的真实长度像素值除以预设长度像素值并向下取整得到的整数,b表征待识别图像的真实长度像素值除以预设长度像素值并向上取整得到的整数,m表征待识别图像的真实长度像素值除以预设长度像素值所得的余数,λ为预设常数,表征对真实高度像素值进行调整的比例。
根据本公开的实施例,裁剪模块可以包括调整单元和裁剪单元。
调整单元用于在待识别图像的像素尺寸不满足预设条件的情况下,调整待识别图像的像素尺寸,得到调整后的待识别图像。
裁剪单元用于对调整后的待识别图像进行裁剪处理,得到多个目标图像。
根据本公开的实施例,目标图像可以包括图像编号。
根据本公开的实施例,对象统计装置700还可以包括拼接模块。
拼接模块用于根据每个目标图像的图像编号,对多个目标图像进行拼接,以生成输出图像。
根据本公开的实施例,预处理模块可以包括筛选单元和拼接单元。
筛选单元,用于利用统计方法对多个拍摄图像进行筛选,以得到筛选后的拍摄图像。
拼接单元,用于对多个筛选后的拍摄图像进行拼接,得到待识别图像。
根据本公开的实施例,动物可以包括鸟类。
根据本公开的实施例的模块、单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(Field Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Arrays,PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(Application Specific Integrated Circuit,ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,第一获取模块610、第一输出模块620、第二输出模块630和生成模块640,或,第二获取模块710和得到模块720中的任意多个可以合并在一个模块/单元中实现,或者其中的任意一个模块/单元可以被拆分成多个模块/单元。或者,这些模块/单元中的一个或多个模块/单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元中实现。根据本公开的实施例,第一获取模块610、第一输出模块620、第二输出模块630和生成模块640,或,第二获取模块710和得到模块720中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获取模块610、第一输出模块620、第二输出模块630和生成模块640,或,第二获取模块710和得到模块720中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
需要说明的是,本公开的实施例中对象统计模型的训练装置部分与本公开的实施例中对象统计模型的训练方法部分是相对应的,对象统计模型的训练装置部分的描述具体参考对象统计模型的训练方法部分,以及本公开的实施例中对象统计装置部分与本公开的实施例中对象统计方法部分是相对应的,对象统计装置部分的描述具体参考对象统计方法部分,在此不再赘述。
图8示意性示出了根据本公开实施例的适于实现上文描述的方法的电子设备的框图。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,根据本公开实施例的电子设备800包括处理器801,其可以根据存储在只读存储器(Read-Only Memory,ROM)802中的程序或者从存储部分808加载到随机访问存储器(Random Access Memory,RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 803中,存储有电子设备800操作所需的各种程序和数据。处理器801、ROM802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备800还可以包括输入/输出(I/O)接口805,输入/输出(I/O)接口805也连接至总线804。系统800还可以包括连接至I/O接口805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
对象统计模型的使用可以采用并行推理方式。例如一个模型权重大小为980MB,对象统计过程所占用的处理器801空间大约为1200MB,某一处理器801并行统计的图像数量为9,为了保证处理器801空间的余量,设计并行统计的线程数量为8,从而获得目标图像对应的密度图和计数数据。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM(Erasable Programmable Read Only Memory,EPROM)或闪存)、便携式紧凑磁盘只读存储器(Computer Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的对象统计模型的训练方法或对象统计方法。
在该计算机程序被处理器801执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分809被下载和安装,和/或从可拆卸介质811被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (14)

1.一种对象统计模型的训练方法,包括
获取训练样本数据集,其中,所述训练样本数据集中的训练样本包括训练图像以及所述训练图像的标签数据,其中,所述训练图像包括多个对象,所述对象包括动物和/或植物;
将所述训练图像输入深度神经网络模型,输出预测密度图;
根据所述预测密度图和所述标签数据计算损失函数,得到损失结果;以及
根据所述损失结果迭代地调整所述深度神经网络模型的网络参数,生成经训练的所述对象统计模型;
其中,所述深度神经网络模型包括特征提取层、卷积层、多个空洞卷积层、上采样层以及密度生成网络,所述深度神经网络模型不使用池化层以保留训练图像中对象的特征信息;
其中,所述将所述训练图像输入所述深度神经网络模型,输出预测密度图,包括:
将所述训练样本数据集输入所述特征提取层,输出第一特征图;
将所述第一特征图输入多个所述空洞卷积层进行空洞计算,以增大卷积运算的感受野,从而输出第二特征图;
将所述第二特征图输入卷积层,输出第三特征图;
将所述第三特征图输入所述上采样层,输出第四特征图;以及
将所述第四特征图输入所述密度生成网络,输出所述预测密度图。
2.一种对象统计方法,包括:
获取目标图像,其中,所述目标图像包括多个对象,所述对象包括动物和/或植物;以及
将所述目标图像输入对象统计模型,得到识别结果,其中,所述识别结果包括统计密度图;
其中,所述对象统计模型方法是基于如权利要求1所述的方法训练的。
3.根据权利要求2所述的方法,其中,所述目标图像的数量包括多个;
所述方法还包括:
利用对象统计模型将多个所述密度图合并成密度总图;以及
根据所述密度总图生成统计数据。
4.根据权利要求2所述的方法,还包括:
获取多个拍摄图像,其中,所述拍摄图像包括多个所述对象;
对多个所述拍摄图像进行预处理,得到待识别图像,其中,所述待识别图像为超分辨率图像;以及
对所述待识别图像进行裁剪处理,得到多个所述目标图像。
5.根据权利要求4所述的方法,其中,所述目标图像的数量为N个,所述目标图像的数量N的计算公式如下所示:
其中,x表征待识别图像的真实长度像素值,y表征待识别图像的真实高度像素值,表征预设长度像素值,表征预设高度像素值,a表征待识别图像的真实长度像素值除以预设长度像素值并向下取整得到的整数,b表征待识别图像的真实长度像素值除以预设长度像素值并向上取整得到的整数,m表征待识别图像的真实长度像素值除以预设长度像素值所得的余数,𝜆为预设常数,表征对真实高度像素值进行调整的比例。
6.根据权利要求4所述的方法,其中,所述对所述待识别图像进行裁剪处理,得到多个所述目标图像,包括:
在所述待识别图像的像素尺寸不满足预设条件的情况下,调整所述待识别图像的像素尺寸,得到调整后的待识别图像;以及
对所述调整后的待识别图像进行裁剪处理,得到多个所述目标图像。
7.根据权利要求4所述的方法,其中,所述目标图像包括图像编号;
所述方法还包括:
根据每个所述目标图像的所述图像编号,对多个所述目标图像进行拼接,以生成输出图像。
8.根据权利要求4所述的方法,其中,所述对多个所述拍摄图像进行预处理,得到待识别图像,包括:
利用统计方法对多个所述拍摄图像进行筛选,以得到筛选后的拍摄图像;以及
对多个所述筛选后的拍摄图像进行拼接,得到所述待识别图像。
9.根据权利要求2~8中任一项所述的方法,其中,所述动物包括鸟类。
10.一种对象统计模型的训练装置,包括:
第一获取模块,用于获取训练样本数据集,其中,所述训练样本数据集中的训练样本包括训练图像以及所述训练图像的标签数据,其中,所述训练图像包括多个对象,所述对象包括动物和/或植物;
第一输出模块,用于将所述训练图像输入深度神经网络模型,输出预测密度图;
第二输出模块,用于根据所述预测密度图和所述标签数据计算损失函数,得到损失结果;以及
生成模块,用于根据所述损失结果迭代地调整所述深度神经网络模型的网络参数,生成经训练的所述对象统计模型;
其中,深度神经网络模型可以包括特征提取层、卷积层、多个空洞卷积层、上采样层以及密度生成网络;
其中,第一输出模块包括:
第一输出单元,用于将训练样本数据集输入特征提取层,输出第一特征图;
第二输出单元,用于将第一特征图输入多个空洞卷积层进行空洞计算,以增大卷积运算的感受野,从而输出第二特征图;
第三输出单元,用于将第二特征图输入卷积层,输出第三特征图;
第四输出单元,用于将第三特征图输入上采样层,输出第四特征图;
第五输出单元,用于将第四特征图输入密度生成网络,输出预测密度图。
11.一种对象统计装置,包括:
第二获取模块,用于获取目标图像,其中,所述目标图像包括多个对象,所述对象包括动物和/或植物;以及
得到模块,用于将所述目标图像输入对象统计模型,得到识别结果,其中,所述识别结果包括统计密度图;
其中,所述对象统计模型方法是基于如权利要求1所述的方法训练的。
12.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1或2~9中任一项所述的方法。
13.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1或2~9中任一项所述的方法。
14.一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时用于实现权利要求1或2~9中任一项所述的方法。
CN202111173473.8A 2021-10-08 2021-10-08 对象统计模型的训练方法、对象统计方法及装置 Active CN113902703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111173473.8A CN113902703B (zh) 2021-10-08 2021-10-08 对象统计模型的训练方法、对象统计方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111173473.8A CN113902703B (zh) 2021-10-08 2021-10-08 对象统计模型的训练方法、对象统计方法及装置

Publications (2)

Publication Number Publication Date
CN113902703A CN113902703A (zh) 2022-01-07
CN113902703B true CN113902703B (zh) 2024-11-01

Family

ID=79190773

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111173473.8A Active CN113902703B (zh) 2021-10-08 2021-10-08 对象统计模型的训练方法、对象统计方法及装置

Country Status (1)

Country Link
CN (1) CN113902703B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111639668A (zh) * 2020-04-17 2020-09-08 北京品恩科技股份有限公司 一种基于深度学习的人群密度检测方法
CN112862023A (zh) * 2021-04-26 2021-05-28 腾讯科技(深圳)有限公司 对象密度确定方法、装置、计算机设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108776787B (zh) * 2018-06-04 2020-09-29 京东数字科技控股有限公司 图像处理方法及装置、电子设备、存储介质
CN109858461B (zh) * 2019-02-21 2023-06-16 苏州大学 一种密集人群计数的方法、装置、设备以及存储介质
CN110688928A (zh) * 2019-09-20 2020-01-14 北京海益同展信息科技有限公司 模型训练方法、装置、电子设备及计算机可读存储介质
CN112183627B (zh) * 2020-09-28 2024-07-19 中星技术股份有限公司 生成预测密度图网络的方法和车辆年检标数量检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111639668A (zh) * 2020-04-17 2020-09-08 北京品恩科技股份有限公司 一种基于深度学习的人群密度检测方法
CN112862023A (zh) * 2021-04-26 2021-05-28 腾讯科技(深圳)有限公司 对象密度确定方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN113902703A (zh) 2022-01-07

Similar Documents

Publication Publication Date Title
Li et al. Benchmarking single-image dehazing and beyond
US10943145B2 (en) Image processing methods and apparatus, and electronic devices
AU2021354030B2 (en) Processing images using self-attention based neural networks
CN113887447B (zh) 一种针对密集群体目标的密度估计、分类预测模型的训练、推理方法及装置
US11694331B2 (en) Capture and storage of magnified images
CN113569740B (zh) 视频识别模型训练方法与装置、视频识别方法与装置
US20220172066A1 (en) End-to-end training of neural networks for image processing
CN113781493A (zh) 图像处理方法、装置、电子设备、介质及计算机程序产品
CN112329762A (zh) 图像处理方法、模型训练方法、装置、计算机设备和介质
CN114511661A (zh) 图像渲染方法、装置、电子设备及存储介质
CN111209856B (zh) 发票信息的识别方法、装置、电子设备及存储介质
CN116805365A (zh) 一种高精度的工地落石检测方法及装置
CN113688839B (zh) 视频处理方法及装置、电子设备、计算机可读存储介质
CN113762266B (zh) 目标检测方法、装置、电子设备和计算机可读介质
CN113569081A (zh) 图像识别方法、装置、设备及存储介质
CN113902703B (zh) 对象统计模型的训练方法、对象统计方法及装置
CN116309612B (zh) 基于频率解耦监督的半导体硅晶圆检测方法、装置及介质
CN112329550A (zh) 基于弱监督学习的受灾建筑快速定位评估方法及装置
CN114881763B (zh) 养殖业贷后监管方法、装置、设备和介质
CN116468970A (zh) 模型训练方法、图像处理方法、装置、设备及介质
CN116434218A (zh) 适用于移动端的支票识别方法、装置、设备和介质
CN115393423A (zh) 目标检测方法和装置
CN117408907B (zh) 提高图像对抗防御能力的方法、装置及电子设备
Cong et al. Salient man-made object detection based on saliency potential energy for unmanned aerial vehicles remote sensing image
Sundhar et al. Identifying Highly Vulnerable Mosquito Breeding Sites Using Machine Learning and Drone Based Aerial Survey

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant