CN114743257A - 图像目标行为的检测识别方法 - Google Patents
图像目标行为的检测识别方法 Download PDFInfo
- Publication number
- CN114743257A CN114743257A CN202210075872.9A CN202210075872A CN114743257A CN 114743257 A CN114743257 A CN 114743257A CN 202210075872 A CN202210075872 A CN 202210075872A CN 114743257 A CN114743257 A CN 114743257A
- Authority
- CN
- China
- Prior art keywords
- target
- data
- image
- training
- target behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006399 behavior Effects 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000001514 detection method Methods 0.000 claims abstract description 86
- 238000012549 training Methods 0.000 claims abstract description 54
- 238000005516 engineering process Methods 0.000 claims abstract description 31
- 238000013135 deep learning Methods 0.000 claims abstract description 24
- 238000004458 analytical method Methods 0.000 claims abstract description 23
- 238000012360 testing method Methods 0.000 claims abstract description 23
- 238000012795 verification Methods 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims abstract description 5
- 230000003213 activating effect Effects 0.000 claims abstract description 4
- 238000012544 monitoring process Methods 0.000 claims abstract description 4
- 238000010606 normalization Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000004140 cleaning Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000013434 data augmentation Methods 0.000 claims description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 2
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims 2
- 230000008447 perception Effects 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开的一种图像目标行为的检测识别方法,可以提高基于图像检测识别的目标行为的准确性与鲁棒性。本发明通过下述技术方案实现:利用滑动窗口对图像特征进行局部感知,获取目标行为数据集,对目标行为数据集所划分的训练集中数据进行数据增强,对训练集数据进行模型训练,得到目标行为检测分析模型,构建用于目标行为检测分析模型的训练集、验证集与测试集;随机抽取其中的80%作为训练样本,利用深度学习技术训练目标行为检测模型,激活深度学习网络对目标行为检测模型进行训练;基于度量学习的小样本学习技术,对目标检测模型进行优化;基于监控视频所捕捉视频信息的目标行为检测,对检测结果进行可视化输出,完成目标行为检测工作。
Description
技术领域
本发明属于目标检测技术,涉及一种基于视频的目标行为的检测分析识别技术,尤其是图像目标行为的检测识别方法。
背景技术
图像是现代化社会存储目标行为信息的主要形式之一,能够表示非结构化数据并记录真实世界场景中目标的具体行为动作,因而蕴含大量的信息。存储目标行为的图像在生活中的多种场景中随处可见,如图像采集设备所拍摄图像,多种摄像头所记录的视频图像等。这是一个数据量极大膨胀的时代,根据统计,2020年Facebook每日将产生4PB的图像数据,包括平均35亿张图片与10亿条视频。图像是客观景物在人脑中形成的影像,是人类最重要的信息源,它是通过各种观测系统从客观世界中获得,具有直观性和易理解性。图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等,在这些应用中,都离不开图像处理和识别技术。图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。随着图像数据量的极具增长,从图像中获得有效信息,分析图像所储存的目标行为信息的工作变得日益繁重,带来了巨大的人工成本,且人工分析目标行为很大程度上受到个人因素影响,出错率较高,因而利用计算机技术对图像中的目标行为信息进行处理分析的需求变得越来越普遍。利用计算机对目标行为进行检测分析具有如下优点:(1)能够减少人工分析成本,减轻工作负担,加快处理速度,提高经济效应。(2)一个性能优异的目标行为检测模型能够避免多数人为造成的错误。(3)可以利用计算机对数字化图像做更加深入的信息挖掘,获取更多的信息。图像目标识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别。前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。图像识别技术对图像中个性特征进行提取时,可以采用模板匹配模型。在某些具体的应用中,图像识别除了要给出被识别对象是什么物体外,还需要给出物体所处的位置和姿态以引导计算初工作。目前,图像识别技术已广泛应用于多个领域,如生物医学、卫星遥感、机器人视觉、货物检测、目标跟踪、自主车导航、公安、银行、交通、军事、电子商务和多媒体网络通信等。随着技术的发展,出现了基于机器视觉的目标识别、基于深度学习的目标识别等,大大提高了图像识别的准确度和识别效率。深度学习技术被应用到计算机视觉领域以后取得了一系列显著的成果。基于深度学习的目标检测方法采用的都是深度卷积神经网络DCNN。当采用DCNN模型对小目标进行检测时,在一定尺度内对图像进行插值放大,可以提高小目标的检测精度。对于多尺度目标的检测,传统手段是利用图像金字塔,但是对于深度网络模型,图像金字塔会导致过多无效的运算。空间金字塔网络是处理多尺度比较直接有效的手段,但存在训练过程复杂且模型需要分阶段优化的问题。通过使用目标的原始特征表示,来决定使用那一层的ROI特征,以此来避免使用特征金字塔,然后将兴趣区域裁剪后放大为新的图像来进行识别,这种方法也存在难以进行端到端训练的不足。
目前对于基于图像检测识别分析目标行为这个问题,典型的方法如下:
基于深度学习的方法。首先对图像采集设备所得到的图像数据集,在对数据集进行数据划分、数据清洗与数据标注后,将数据集投入深度学习网络进行模型训练,最后对模型的效果进行测试与调优。这类方法的缺点在于需要人工收集大量的数据辅助指导模型的训练过程,但是在真实场景中,目标行为动作的样本数据量可能很小,因此会影响模型检测识别的准确性与鲁棒性,造成检测效果不佳。
发明内容
本发明针对现有技术中的上述不足,提供的一种图像目标行为的检测识别方法,基于度量学习的小样本学习目标行为检测分析方法,以解决在真实场景中目标行为检测分析时样本数据量有限的问题,提高基于图像检测识别的目标行为分析的准确性与鲁棒性。
为了达到以上目的,本发明采用的技术方案为:一种图像目标行为的检测识别方法,其特征在于包括如下步骤:
利用图像采集设备获取真实场景中包含了若干类别目标动作行为图片的数据集,用数字或者符号表示图像或景物中各个目标的相关特征,用图像识别技术对图像中个性特征进行提取,从复杂的图像信息中提取有用的图像特征,基于深度学习的目标检测模型根据统计特征分为矩特征、轮廓特征及纹理特征,利用滑动窗口对图像特征进行局部感知,获取目标行为数据集,应用数据预处理技术对所采集数据集进行数据清洗,剔除无效数据,并进行数据划分与批量数据标注工作,对目标行为数据集所划分的训练集中数据进行数据增强,对训练集数据进行模型训练,得到目标行为检测分析模型,构建用于目标行为检测分析模型的训练集、验证集与测试集,将非结构化的图片信息以结构化方式进行再存储;随机抽取其中的80%作为训练样本,其余作为测试样本,利用深度学习技术训练目标行为检测模型,激活深度学习网络对目标行为检测模型进行训练;基于度量学习的小样本学习技术,对目标检测模型进行优化;基于监控视频所捕捉视频信息的目标行为检测,对检测结果进行可视化输出,完成目标行为检测工作。
本发明相比于现有技术具有如下有益效果:
本发明利用图像采集设备获取真实场景中包含若干类别目标动作行为图片的数据集,通过获取存储目标行为的图像;基于深度学习技术实现目标行为检测分析模型;通过基于度量学习的小样本学习技术,完成对目标行为检测分析模型的优化工作,以解决真实场景中目标行为样本数据量不足的挑战。相对于过去方法,本发明的目标行为检测分析模型仅需要极少数目标行为样本并兼具很高的准确性与很强的鲁棒性,能够满足检测真实场景中目标行为的需求。
本发明应用数据预处理技术对所采集数据集进行数据清洗、数据划分与批量数据标注工作。获取真实场景中目标行为数据有利于真实还原现实世界场景,使模型能够适应所应用环境,对数据集进行批量数据标注可以构建用于目标行为检测分析模型的训练集、验证集与测试集,将非结构化的图片信息以结构化方式进行再存储。提高模型准确性。对所获取的数据进行数据预处理有利于保留有效数据,剔除无效数据,提升训练速度并有效去除干扰。
本发明对目标行为数据集所划分的训练集中数据进行数据增强,基于训练集数据进行模型训练,得到目标行为检测分析模型,对训练集进行数据增强可以补充训练数据,有效增强模型泛化能力,同时增加噪声数据,提升模型的鲁棒性。相较于传统目标检测方法,基于深度学习的目标行为检测分析模型具有更好的预测精度与检测速度,更利于满足真实场景中高精度与实时性的检测需求。
本发明基于度量学习的小样本学习技术优化目标行为检测模型,并应用基于度量学习的小样本学习技术,匹配网络支撑集和查询集采用两种不同的特征提取器,分类结果由查询图像与支撑集所有样本的预测值的加权得到,以提高模型的学习速度。应用小样本学习技术以解决真实场景中目标行为样本数量有限的问题,
本发明面向真实开放场景,对视频采集设备所捕获的图像数据中目标的行为进行检测分析,通过获取存储目标行为的图像;基于深度学习技术实现目标行为检测分析模型,能够有效节省人工审核的成本,对真实场景中多种目标行为进行检测分析;通过基于度量学习的小样本学习技术,通过测量空间的原始数据通过变换获得在特征空间最能反映分类本质的特征,图象的平滑,变换,增强,恢复,滤波等,提升模型的泛化性与鲁棒性,完成对目标行为检测分析模型的优化工作,并应用小样本学习技术解决目标行为有限问题,能够解决真实场景中目标行为样本数据量有限造成的模型泛化性能降低的问题,有效提高了多尺度目标的提议召回率和检测精度。
附图说明
图1为本发明图像目标行为的检测识别流程图。
图2是本发明基于深度学习网络训练目标行为检测模型的示意图。
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
具体实施方式
参阅图1。根据本发明,其特征在于包括如下步骤:
利用图像采集设备获取真实场景中包含了若干类别目标动作行为图片的数据集,用数字或者符号表示图像或景物中各个目标的相关特征,用图像识别技术对图像中个性特征进行提取,从复杂的图像信息中提取有用的图像特征,基于深度学习的目标检测模型根据统计特征分为矩特征、轮廓特征及纹理特征,利用滑动窗口对图像特征进行局部感知,获取目标行为数据集,应用数据预处理技术对所采集数据集进行数据清洗,剔除无效数据,并进行数据划分与批量数据标注工作,对目标行为数据集所划分的训练集中数据进行数据增强,对训练集数据进行模型训练,得到目标行为检测分析模型,构建用于目标行为检测分析模型的训练集、验证集与测试集,将非结构化的图片信息以结构化方式进行再存储;随机抽取其中的80%作为训练样本,其余作为测试样本,利用深度学习技术训练目标行为检测模型,激活深度学习网络对目标行为检测模型进行训练;基于度量学习的小样本学习技术,对目标检测模型进行优化;基于监控视频所捕捉视频信息的目标行为检测,用小样本学习技术优化目标行为检测模型;对检测结果进行可视化输出,完成目标行为检测工作。
采用工业1080p摄像头拍摄图片,获得目标行为数据集,在完成数据采集后对数据集进行必要的数据清洗与数据划分,并对所采集数据集中目标行为进行数据标注工作,计算和统计图像局部区域的梯度方向直方图来构成特征计算和图像每个像素的梯度,每个像素位置的梯度方向值,将图像分成小的连通区域,为每个细胞单元构建梯度方向直方图,对每个像素用梯度方向在直方图中进行加权投影,映射到固定的角度范围,把细胞单元组合成大的块(block),块内归一化梯度直方图,然后采集细胞单元中各像素点的梯度的或边缘的方向直方图。最后把这些直方图组合起来构成特征描述器。特征描述器把这些局部直方图在图像的更大的范围内,计算各直方图在这个区间(block)中的密度,然后根据这个密度对区间中的各个细胞单元做归一化,区间或block进行对比度归一化,在粗的空域抽样、精细的方向抽样以及较强的局部光学归一化,通过这个归一化后,能对光照变化和阴影获得更好的效果;最后将检测窗口中所有重叠的块进行HOG特征的收集,并将它们结合成最终的特征向量供分类使用。
在可选的实施例中,基于深度学习的目标行为检测模型训练,对作为训练集的目标行为数据进行数据增强(Data Augmentation),增强方式例如可以是进行随机缩放、随机裁剪(random crop)、增添噪声、旋转、仿射变换、随机擦除、Mosaic数据扩展、改变亮度、对比对、饱和度、色调等等方式。对所采集数据集进行随机缩放裁剪并使用Mosaic扩展。经上述过程实现对目标行为数据集的数据增强后,进行目标行为检测模型训练工作。
检测模型采用YOLO,FasterRCNN,CascadeRCNN,本实施例选用YOLOv5为深度学习网络,以目标行为图片作为训练数据,训练得到目标行为检测模型。对于得到的目标检测模型,使用基于度量学习的小样本学习方法进行模型优化,分别构建支撑集与查询集,使用双向LSTM网络gθ编码,对图像测试样本迭代k步的测试数据编码函数fθ编码成向量,采用计算测试样本的标签之后通过使用support set中的标签yi对于测试样本label进行计算得到基于距离度量的注意力(Attention)core机制:使用cos距离来计算二者之间的匹配度,并用归一化指数函数softmax进行归一化,使用验证集对训练并优化得到的目标行为检测分析模型进行推理验证,最终对测试结果进行可视化输出,完成对目标行为的检测,式中,a是用来度量与训练样本xi的匹配度,f为测试样本编码向量,g表示对训练样本进行编码,xi是support set中的样本,k表示样本数,j表示第j个样本,e表示指数函数。
参阅图2。YOLOv5训练过程以640*640*3尺寸图片作为输入,经Focus模块对输入图片进行切片处理,对切片后图片经过多次CBS模块、C3_n模块、SPP模块与Concat模块进行特征提取,最终获得可以检测大中小不同尺寸物体的特征检测模型,经测试验证分别得到三个不同尺寸的检测结果。
Claims (8)
1.一种图像目标行为的检测识别方法,其特征在于包括如下步骤:
利用图像采集设备获取真实场景中包含了若干类别目标动作行为图片的数据集,用数字或者符号表示图像或景物中各个目标的相关特征,用图像识别技术对图像中个性特征进行提取,从复杂的图像信息中提取有用的图像特征,基于深度学习的目标检测模型根据统计特征分为矩特征、轮廓特征及纹理特征,利用滑动窗口对图像特征进行局部感知,获取目标行为数据集,应用数据预处理技术对所采集数据集进行数据清洗,剔除无效数据,并进行数据划分与批量数据标注工作,对目标行为数据集所划分的训练集中数据进行数据增强,对训练集数据进行模型训练,得到目标行为检测分析模型,构建用于目标行为检测分析模型的训练集、验证集与测试集,将非结构化的图片信息以结构化方式进行再存储;随机抽取其中的80%作为训练样本,其余作为测试样本,利用深度学习技术训练目标行为检测模型,激活深度学习网络对目标行为检测模型进行训练;基于度量学习的小样本学习技术,对目标检测模型进行优化;基于监控视频所捕捉视频信息的目标行为检测,对检测结果进行可视化输出,完成目标行为检测工作。
2.如权利要求1所述的图像目标行为的检测识别方法,其特征在于:采用工业1080p摄像头拍摄图片,获得目标行为数据集,在完成数据采集后对数据集进行必要的数据清洗与数据划分,并对所采集数据集中目标行为进行数据标注工作,计算和统计图像局部区域的梯度方向直方图来构成特征计算和图像每个像素的梯度。
3.如权利要求2所述的图像目标行为的检测识别方法,其特征在于:每个像素位置的梯度方向值,将图像分成小的连通区域,为每个细胞单元构建梯度方向直方图,对每个像素用梯度方向在直方图中进行加权投影,映射到固定的角度范围,把细胞单元组合成大的块(block),块内归一化梯度直方图,然后采集细胞单元中各像素点的梯度的或边缘的方向直方图,最后把这些直方图组合起来构成特征描述器。
4.如权利要求3所述的图像目标行为的检测识别方法,其特征在于:特征描述器把局部直方图在图像的更大的范围内,计算各直方图在这个区间块(block)中的密度,然后根据这个密度对区间中的各个细胞单元做归一化,区间或块block进行对比度归一化,在粗的空域抽样、精细的方向抽样以及较强的局部光学归一化,通过这个归一化后,将检测窗口中所有重叠的块进行HOG特征的收集,并将它们结合成最终的特征向量供分类使用。
5.如权利要求1所述的图像目标行为的检测识别方法,其特征在于:基于深度学习的目标行为检测模型训练,对作为训练集的目标行为数据进行数据增强(Data Augmentation),增强方式采用随机缩放、随机裁剪(random crop)、增添噪声、旋转、仿射变换、随机擦除、Mosaic数据扩展、改变亮度、对比对、饱和度和色调方式,对所采集数据集进行随机缩放裁剪并使用Mosaic扩展;经上述过程实现对目标行为数据集的数据增强后,进行目标行为检测模型训练工作。
6.如权利要求5所述的图像目标行为的检测识别方法,其特征在于:检测模型采用YOLO,FasterRCNN,CascadeRCNN,选用YOLOv5为深度学习网络,以目标行为图片作为训练数据,训练得到目标行为检测模型。
7.如权利要求6所述的图像目标行为的检测识别方法,其特征在于:对于得到的目标检测模型,使用基于度量学习的小样本学习方法进行模型优化,分别构建支撑集与查询集,使用双向LSTM网络gθ编码,对图像测试样本迭代k步的测试数据编码函数fθ编码成向量,采用计算测试样本的标签之后通过中的标签yi对于测试样本label进行计算得到基于距离度量的注意力(Attention)core机制:
使用cos距离来计算二者之间的匹配度,并用归一化指数函数softmax进行归一化,使用验证集对训练并优化得到的目标行为检测分析模型进行推理验证,最终对测试结果进行可视化输出,完成对目标行为的检测,式中,a是用来度量与训练样本xi的匹配度,f为测试样本编码向量,g表示对训练样本进行编码,S={xi}(xi,yi)K
8.如权利要求7所述的图像目标行为的检测识别方法,其特征在于:YOLOv5训练过程以640*640*3尺寸图片作为输入,经Focus模块对输入图片进行切片处理,对切片后图片经过多次CBS模块、C3_n模块、SPP模块与Concat模块进行特征提取,最终获得可以检测大中小不同尺寸物体的特征检测模型,经测试验证分别得到三个不同尺寸的检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210075872.9A CN114743257A (zh) | 2022-01-23 | 2022-01-23 | 图像目标行为的检测识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210075872.9A CN114743257A (zh) | 2022-01-23 | 2022-01-23 | 图像目标行为的检测识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114743257A true CN114743257A (zh) | 2022-07-12 |
Family
ID=82274399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210075872.9A Pending CN114743257A (zh) | 2022-01-23 | 2022-01-23 | 图像目标行为的检测识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114743257A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035288A (zh) * | 2022-08-10 | 2022-09-09 | 菲特(天津)检测技术有限公司 | 一种广义少样本目标检测的优化梯度方法及系统 |
CN118657935A (zh) * | 2024-08-21 | 2024-09-17 | 北京航空航天大学杭州创新研究院 | 一种小样本条件下的舰船目标检测系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701467A (zh) * | 2016-01-13 | 2016-06-22 | 河海大学常州校区 | 一种基于人体形态特征的多人异常行为识别方法 |
CN108229390A (zh) * | 2018-01-02 | 2018-06-29 | 济南中维世纪科技有限公司 | 基于深度学习的快速行人检测方法 |
CN110879989A (zh) * | 2019-11-22 | 2020-03-13 | 四川九洲电器集团有限责任公司 | 基于小样本机器学习模型的ads-b信号目标识别方法 |
CN112115834A (zh) * | 2020-09-11 | 2020-12-22 | 昆明理工大学 | 一种基于小样本匹配网络的标准证件照检测方法 |
CN113033580A (zh) * | 2021-03-31 | 2021-06-25 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN113239980A (zh) * | 2021-04-23 | 2021-08-10 | 华中科技大学 | 基于小样本机器学习与超参数优化的水下目标检测方法 |
CN113256594A (zh) * | 2021-06-07 | 2021-08-13 | 之江实验室 | 基于区域特征度量学习的小样本模型生成及焊缝检测方法 |
CN113537085A (zh) * | 2021-07-20 | 2021-10-22 | 南京工程学院 | 基于两次迁移学习和数据增广的船舶目标检测方法 |
CN113705570A (zh) * | 2021-08-31 | 2021-11-26 | 长沙理工大学 | 一种基于深度学习的少样本目标检测方法 |
US11205098B1 (en) * | 2021-02-23 | 2021-12-21 | Institute Of Automation, Chinese Academy Of Sciences | Single-stage small-sample-object detection method based on decoupled metric |
-
2022
- 2022-01-23 CN CN202210075872.9A patent/CN114743257A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701467A (zh) * | 2016-01-13 | 2016-06-22 | 河海大学常州校区 | 一种基于人体形态特征的多人异常行为识别方法 |
CN108229390A (zh) * | 2018-01-02 | 2018-06-29 | 济南中维世纪科技有限公司 | 基于深度学习的快速行人检测方法 |
CN110879989A (zh) * | 2019-11-22 | 2020-03-13 | 四川九洲电器集团有限责任公司 | 基于小样本机器学习模型的ads-b信号目标识别方法 |
CN112115834A (zh) * | 2020-09-11 | 2020-12-22 | 昆明理工大学 | 一种基于小样本匹配网络的标准证件照检测方法 |
US11205098B1 (en) * | 2021-02-23 | 2021-12-21 | Institute Of Automation, Chinese Academy Of Sciences | Single-stage small-sample-object detection method based on decoupled metric |
CN113033580A (zh) * | 2021-03-31 | 2021-06-25 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN113239980A (zh) * | 2021-04-23 | 2021-08-10 | 华中科技大学 | 基于小样本机器学习与超参数优化的水下目标检测方法 |
CN113256594A (zh) * | 2021-06-07 | 2021-08-13 | 之江实验室 | 基于区域特征度量学习的小样本模型生成及焊缝检测方法 |
CN113537085A (zh) * | 2021-07-20 | 2021-10-22 | 南京工程学院 | 基于两次迁移学习和数据增广的船舶目标检测方法 |
CN113705570A (zh) * | 2021-08-31 | 2021-11-26 | 长沙理工大学 | 一种基于深度学习的少样本目标检测方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035288A (zh) * | 2022-08-10 | 2022-09-09 | 菲特(天津)检测技术有限公司 | 一种广义少样本目标检测的优化梯度方法及系统 |
CN118657935A (zh) * | 2024-08-21 | 2024-09-17 | 北京航空航天大学杭州创新研究院 | 一种小样本条件下的舰船目标检测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109558832B (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN111445459B (zh) | 一种基于深度孪生网络的图像缺陷检测方法及系统 | |
CN109146911B (zh) | 一种目标跟踪的方法及装置 | |
Wang et al. | UAV target detection algorithm based on improved YOLOv8 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN113139489B (zh) | 基于背景提取和多尺度融合网络的人群计数方法及系统 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN105139004A (zh) | 基于视频序列的人脸表情识别方法 | |
CN110826389A (zh) | 基于注意力3d频率卷积神经网络的步态识别方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN110110618B (zh) | 一种基于pca和全局对比度的sar目标检测方法 | |
CN114743257A (zh) | 图像目标行为的检测识别方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN113255549B (zh) | 一种狼群围猎行为状态智能识别方法及系统 | |
CN112348011B (zh) | 一种车辆定损方法、装置及存储介质 | |
CN116843715B (zh) | 一种基于深度学习的多视图协同图像分割方法和系统 | |
Zhang et al. | The target tracking method based on camshift algorithm combined with sift | |
Sun et al. | Light-YOLOv3: License plate detection in multi-vehicle scenario | |
Luo et al. | Cross-Domain Person Re-Identification Based on Feature Fusion | |
CN114140524A (zh) | 一种多尺度特征融合的闭环检测系统及方法 | |
CN118155196B (zh) | 一种用于仪表盘识别的跨尺度检索算法 | |
Khairwa et al. | Moving object detection for surveillance video frames using two stage multi-scale residual convolution neural networks | |
CN118365902A (zh) | 基于多任务学习与背景解耦的孔探损伤计数方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220712 |