CN113658089B - 一种基于深度相机的双数据流融合物体识别方法 - Google Patents
一种基于深度相机的双数据流融合物体识别方法 Download PDFInfo
- Publication number
- CN113658089B CN113658089B CN202111054812.0A CN202111054812A CN113658089B CN 113658089 B CN113658089 B CN 113658089B CN 202111054812 A CN202111054812 A CN 202111054812A CN 113658089 B CN113658089 B CN 113658089B
- Authority
- CN
- China
- Prior art keywords
- intensity
- depth
- image
- pixels
- different
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004927 fusion Effects 0.000 title claims abstract description 10
- 239000000463 material Substances 0.000 claims abstract description 26
- 238000003064 k means clustering Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 6
- 238000000926 separation method Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 2
- 230000001795 light effect Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000007797 corrosion Effects 0.000 claims 1
- 238000005260 corrosion Methods 0.000 claims 1
- 230000000873 masking effect Effects 0.000 claims 1
- 238000007500 overflow downdraw method Methods 0.000 claims 1
- 238000002360 preparation method Methods 0.000 claims 1
- 230000003287 optical effect Effects 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract description 2
- 230000010365 information processing Effects 0.000 abstract description 2
- 238000012634 optical imaging Methods 0.000 abstract description 2
- 230000003068 static effect Effects 0.000 abstract description 2
- 239000000523 sample Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及光学成像、光信息处理以及计算机视觉等技术领域,更具体地,其涉及一种深度相机拍摄的深度图像和红外强度图像融合下的静态物体识别方法。该方法需分别建立样本数据集以获得不同材料在不同位置处的强度参考信息,并通过深度相机针对某一场景分别拍摄同一时刻的深度图像和红外强度图像,各自经过规范二值化处理后进行融合,最后利用K均值聚类方法实现对从属于不同物体的像素点的区分,同时利用相机提供的深度信息和红外强度信息,判别物体的材料种类,实现低计算复杂度的物体识别的目的。
Description
技术领域
本发明涉及光学成像、光信息处理以及计算机视觉等技术领域,尤其涉及一种基于飞行时间原理深度相机获取的两种图像数据融合的物体识别方法。
背景技术
在计算机视觉技术中,物体识别是最基本的任务,也是应用最广泛的方向之一。在自动驾驶、货仓监测、医疗图像分析等场景中,通常需要计算机辅助分析单帧或连续帧图像数据。而在现有技术当中,这项任务往往需要依赖神经网络进行图像内容识别。使用神经网络往往意味着需要使用大量数据用于网络的训练,且因为网络层级繁多、结构复杂,给优化和调试的过程增加了困难,同时,以往以RGB图像为主的单数据流的成像与识别常在光照变化大、照明条件差甚至黑暗等极端条件下表现不佳,甚至失效。
发明内容
基于上述情况,本发明提供一种深度相机拍摄的深度图像和红外强度图像融合下的静态物体识别方法。通过使用深度相机来获取同一时刻双数据流的单帧图像,即深度图像和强度图像,而后进行处理、融合,并加强对强度数据流的应用,提取出反射光强度信息,旨在从光学原理出发,减少计算时间、同时提升物体识别的准确度。同时,本方法对环境光也具有较强的鲁棒性,适用于黑暗等多种光照条件下的物体识别。
本发明涵盖的光学原理如下:
在深度相机的红外发射器探测物体时,理论上材料和距离(深度)都是反射强度的影响因素,可以简单描述为:
I=f(d,m)
其中I代表反射强度,d代表距离(深度),m代表材料性质。由此,在一定的单调关系下,由探测得到的反射强度I和深度d即可反向判定出被探测物体的材料特征,用于辅助物体识别。
本发明采用的方案如下:
步骤1:构建反射光强度数据库,即得到每种待识别材料在不同空间位置的红外反射强度情况,简称为强度数据库。为得到强度数据库进行拍摄所建立的数据集称为样本数据集。拍摄到样本数据集中的场景图像后,需要将前景与背景进行分离,此时需要将拍摄得到的深度图和强度图分别进行规范化、二值化并融合,提取出前景物体部分的所有像素,分析对应的强度图特征,建立出强度数据库。
其具体实现如下:
首先进行样本数据集的拍摄。拍摄过程中,针对不同的待探测材料,按照等距或近似等距的采样原则,由近及远地用深度相机同时进行深度图和强度图的采集;同时同一距离(深度)平面内不同空间位置的反射情况也会有区别,需要尽可能采集到同一深度X-Y平面内各处的深度,以便参考横向不同位置反射光效果的差异,减小其对材料判定结果带来的影响。
而后对得到的深度图像和强度图像进行二值化,实现前景像素和背景像素的区分。
环境物体对应的像素点在物体识别工作中属无用像素点,因而需要在二值化后对每一组数据的深度图与强度图进行噪声点与其他无用像素去除,其手段主要有两种:
(1)对于大面积无用像素,如背景像素,可以直接采用画幅坐标阈值或深度灰度阈值的方法进行滤除;
(2)对细微噪声点,可以使用的去噪方法包括但不限于中值滤波、高斯滤波,以及由腐蚀和膨胀操作复合而成的开操作和闭操作等。
深度图和强度图分别进行去噪后即可进行融合,可以使用按位与操作(即只有当两幅图像对应的(i,j)点灰度值都为255时,该点才保留255的灰度值,否则设定为0)。
得到融合后的二值化图片后,将其作为掩模板,对强度图像进行掩模处理,得到掩模图片。遍历掩模图片的所有像素点,可求得有效平均灰度值:
(非零像素指掩模图片上属于露出部分的像素)其等效操作为:查询所有前景物点的坐标(ix,jx),按照坐标对相应的强度图原图进行初始灰度值索引,也可求出所有前景像素平均灰度值:
同理针对所有非零像素点求灰度标准差,也可以作为灰度值特征。由此即可从强度图像中得到不同材料在不同深度下的反射光特征,强度数据库建立完成。
步骤2:在建立的强度数据库基础上进行物体识别,先要对待识别场景进行数据采集,采集结果称为测试数据集(与样本数据集相对)。将深度相机摄像头直面场景,对某一时刻某一场景同时进行深度图与强度图的采集。
其具体拍摄方法与步骤1中类似,只需将平行放置的样本材料替换成待探测的不同目标物体即可。
步骤3:将待识别场景的深度图与强度图分别进行规范化、二值化、去噪等图像处理,并将处理后的深度图与强度图融合,得到用于进行物体识别的、无噪声像素的二值化图片,完成前景与背景分离。
不同于样本数据集中每一幅图像中不同物体均为同种材料,真正的物体识别场景每一个物体可能分属不同材料类别,同时物体识别任务客观上也要求分清每一个目标物体,因此,得到二值化图像后需要将所有属于前景的像素归类到不同的类(目标物体)中,本发明中使用的K-means(K均值)聚类的方法。
具体实现如下:
深度图与强度图分别进行规范化、二值化并融合,得到用于进行物体识别的、无噪声像素的二值化图片,完成前景与背景分离,这一过程与步骤1中相似。而后需要使用K-means聚类的方法将所有属于前景的像素归类到不同的类(目标物体)中。
经过聚类,在二维图片中距离较近的像素就会被划分到同一个类别中,应用于本发明,同一物体对应的像素点相互距离较近,自然被定义为从属于同一物体的像素点,也即图像每一个被判定为前景的像素都贴上标签,使之归属于不同的物体。实际操作中,K-means聚类采用Python的Scikit-learn库中的KMeans类来实现。
步骤4:将具有同一类标签的像素点向强度图像进行映射,查询每一个目标物体的红外强度特征,也即强度图中对应像素集的灰度值均值或灰度值标准差,并参照深度与先前建立的强度数据库进行比对,寻找强度特征落在的区间,判定出目标物体的材料种类,即可完成物体识别。
附图说明
图1是本发明中使用双数据流进行物体识别的流程框图。
图2是根据实施例的样本数据采集场景的概念图。
图3是根据实施例的测试数据采集场景的概念图。
图4是根据实施例对所得样本数据进行处理的概念图。
图5是根据实施例对所得测试数据进行处理的概念图。
图6示出了实施例中针对某一样本材料在第一深度下的探测与数据处理过程。
图7示出了实施例中针对某一样本材料在第二深度下的探测与数据处理过程。
图8示出了实施例中针对某一测试场景的探测与数据处理过程以及物体识别结果。
具体实施方式
以图6、图7示出的基于真实数据的处理和识别过程为例,说明本发明中双数据流物体识别的具体流程和相关细节。
图6和图7分别示出了针对某一样本材料在不同深度下的探测与数据处理的过程以构建强度数据库。在样本数据集拍摄过程中,受待探测物体的尺寸限制,为保证采集到同一深度X-Y平面内的各处深度,使深度与强度数据更具有代表意义,实验过程中需要同时在左、中、右三个方位摆放待探测材料。具体操作流程如下:
步骤1:通过深度相机拍摄场景,得到相应的深度图像(611、711)和强度图像(621、721)。
步骤2:分别对深度数据流(601、701)和强度数据流(602、702)进行处理。深度图像原图经固定阈值二值化得到二值化深度图,如612、712;强度图像经Otsu二值化得到二值化强度图,如622、722。
步骤3:二值化后由于往往难以恰好将前景和背景完全分离,容易带有若干环境像素,这些像素对于物体识别是无用的;且在现实场景拍摄中往往会出现图像噪声,因此需要进行去除无用像素和噪声。对于大面积的环境像素,通过利用环境位置信息以及在画幅中的位置信息,通过像素坐标阈值法进行滤除,对于细微噪声点,先使用开操作去除,再用高斯滤波进行修复。由高斯滤波原理可知该操作会破坏二值化结果,因此在高斯滤波后应再次进行二值化。对画面中存在开孔的情况,需要使用闭操作进行弥合。对深度图的去噪处理如613、713所示,对强度图的去噪处理如623、723所示。
步骤4:将所得经处理的深度图和强度图按位与操作进行融合,得到最终的二值化图像(631、731),此时图像中灰度值为255也即白色像素即作为前景物点,按照坐标值对强度图原图进行初始灰度值索引,从而分别得到材料在不同深度处的强度值数据特征。如此对不同材料在不同深度下进行数据采集即可得到所需的强度数据库。
图8示出了针对某一待识别场景的探测与数据处理过程。具体操作流程如下:
步骤1:通过深度相机拍摄场景,得到相应的深度图像(811)和强度图像(821)。
步骤2:分别对深度数据流(801)和强度数据流(802)进行处理。深度图像原图经固定阈值二值化得到二值化深度图,如812;强度图像经Otsu二值化得到二值化强度图,如822。
步骤3:类似地,先通过像素坐标阈值法进行滤除,再使用开操作、高斯滤波二值化、闭操作等进行修复。对深度图和强度图的去噪处理如813、823所示。
步骤4:将所得经处理的深度图和强度图以按位与操作进行融合,得到最终的二值化图像(831),对融合后的二值化图片使用K-means聚类算法进行不同目标物体的区分,如831所示。之后,再通过先前所建立的强度数据库进行材料种类判定,如841所示,图中从左至右的三个目标物体,参照深度与先前建立的强度数据库进行比对,物体1和物体3被识别为材料A,物体2被识别为材料B,识别结果准确。由此完成物体识别。
以上结合附图对本发明实施例进行了详细说明,此处的附图是用来提供对本发明的进一步理解。但本发明的保护范围不限于公开的实施例,意在覆盖所附权利要求的精神和范围之内所包括的多种变形和等效设置,如使用不同于本发明的数据流进行融合、使用不同的融合算法、去噪算法、使用不同原理的深度相机设备等。因此,对属于本发明技术构思,并且仅仅是技术方案显而易见的改动,均应属于本发明保护范围。
Claims (3)
1.一种基于深度相机获取数据融合的物体识别方法,其特征在于:利用深度相机同时得到的深度图像和强度图像数据,并将二者进行融合,由此进行物体识别;包括识别前准备工作是构建样本数据集从而提取强度数据库、识别需基于强度数据库的数据进行物体种类的判定;其步骤如下:步骤1:针对每种待识别材料,得到其在不同空间位置的红外反射强度情况,作为反射光强度数据库,称为强度数据库;为得到强度数据库进行拍摄所建立的数据集称为样本数据集;步骤2:在建立的强度数据库基础上进行物体识别,先要对待识别场景进行数据采集,将深度相机摄像头直面场景,同时对某一时刻进行深度图与强度图的采集;步骤3:将待识别场景的深度图与强度图分别进行规范化、二值化图像处理并融合,得到用于进行物体识别的、无噪声像素的二值化图片,完成前景与背景分离,而后使用K-means聚类方法将所有属于前景的像素归类到不同的类中,完成从属于不同物体的像素点的区分;步骤4:将具有同一类标签的像素点向强度图像进行映射,查询每一个目标物体的红外强度特征,并参照深度与先前建立的强度数据库进行比对,寻找强度特征落在的区间,判定出目标物体的材料种类,即完成物体识别;所述步骤1,具体包括:进行样本数据集的拍摄时针对待探测的不同材料,按照等距或近似等距采样的原则,由近及远地同时用深度相机进行深度图和强度图的采集;同时需要考虑到同一距离平面内不同空间位置的反射情况也会有区别,尽可能保证采集到同一深度X-Y平面内的各处深度,以便参考横向不同位置反射光效果的差异,减小其对材料判定结果带来的影响;而后对得到的深度图像和强度图像进行二值化,实现前景像素和背景像素的区分;由于现实中拍摄场景得到的深度或强度图像难免会有噪声,且环境物体对应的像素点在物体识别工作中属无用像素点,因而需要之后对每一组数据的深度图与强度图进行噪声点与其他无用像素去除;深度图和强度图分别进行去噪后即可进行融合,其方法包括按位与操作,即只有当两幅图像对应的(i,j)点灰度值都为255时,该点才保留255的灰度值,否则设定为0;得到二值化图片后,将其作为掩模板,对强度图像进行掩模处理,得到掩模图片;遍历掩模图片的所有像素点,求有效平均灰度值:
或查询所有前景物点的坐标(ix,jx),按照坐标对相应的强度图原图进行初始灰度值索引,也可求出所有前景像素平均灰度值:
同理针对所有非零像素点求灰度标准差,也可以作为灰度值特征;由此即可从强度图像中得到不同材料在不同深度下的反射光特征,强度数据库建立完成;
所述步骤3具体包括:深度图与强度图融合方法包括按位与操作;所使用的K-means聚类是一种迭代算法,经过聚类,在二维图片中距离较近的像素就会被划分到同一个类别中,,同一物体对应的像素点相互距离较近,自然被定义为从属于同一物体的像素点,也即图像每一个被判定为前景的像素都贴上标签,使之归属于不同的物体;实际操作中,将前景物体归类的图像算法,包括K-means聚类算法;K-means聚类的具体实现方法为Python的Scikit-learn库中的KMeans类。
2.根据权利要求1所述的基于深度相机获取数据融合的物体识别方法,其特征在于:使用的深度相机的探测原理采用飞行时间原理。
3.根据权利要求1所述的基于深度相机获取数据融合的物体识别方法,其特征在于:所述的去噪算法,为中值滤波、高斯滤波,或由腐蚀和膨胀操作复合而成的开操作和闭操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111054812.0A CN113658089B (zh) | 2021-09-09 | 2021-09-09 | 一种基于深度相机的双数据流融合物体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111054812.0A CN113658089B (zh) | 2021-09-09 | 2021-09-09 | 一种基于深度相机的双数据流融合物体识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113658089A CN113658089A (zh) | 2021-11-16 |
CN113658089B true CN113658089B (zh) | 2024-08-23 |
Family
ID=78483007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111054812.0A Active CN113658089B (zh) | 2021-09-09 | 2021-09-09 | 一种基于深度相机的双数据流融合物体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113658089B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114842323B (zh) * | 2022-07-04 | 2022-09-13 | 山东西曼克技术有限公司 | 基于分类识别的智能机器人分拣优化方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934133A (zh) * | 2019-02-28 | 2019-06-25 | 易启科技(吉林省)有限公司 | 一种基于三维局部约束模型的rgbd人脸识别方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6722194B2 (ja) * | 2015-03-17 | 2020-07-15 | コーネル・ユニバーシティーCornell University | 深度フィールドイメージング装置、方法および応用 |
CN106023226A (zh) * | 2016-05-31 | 2016-10-12 | 彭博 | 一种基于三维虚拟路面的裂缝自动检测方法 |
CN106951905A (zh) * | 2017-02-16 | 2017-07-14 | 江苏大学 | 一种基于tof相机的树上苹果识别与定位方法 |
CN108492248A (zh) * | 2018-01-30 | 2018-09-04 | 天津大学 | 基于深度学习的深度图超分辨率方法 |
CN112258398B (zh) * | 2020-09-08 | 2022-05-17 | 太原理工大学 | 基于tof与双目图像融合的输送带纵向撕裂检测装置与方法 |
CN112950694A (zh) * | 2021-02-08 | 2021-06-11 | Oppo广东移动通信有限公司 | 图像融合的方法、单颗摄像头模组、拍摄装置及存储介质 |
-
2021
- 2021-09-09 CN CN202111054812.0A patent/CN113658089B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934133A (zh) * | 2019-02-28 | 2019-06-25 | 易启科技(吉林省)有限公司 | 一种基于三维局部约束模型的rgbd人脸识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113658089A (zh) | 2021-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11681418B2 (en) | Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning | |
CN109344701B (zh) | 一种基于Kinect的动态手势识别方法 | |
US8243991B2 (en) | Method and apparatus for detecting targets through temporal scene changes | |
CN112381075B (zh) | 一种机房特定场景下进行人脸识别的方法及系统 | |
WO2017000466A1 (zh) | 一种基于光流法的运动目标跟踪方法及系统 | |
CN102426649A (zh) | 一种简单的高准确率的钢印数字自动识别方法 | |
CN110472081B (zh) | 一种基于度量学习的鞋图片跨域检索方法 | |
CN110751619A (zh) | 一种绝缘子缺陷检测方法 | |
KR101737430B1 (ko) | 동적 배경을 가진 영상의 대상 객체 검출 방법 | |
Alvarado-Robles et al. | An approach for shadow detection in aerial images based on multi-channel statistics | |
CN115100104A (zh) | 玻璃油墨区的缺陷检测方法、装置、设备及可读存储介质 | |
CN113989604A (zh) | 基于端到端深度学习的轮胎dot信息识别方法 | |
CN107038690B (zh) | 一种基于多特征融合的运动阴影去除方法 | |
CN113658089B (zh) | 一种基于深度相机的双数据流融合物体识别方法 | |
Kumar | An efficient text extraction algorithm in complex images | |
Miller et al. | Person tracking in UAV video | |
El-Said | Shadow aware license plate recognition system | |
JPH10222678A (ja) | 物体検出装置および物体検出方法 | |
Algethami et al. | Combining Accumulated Frame Differencing and Corner Detection for Motion Detection. | |
KR102139932B1 (ko) | 에이다부스트 학습을 이용한 문자 데이터 검출 방법 | |
CN118506338A (zh) | 一种基于深度学习的电子器件印刷字符识别检测方法 | |
Hossen et al. | License plate detection and recognition system based on morphological approach and feed-forward neural network | |
Salvador et al. | Spatio-temporal shadow segmentation and tracking | |
CN114429605B (zh) | 一种广域环境下动态随机目标的识别、定位与跟踪系统 | |
Gajurel et al. | Automatic Number Plate Detection and Recognition Using YOLOv8 and CNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |