CN111239684A - 一种基于YoloV3深度学习的双目快速距离测量方法 - Google Patents
一种基于YoloV3深度学习的双目快速距离测量方法 Download PDFInfo
- Publication number
- CN111239684A CN111239684A CN202010053241.8A CN202010053241A CN111239684A CN 111239684 A CN111239684 A CN 111239684A CN 202010053241 A CN202010053241 A CN 202010053241A CN 111239684 A CN111239684 A CN 111239684A
- Authority
- CN
- China
- Prior art keywords
- target
- binocular
- image
- deep learning
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 18
- 238000000691 measurement method Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 10
- 238000003702 image correction Methods 0.000 abstract description 4
- 230000001568 sexual effect Effects 0.000 abstract 1
- 238000003384 imaging method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YoloV3深度学习的双目快速距离测量方法,包含以下步骤:A、图像采集;B、双目图像校正;C、目标识别定位;D、立体匹配与视差计算;E、计算实际距离,本发明提出一中基于Yolov3的深度学习的双目快速距离测量方法,在图像校正后,先通过Yolov3进行性目标识别定位,识别出目标并且定位出目标在图像中的位置及所占用的图片大小,提取目标图片,然后再进行双目匹配,大大减少目标匹配的计算量,达到实时距离测量的目的。
Description
技术领域
本发明涉及图像处理技术领域,具体是一种基于YoloV3深度学习的双目快速距离测量方法。
背景技术
目前视觉测距方法主要有单目测距和双目测距方法。单目测距,先通过图像匹配进行目标识别,再通过目标在图像中的大小去估算目标距离。这就要求在估算距离之前首先对目标进行准确识别,准确识别是准确估算距离的第一步。要做到这一点,就需要建立维护样本特征数据库,保证这个数据库包含待识别目标的全部特征数据。
双目摄像头的原理与人眼相似,人眼能够感知物体的远近,是由于两只眼睛对同一个物体呈现的图像存在差异,也称“视差”。物体距离越远,视差越小;反之,视差越大。
单目系统的优势在于成本较低,对计算资源的要求不高,系统结构相对简单;缺点是:(1)需要不断更新和维护一个庞大的样本数据库,才能保证系统达到较高的识别率;(2)距离并非真正意义上的测量,准确度较低。
双目系统优势:(1)成本比单目系统要高,但尚处于可接受范围内,并且与激光雷达等方案相比成本较低;(2)直接利用视差计算距离,精度比单目高;(3)无需维护样本数据库,因为对于双目没有样本的概念。
双目系统的难点:(1)计算复杂度高。该方法需要逐像素匹配,为保证匹配结果的鲁棒性,需要在算法中增加大量的错误剔除策略,计算量较大,很难实现实时测量。(2)对环境光照非常敏感。双目立体视觉法依赖环境中的自然光线采集图像,而由于光照角度变化、光照强度变化等环境因素的影响,拍摄的两张图片亮度差别会比较大,这会对匹配算法提出很大的挑战。(3)相机基线限制了测量范围。测量范围和基线(两个摄像头间距)关系很大:基线越大,测量范围越远;基线越小,测量范围越近。所以基线在一定程度上限制了该深度相机的测量范围。
发明内容
本发明的目的在于提供一种基于YoloV3深度学习的双目快速距离测量方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于YoloV3深度学习的双目快速距离测量方法,包含以下步骤:
A、图像采集;
B、双目图像校正;
C、目标识别定位;
D、立体匹配与视差计算;
E、计算实际距离。
作为本发明的进一步方案:所述步骤A具体是:图像采集模块从左右摄像头中采集图片,作为测距系统的输入。
作为本发明的进一步方案:所述步骤B包括相机标定和双目校正。
作为本发明的进一步方案:所述步骤C通过YoloV3算法目标识别定位算法,找出目标图像在分别在左右图形中的位置与大小。
作为本发明的进一步方案:所述YoloV3算法采用单独的CNN模型实现端到端的目标检测,对输入图像直接预测目标的类别与位置。
作为本发明的进一步方案:所述步骤D具体是:目标识别定位后对识别出来的左右目标图像进行立体匹配与视差计算,立体匹配完成匹配左右摄像机拍摄的图像的相同特征,并得到视差图,视差值是匹配是左右目标图像相同特征点在x坐标轴上的差值。
作为本发明的进一步方案:所述立体匹配算法选择SGBM立体匹配算法。
与现有技术相比,本发明的有益效果是:本发明提出一中基于Yolov3的深度学习的双目快速距离测量方法,在图像校正后,先通过Yolov3进行性目标识别定位,识别出目标并且定位出目标在图像中的位置及所占用的图片大小,提取目标图片,然后再进行双目匹配,大大减少目标匹配的计算量,达到实时距离测量的目的。
附图说明
图1为双目测距原理图。
图2为双目测距系统处理流程图。
图3为Yolov3的深度学习的双目测距系统处理流程图。
图4为双目图像校正流程图。
图5为目标识别定位图。
图6为YoloV3识别定位原理图。
图7为YoloV3模型结构图。
图8为Convolutional层结构图。
图9为Residual层结构图。
图10为目标边界框图。
图11为目标识别定位流程图。
图12为目标识别定位效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:请参阅图1-12,本发明实施例中,一种基于YoloV3深度学习的双目快速距离测量方法,包含以下步骤:
A、图像采集;图像采集模块从左右摄像头中采集图片,作为测距系统的输入;
B、双目图像校正;图像采集模块采集图像后,对双目图像进行校正,双目图像校正流程如图4所示;
相机标定:摄像头由于光学透镜的特性使得成像存在着径向畸变,由于装配方面的误差,传感器与光学镜头之间并非完全平行,成像存在切向畸变,所以需要对相机进行标定。单个摄像头的定标主要是计算出摄像头的内参(焦距f和成像原点cx,cy、畸变参数))以及外参(标定物的世界坐标)。而双目摄像头定标不仅要得出每个摄像头的内部参数,还需要通过标定来测量两个摄像头之间的相对位置(即右摄像头相对于左摄像头的旋转矩阵R、平移向量t)。相机标定一般只需要标定一次,标定完成后,保存内参数据及外参数据供以后使用。
双目校正:双目校正是根据摄像头定标后获得的单目内参数据(焦距、成像原点、畸变系数)和双目相对位置关系(旋转矩阵和平移向量),分别对左右视图进行消除畸变和行对准,使得左右视图的成像原点坐标一致、两摄像头光轴平行、左右成像平面共面、对极线行对齐。这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,只需在该行进行一维搜索即可匹配到对应点。
关于双目校正的具体理论和方法采用成熟的技术,不是本发明重点,不再赘述。
C、目标识别定位;双目图像校正后,分别对左右图像进行目标识别定位。如图5所示,通过目标识别定位算法,找出目标图像在分别在左右图形中的位置与大小,即图中的L_TAG_IMG和R_TAG_IMG,然后对L_TAG_IMG和R_TAG_IMG进行双目匹配,因为L_TAG_IMG和R_TAG_IMG只是原图的一小部分,所以会极大减少双目匹配计算量;
目标识别定位是具有挑战性的计算机视觉任务,其可以看成图像分类与定位的结合,给定一张图片,要能够识别出图片的目标并给出其位置。YoloV3仅使用一个CNN网络直接预测不同目标的类别与位置,结构简单速度快,比Fast R-CNN快100倍,图像输入分辨率为416x416时处理速度可以达到29帧/秒,可以达到实时处理,所以本文选择YoloV3深度学习进行目标识别定位。
YOLOv3输入图像典型分辨率可以为608X608,416x416,320X320,图像分辨率越高,识别精度越高,计算花费时间越长,综合考虑我们选择输入图像典型分辨率为416*416,兼顾速度和识别精确度。
YoloV3算法采用单独的CNN模型实现端到端的目标检测,对输入图像直接预测目标的类别与位置。
YoloV3的CNN网络将输入的图片分割成S×S网格(实际上是通过卷积下采样得到S×S网格,这里为了便于说明,描述为将输入的图片分割成S×S网格),然后每个单元格负责去检测那些中心点落在该格子内的目标,如图6所示,可以看到六角形这个目标的中心落在图中橙色单元格内,那么该单元格负责预测这个六角形。每个单元格会预测B(YOLOv3通过聚类算法得到了3组先验框,即预训练得到的3组默认预设边界框,称之为锚点,所以B取值为3)个预设边界框的预测值(tx,ty,tw,th,pO,p1,p2,…,pc),其中(tx,ty,tw,th)为预测边界框的大小与位置(实际上为中心偏移量以及宽高缩放比),pO为预测目标边界框内包含目标的概率,(p1,p2,…,pc)为预测边界框对应c个目标类别的概率。
每个单元格需要预测(B×(5+C))个值。如果将输入图片划分为S×S网格,那么最终预测值为S×S×(B×(5+C))大小的张量。
因为目标物体离摄像头的距离是变化的,目标离摄像头越近,目标成像尺寸就越大,距离越远,目标成像尺寸越小,为了能够更好的识别定位大尺寸和小尺寸的成像目标,YOLOv3在三个尺度等级上进行预测,通过分别将输入图像的尺寸下采样32、16、8来实现,即将图片划分为三种网格,如果输入图像尺寸为416*416,划分为三种特征图即三种S×S的网格,分别为13×13网格、26×26网格、52×52网格,其中13×13网格可以识别成像尺寸比较大的目标,26×26网格可以识别成像尺寸中等的目标,52×52网格可以识别成像尺寸比较小的目标。
本发明中,假设只需要测量一种目标的距离,目标类别为1,即c为1,13×13网格预测值为13×13×(3×(5+1))大小的张量,26×26网格预测值为13×13×(3×(5+1))大小的张量,52×52网格预测值为52×52×(3×(5+1))大小的张量,最后YoloV3分析上面所有的预测值概率,得到最终目标的位置信息与大小信息。
YOLOv3采用Darknet-53的网络结构,其模型结构如图7所示,网络主要是由一系列的1x1和3x3的Convolutional层以及Residual层组成。
其中,Convolutional层是Darknet-53网络基本单元,由conv卷积层、BN层、LeakyReLU层组成,其结构如图8所示。Residual层为darknet-53残差模块,其结构如图9所示,这里使用残差的结构的好处:(1)深度模型一个关键的点就是能否正常收敛,使用残差结构能保证网络结构在很深的情况下,仍能收敛。(2)网络越深,表达的特征越好,可以提升目标识别定位的效果。
从图7中可以看到,在第86层,将第61层和第85层进行了张量拼接,在第98层,将第36层和第97层进行了张量拼接,其中第61层为和第36层为浅层特征,第85层和第97层为深层特征,这里同时利用了深层和浅层特征,进一步提高了网络的效果。网络最后预测三种特征图,分别13×13网格特征图、26×26网格特征图、52×52网格特征图,我们这里只需要识别一种目标,所以13×13网格特征图预测张量尺寸为13×13×(3×(5+1)),26×26网格特征图预测张量尺寸为26×26×(3×(5+1)),52×52网格特征图预测预测张量尺寸为52×52×(3×(5+1))。然后根据概率最大值得到最终预测值。
YoloV3得到最终预测值(tx,ty,tw,th,pO,p1,p2,…,pc)后,因为得到的(tx,ty,tw,th)实际上为网络预测的边界框中心偏移量以及宽高缩放比,所以还需要计算出目标边界框。计算原理如图10所示,图中虚线矩形框为预设边界框即锚点,实线矩形框为通过网络预测的偏移量计算得到的预测目标边界框。其中(pw,ph)为预设边界框在特征图上的宽和高,(tx,ty,tw,th)分别为网络预测的边界框中心偏移量以及宽高缩放比,(bx,by,bw,bh)为最终预测的目标边界框。从预设边界框到最终预测目标边界框的公式如式(5)、式(6)、式(7)和式(8),其中σ(x)函数是sigmoid函数,其目的是将预测偏移量缩放到0到1之间。
bx=σ(tx)+cx=sigmoid(tx)+cx (5)
by=σ(ty)+cy=sigmoid(ty)+cy (6)
因为网络预测目标边界框坐标为(bx,by,bw,bh),(bx,by)为预测目标边界框的中心坐标,(bw,bh)为目标边界框的宽和高,所以目标左上角位置(xta,yta)可以由(bx,by,bw,bh)通过式(9)和式(10)计算得到。
xta=bx-(bw/2) (9)
yta=by-(bh/2) (10)
YOLOv3训练采用的损失函数如式11,其主要分为三个部分:目标置信度损失Lconf(o,c),目标分类损失Lcla(O,C),目标定位偏移量损失Lloc(l,g),其中λ1、λ2、λ3是平衡系数。
L(O,o,C,c,l,g)=λ1Lconf(o,c)+λ2Lcla(O,C)+λ3Lloc(l,g) (11)
目标置信度可以理解为预测目标矩形框内存在目标的概率,目标置信度损失采用的是二值交叉熵损失(Binary Cross Entropy),其中oi∈{0,1},表示预测目标边界框i中是否真实存在目标,0表示不存在,1表示存在。表示预测目标矩形框i内是否存在目标的Sigmoid概率(将预测值ci通过sigmoid函数得到)。
目标类别损失同样采用的是二值交叉熵损失,其中,Oij∈{0,1}表示预测目标边界框i中是否真实存在第j类目标,0表示不存在,1表示存在。表示网络预测目标边界框i内存在第j类目标的Sigmoid概率(将预测值Cij通过sigmoid函数得到)。
目标定位损失采用的是真实偏差值与预测偏差值差的平方和,其中表示预测矩形框坐标偏移量(注意YoloV3网络预测的是偏移量,不是直接预测坐标),表示与之匹配的box与默认框之间的坐标偏移量,(bx,by,bw,bh)为预测的目标矩形框参数,(cx,cy,cw,ch)为默认矩形框参数,(gx,gy,gw,gh)为与之匹配的真实目标矩形框参数,这些参数都是映射在预测特征图上的。
目标识别定位分为训练模型和目标识别定位两个部分,其流程如图11所示。
训练模型:采集待测目标图像(为了提高识别效果,尽量采集不同光照条件、不同背景条件、不同角度、不同距离的目标图像,图像采集尽量多,最好不少于10000张),然后进行训练,得到训练后的模型特征。
目标识别定位:首先读入经过校正的图像,图像分辨率转换为416x416,然后读取模型特征,进行目标识别定位,最后得到目标类型与位置。
利用YoloV3定位识别算法对目标进行识别定位,输入原图像即可通过算法获得目标图像在原图中的位置信息及宽度高度信息。定位效果图如图12所示,对L_REC_IMG目标识别定位,定位出目标图片L_TAG_IMG,在原图L_REC_IMG中的位置(xlta,ylta),宽度为wlta,高度为hlta,对R_REC_IMG目标识别定位,定位出目标图片R_TAG_IMG,在原图R_REC_IMG中的位置(xrta,yrta),宽度为wrta,高度为hrta。
D、立体匹配与视差计算;目标识别定位后对识别出来的左右目标图像进行立体匹配与视差计算,立体匹配完成匹配左右摄像机拍摄的图像的相同特征,并得到视差图,视差值是匹配是左右目标图像相同特征点在x坐标轴上的差值,例如如图12中的六角形目标的每个角都是特征点。得到视差图后可通过三角相似的原理得到目标物体的距离。
立体匹配算法主要有SAD匹配算法、BM算法、SGBM算法、GC算法等算法。SGBM算法是一种全局匹配算法,GC算法精度最高,但是速度最慢;SAD算法、BM算法精度比较差,不适合实际工程应用;所以这里选择SGBM立体匹配算法。
本文首先利用YoloV3算法对校正后的左右摄像机拍摄的图像进行目标识别定位,如图12所示,对L_REC_IMG目标识别定位,定位出目标图片L_TAG_IMG,对R_REC_IMG目标识别定位,定位出目标图片R_TAG_IMG;然后利用SGBM算法对识别出来的目标图像L_TAG_IMG和R_REC_IMG进行立体匹配,可以得到视差xltaoff-xrtaoff。由于目标所占的图像只是原始图像的一小部分,如图12中识别出来的目标图像L_TAG_IMG和R_TAG_IMG,再利用SGBM算法对识别出来的目标图像L_TAG_IMG和R_TAG_IMG进行立体匹配,因为目标图像L_TAG_IMG和R_TAG_IMG是从原图像切割出的一部分,可以大大减少计算时间,达到实时处理的目的。
因为我们计算距离需要的目标视差是相对于原图L_REC_IMG和R_REC_IMG,即xl-xr,而通过立体匹配算法得到的视差为xltaoff-xrtaoff,因为识别的图像L_TAG_IMG在原图L_REC_IMG中的位置(xlta,ylta),识别的图像R_TAG_IMG在原图R_REC_IMG中的位置(xrta,yrta),所以最终视差为
xl-xr=(xlta+xltaoff)-(xrta+xrtaoff)=(xlta-xrta)+(xltaoff-xrtaoff)(21)
E、计算实际距离:最终计算出的视差d=xl-xr,然后将即d带入公式(4)即可计算出目标实际距离。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (7)
1.一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,包含以下步骤:
A、图像采集;
B、双目图像校正;
C、目标识别定位;
D、立体匹配与视差计算;
E、计算实际距离。
2.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤A具体是:图像采集模块从左右摄像头中采集图片,作为测距系统的输入。
3.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤B包括相机标定和双目校正。
4.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤C通过YoloV3算法目标识别定位算法,找出目标图像在分别在左右图形中的位置与大小。
5.根据权利要求4所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述YoloV3算法采用单独的CNN模型实现端到端的目标检测,对输入图像直接预测目标的类别与位置。
6.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤D具体是:目标识别定位后对识别出来的左右目标图像进行立体匹配与视差计算,立体匹配完成匹配左右摄像机拍摄的图像的相同特征,并得到视差图,视差值是匹配是左右目标图像相同特征点在x坐标轴上的差值。
7.根据权利要求6所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述立体匹配算法选择SGBM立体匹配算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010053241.8A CN111239684A (zh) | 2020-01-17 | 2020-01-17 | 一种基于YoloV3深度学习的双目快速距离测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010053241.8A CN111239684A (zh) | 2020-01-17 | 2020-01-17 | 一种基于YoloV3深度学习的双目快速距离测量方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111239684A true CN111239684A (zh) | 2020-06-05 |
Family
ID=70865912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010053241.8A Pending CN111239684A (zh) | 2020-01-17 | 2020-01-17 | 一种基于YoloV3深度学习的双目快速距离测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111239684A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489186A (zh) * | 2020-10-28 | 2021-03-12 | 中汽数据(天津)有限公司 | 一种自动驾驶双目数据感知算法 |
CN113208882A (zh) * | 2021-03-16 | 2021-08-06 | 宁波职业技术学院 | 一种基于深度学习的盲人智能避障方法及系统 |
CN113313201A (zh) * | 2021-06-21 | 2021-08-27 | 南京挥戈智能科技有限公司 | 基于Swin Transformer和ZED摄像头的多目标检测和测距方法 |
CN113345034A (zh) * | 2021-07-14 | 2021-09-03 | 山东诺德能源科技有限公司 | 一种利用图像识别方法快速测量钢筋直径的方法 |
CN115015495A (zh) * | 2022-06-02 | 2022-09-06 | 中国农业大学 | 一种生长中球形果蔬品质动态近距离微型智能感知器 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉系统及深度测量方法 |
CN108470356A (zh) * | 2018-03-15 | 2018-08-31 | 浙江工业大学 | 一种基于双目视觉的目标对象快速测距方法 |
CN109035322A (zh) * | 2018-07-17 | 2018-12-18 | 重庆大学 | 一种基于双目视觉的障碍物检测与识别方法 |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
CN110414417A (zh) * | 2019-07-25 | 2019-11-05 | 电子科技大学 | 一种基于多层次融合多尺度预测的交通标志牌识别方法 |
CN110490252A (zh) * | 2019-08-19 | 2019-11-22 | 西安工业大学 | 一种基于深度学习的室内人数检测方法及系统 |
-
2020
- 2020-01-17 CN CN202010053241.8A patent/CN111239684A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉系统及深度测量方法 |
CN108470356A (zh) * | 2018-03-15 | 2018-08-31 | 浙江工业大学 | 一种基于双目视觉的目标对象快速测距方法 |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
CN109035322A (zh) * | 2018-07-17 | 2018-12-18 | 重庆大学 | 一种基于双目视觉的障碍物检测与识别方法 |
CN110414417A (zh) * | 2019-07-25 | 2019-11-05 | 电子科技大学 | 一种基于多层次融合多尺度预测的交通标志牌识别方法 |
CN110490252A (zh) * | 2019-08-19 | 2019-11-22 | 西安工业大学 | 一种基于深度学习的室内人数检测方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489186A (zh) * | 2020-10-28 | 2021-03-12 | 中汽数据(天津)有限公司 | 一种自动驾驶双目数据感知算法 |
CN112489186B (zh) * | 2020-10-28 | 2023-06-27 | 中汽数据(天津)有限公司 | 一种自动驾驶双目数据感知方法 |
CN113208882A (zh) * | 2021-03-16 | 2021-08-06 | 宁波职业技术学院 | 一种基于深度学习的盲人智能避障方法及系统 |
CN113313201A (zh) * | 2021-06-21 | 2021-08-27 | 南京挥戈智能科技有限公司 | 基于Swin Transformer和ZED摄像头的多目标检测和测距方法 |
CN113345034A (zh) * | 2021-07-14 | 2021-09-03 | 山东诺德能源科技有限公司 | 一种利用图像识别方法快速测量钢筋直径的方法 |
CN115015495A (zh) * | 2022-06-02 | 2022-09-06 | 中国农业大学 | 一种生长中球形果蔬品质动态近距离微型智能感知器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340797B (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN111239684A (zh) | 一种基于YoloV3深度学习的双目快速距离测量方法 | |
CN113936198A (zh) | 低线束激光雷达与相机融合方法、存储介质及装置 | |
CN111476827A (zh) | 目标跟踪方法、系统、电子装置及存储介质 | |
CN113963240A (zh) | 多源遥感图像融合目标综合检测方法 | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN114359181A (zh) | 一种基于图像和点云的智慧交通目标融合检测方法及系统 | |
CN115082450A (zh) | 基于深度学习网络的路面裂缝检测方法和系统 | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
CN114089329A (zh) | 一种基于长短焦相机与毫米波雷达融合的目标检测方法 | |
CN112634368A (zh) | 场景目标的空间与或图模型生成方法、装置及电子设备 | |
CN107203743B (zh) | 一种人脸深度跟踪装置及实现方法 | |
CN114298151A (zh) | 一种基于点云数据与图像数据融合的3d目标检测方法 | |
CN116246119A (zh) | 3d目标检测方法、电子设备及存储介质 | |
CN115311618A (zh) | 一种基于深度学习和对象匹配的装配质量检查方法 | |
CN115115917A (zh) | 基于注意力机制和图像特征融合的3d点云目标检测方法 | |
CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
CN117576029A (zh) | 基于双目视觉的零部件缺陷检测和评价方法以及装置 | |
CN107452003A (zh) | 一种含有深度信息的图像分割的方法及装置 | |
CN114863201A (zh) | 三维检测模型的训练方法、装置、计算机设备和存储介质 | |
CN117036472A (zh) | 一种动态环境下点线融合机器人slam方法及系统 | |
CN116343143A (zh) | 目标检测方法、存储介质、路侧设备及自动驾驶系统 | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 | |
US20250022151A1 (en) | Method and device for aligning laser point cloud and image based on deep learning | |
CN117726666B (zh) | 跨相机单目图片度量深度估计方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200605 |