CN112183255A - 一种基于深度学习的水下目标视觉识别与姿态估计方法 - Google Patents
一种基于深度学习的水下目标视觉识别与姿态估计方法 Download PDFInfo
- Publication number
- CN112183255A CN112183255A CN202010970281.9A CN202010970281A CN112183255A CN 112183255 A CN112183255 A CN 112183255A CN 202010970281 A CN202010970281 A CN 202010970281A CN 112183255 A CN112183255 A CN 112183255A
- Authority
- CN
- China
- Prior art keywords
- network
- feature
- underwater
- straight line
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000000007 visual effect Effects 0.000 title abstract description 9
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 238000013135 deep learning Methods 0.000 claims abstract description 11
- 238000010586 diagram Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的水下目标视觉识别与姿态估计方法。首先通过在基本YOLOV3算法的网络结构中增加两层预测网络,实现对目标不同维度特征的快速识别和高效提取;然后根据目标整体结构特征,选取中心点位于一条直线上的属于两个维度的多个特征标记,根据特征标记在目标图像中的坐标信息,通过最小二乘方法估计直线斜率估计,进而得到目标的姿态角度。该基于深度学习的水下目标视觉识别与姿态估计方法能够实现对常用水下作业工具的快速识别和姿态估计,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。
Description
技术领域
本发明属于目标识别领域,具体涉及一种水下目标识别和姿态估计方法。
背景技术
作业型水下机器人是进行海洋资源探查和开发的重要装备之一,其通常配备有水下机械臂。实现对水下目标的快速高效识别和姿态估计是水下机械臂进行作业的前提。视觉图像处理和特征提取为水下目标识别与姿态估计的一种常用方法。然而受限于复杂水下环境条件(如弱光、浑浊等),传统的水下目标视觉识别方法识别效率低,姿态估计效果不理想。随着深度学习理论的发展,深度卷积神经网络样本训练是实现水下合作目标识别的一条有效技术途径,但是对水下目标姿态估计的效果并不理想。因此,如何综合水下目标特征和深度学习方法优势进行常用水下作业工具快速识别与高效姿态估计是实现作业型水下机器人机械臂高效工作急需突破的关键技术之一。
发明内容
为了克服现有技术的不足,本发明提供了一种基于深度学习的水下目标视觉识别与姿态估计方法。首先通过在基本YOLOV3算法的网络结构中增加两层预测网络,实现对目标不同维度特征的快速识别和高效提取;然后根据目标整体结构特征,选取中心点位于一条直线上的属于两个维度的多个特征标记,根据特征标记在目标图像中的坐标信息,通过最小二乘方法估计直线斜率估计,进而得到目标的姿态角度。该基于深度学习的水下目标视觉识别与姿态估计方法能够实现对常用水下作业工具的快速识别和姿态估计,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:对水下作业工具包中的每件作业工具,手工在作业工具上选取N个特征标记,N≥3;其中一个特征标记为整体维度特征,由作业工具本身构成;其余N-1个特征标记都为局部维度特征,由作业工具的局部结构或组件构成;N个特征标记的中心点位于同一条直线;
步骤2:作业工具目标识别:
步骤2-1:对YOLOV3网络进行改进;保持YOLOV3网络前端特征提取网络不变,前端特征提取网络输出尺度为13*13、26*26、52*52、104*104和208*208的5个特征图;在YOLOV3网络后端预测网络最后面增加两层,分别是:增加的第一层为卷积神经网络,对前端特征提取网络输出的尺度为52*52的特征图进行上采样得到104*104的特征图,再与前端特征提取网络输出的尺度为104*104的特征图融合;增加的第二层为卷积神经网络,对前端特征提取网络输出的尺度为104*104的特征图进行上采样得到208*208的特征图,再与前端特征提取网络输出的尺度为208*208的特征图融合;从而生成改进YOLOV3网络;
步骤2-2:采集总数为A幅的水下作业工具图像作为训练集,采用k-means聚类算法对训练集进行处理得到多个尺度上的锚框,对步骤2-1得到的改进YOLOV3网络进行训练,训练迭代步数为B步;得到训练完成的改进YOLOV3网络;
步骤2-3:将水下作业工具图像输入步骤2-2训练完成的改进YOLOV3网络,通过训练完成的改进YOLOV3网络的前端特征提取网络提取作业工具图像特征,得到5个尺度的特征图,5个尺度分别为13*13、26*26、52*52、104*104和208*208;
步骤2-4:利用训练完成的改进YOLOV3网络的后端预测网络对步骤2-3中得到的5个尺度的特征图进行检测和融合,得到步骤1中手工标记的作业工具的任意一个特征标记在任意一个尺度上对应的边界框中心点坐标(tx,ty)、宽度tw和高度th;
步骤2-5:对步骤2-4得到的边界框中心点坐标(tx,ty)、宽度tw和高度th利用下面(1)-(4)式进行归一化处理,具体如下:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
其中:σ为sigmoid函数,取值范围为(0,1);(bx,by)为归一化之后的边界框中心点坐标,bw为归一化之后的边界框宽度,bh为归一化之后的边界框高度,cx,cy取值均为1;pw,ph为相应尺度上的锚框映射到特征图中的宽和高;
步骤2-6:重复步骤2-4和步骤2-5,通过训练完成的改进YOLOV3网络的后端预测网络得到N个特征标记在5个尺度上对应的所有边界框的中心点坐标、宽度和高度,再进行归一化处理;
步骤2-7:对步骤2-6归一化处理之后的边界框的中心点坐标、宽度和高度按不同的特征标记分类进行非极大值抑制处理,得到最终识别和特征提取结果,即作业工具中N个特征标记的边界框中心点坐标(x1,y1)、(x2,y2)、…(xN,yN),边界框宽度w1,w2,...,wN和高度h1,h2,...,hN;
步骤3:采用最小二乘法对N个中心点(x1,y1)、(x2,y2)、…(xN,yN)进行拟合得到一条直线,通过下式(5)估计直线斜率k;
设直线方程为:y=kx+b,则直线斜率k估计为:
步骤4:由步骤3得到的直线斜率k计算得到水下作业工具在图像平面中的姿态角。
优选地,所述N=3。
优选地,所述A=500,B=10000。
本发明的有益效果是:
1、与传统的水下目标视觉识别方法相比,本发明改进YOLOV3网络的水下目标识别算法可以实现对水下目标多维特征信息的快速识别和有效提取,提升了水下目标识别的准确性和快速性。
2、融合多维特征标记的水下目标姿态估计算法能利用中心点位于一条直线上属于两个维度的的多个个水下目标特征标记在目标图像中的坐标信息,通过最小二乘法估计直线斜率并得到目标的姿态角度,方法易于实现且执行速度快,提高了水下目标姿态估计的效果。
附图说明
图1为本发明所提出的改进YOLOV3网络结构示意图。
图2为本发明实施例的扳手特征标记选取图。
图3为本发明实施例所特征标记识别结果图。
图中:1-扳手本体,2-扳手头部,3-扳手尾部,4-改进YOLOV3网络,5-前端特征提取网络,6-后端预测网络,7-扳手尾部特征标记边界框,8-扳手头部特征标记边界框,9-扳手本体特征标记边界框。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
如图1所示,本发明提供了一种基于深度学习的水下目标视觉识别与姿态估计方法,包括以下步骤:
步骤1:对水下作业工具包中的每件作业工具,手工在作业工具上选取N个特征标记,N≥3;其中一个特征标记为整体维度特征,由作业工具本身构成;其余N-1个特征标记都为局部维度特征,由作业工具的局部结构或组件构成;N个特征标记的中心点位于同一条直线;
步骤2:作业工具目标识别:
步骤2-1:对YOLOV3网络进行改进;保持YOLOV3网络前端特征提取网络不变,前端特征提取网络输出尺度为13*13、26*26、52*52、104*104和208*208的5个特征图;在YOLOV3网络后端预测网络最后面增加两层,分别是:增加的第一层为卷积神经网络,对前端特征提取网络输出的尺度为52*52的特征图进行上采样得到104*104的特征图,再与前端特征提取网络输出的尺度为104*104的特征图融合;增加的第二层为卷积神经网络,对前端特征提取网络输出的尺度为104*104的特征图进行上采样得到208*208的特征图,再与前端特征提取网络输出的尺度为208*208的特征图融合;从而生成改进YOLOV3网络;
步骤2-2:采集总数为500幅的水下作业工具图像作为训练集,采用k-means聚类算法对训练集进行处理得到多个尺度上的锚框,对步骤2-1得到的改进YOLOV3网络进行训练,训练迭代步数为10000步;得到训练完成的改进YOLOV3网络;
步骤2-3:将水下作业工具图像输入步骤2-2训练完成的改进YOLOV3网络,通过训练完成的改进YOLOV3网络的前端特征提取网络提取作业工具图像特征,得到5个尺度的特征图,5个尺度分别为13*13、26*26、52*52、104*104和208*208;
步骤2-4:利用训练完成的改进YOLOV3网络的后端预测网络对步骤2-3中得到的5个尺度的特征图进行检测和融合,得到步骤1中手工标记的作业工具的任意一个特征标记在任意一个尺度上对应的边界框中心点坐标(tx,ty)、宽度tw和高度th;
步骤2-5:对步骤2-4得到的边界框中心点坐标(tx,ty)、宽度tw和高度th利用下面(1)-(4)式进行归一化处理,具体如下:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
其中:σ为sigmoid函数,取值范围为(0,1);(bx,by)为归一化之后的边界框中心点坐标,bw为归一化之后的边界框宽度,bh为归一化之后的边界框高度,cx,cy取值均为1;pw,ph为相应尺度上的锚框映射到特征图中的宽和高;
步骤2-6:重复步骤2-4和步骤2-5,通过训练完成的改进YOLOV3网络的后端预测网络得到N个特征标记在5个尺度上对应的所有边界框的中心点坐标、宽度和高度,再进行归一化处理;
步骤2-7:对步骤2-6归一化处理之后的边界框的中心点坐标、宽度和高度按不同的特征标记分类进行非极大值抑制处理,得到最终识别和特征提取结果,即作业工具中N个特征标记的边界框中心点坐标(x1,y1)、(x2,y2)、…(xN,yN),边界框宽度w1,w2,...,wN和高度h1,h2,...,hN;
步骤3:采用最小二乘法对N个中心点(x1,y1)、(x2,y2)、…(xN,yN)进行拟合得到一条直线,通过下式(5)估计直线斜率k;
设直线方程为:y=kx+b,则直线斜率k估计为:
步骤4:由步骤3得到的直线斜率k计算得到水下作业工具在图像平面中的姿态角。
具体实施例:
1、根据作业工具的整体结构,选取中心点位于同一条直线上属于两个维度的三个特征标记。其中,第一个特征标记为作业工具本身(整体维度),第二个特征标记和第三个标记为作业工具上的局部结构或组件(局部维度)。对于常用工具扳手,如图2,根据扳手的特殊机械结构分别选取三个特征标记为:扳手本体1、扳手头部2、和扳手尾部3。
2、将水下作业工具图像输入改进YOLOV3的水下目标识别算法,得到三个特征标记对应的三个边界框,以及三个边界框中心点的坐标(x1,y1)、(x2,y2)、和(x3,y3)。
3、采用最小二乘法对(x1,y1)、(x2,y2)、和(x3,y3)三个中心点进行拟合得到一条直线,通过公式(5)估计直线斜率k。
4、在图像平面坐标系里,取正南方向为0度方向,角度范围为顺时针0-360度,根据角度方向规定,结合直线斜率k与倾斜角关系,得到水下目标在图像平面中的姿态角,为水下机器人机械臂抓取作业工具和实施水下作业提供基础。
Claims (3)
1.一种基于深度学习的水下目标视觉识别与姿态估计方法,其特征在于,包括以下步骤:
步骤1:对水下作业工具包中的每件作业工具,手工在作业工具上选取N个特征标记,N≥3;其中一个特征标记为整体维度特征,由作业工具本身构成;其余N-1个特征标记都为局部维度特征,由作业工具的局部结构或组件构成;N个特征标记的中心点位于同一条直线;
步骤2:作业工具目标识别:
步骤2-1:对YOLOV3网络进行改进;保持YOLOV3网络前端特征提取网络不变,前端特征提取网络输出尺度为13*13、26*26、52*52、104*104和208*208的5个特征图;在YOLOV3网络后端预测网络最后面增加两层,分别是:增加的第一层为卷积神经网络,对前端特征提取网络输出的尺度为52*52的特征图进行上采样得到104*104的特征图,再与前端特征提取网络输出的尺度为104*104的特征图融合;增加的第二层为卷积神经网络,对前端特征提取网络输出的尺度为104*104的特征图进行上采样得到208*208的特征图,再与前端特征提取网络输出的尺度为208*208的特征图融合;从而生成改进YOLOV3网络;
步骤2-2:采集总数为A幅的水下作业工具图像作为训练集,采用k-means聚类算法对训练集进行处理得到多个尺度上的锚框,对步骤2-1得到的改进YOLOV3网络进行训练,训练迭代步数为B步;得到训练完成的改进YOLOV3网络;
步骤2-3:将水下作业工具图像输入步骤2-2训练完成的改进YOLOV3网络,通过训练完成的改进YOLOV3网络的前端特征提取网络提取作业工具图像特征,得到5个尺度的特征图,5个尺度分别为13*13、26*26、52*52、104*104和208*208;
步骤2-4:利用训练完成的改进YOLOV3网络的后端预测网络对步骤2-3中得到的5个尺度的特征图进行检测和融合,得到步骤1中手工标记的作业工具的任意一个特征标记在任意一个尺度上对应的边界框中心点坐标(tx,ty)、宽度tw和高度th;
步骤2-5:对步骤2-4得到的边界框中心点坐标(tx,ty)、宽度tw和高度th利用下面(1)-(4)式进行归一化处理,具体如下:
bx=σ(tx)+cx (1)
by=σ(ty)+cy (2)
其中:σ为sigmoid函数,取值范围为(0,1);(bx,by)为归一化之后的边界框中心点坐标,bw为归一化之后的边界框宽度,bh为归一化之后的边界框高度,cx,cy取值均为1;pw,ph为相应尺度上的锚框映射到特征图中的宽和高;
步骤2-6:重复步骤2-4和步骤2-5,通过训练完成的改进YOLOV3网络的后端预测网络得到N个特征标记在5个尺度上对应的所有边界框的中心点坐标、宽度和高度,再进行归一化处理;
步骤2-7:对步骤2-6归一化处理之后的边界框的中心点坐标、宽度和高度按不同的特征标记分类进行非极大值抑制处理,得到最终识别和特征提取结果,即作业工具中N个特征标记的边界框中心点坐标(x1,y1)、(x2,y2)、…(xN,yN),边界框宽度w1,w2,...,wN和高度h1,h2,...,hN;
步骤3:采用最小二乘法对N个中心点(x1,y1)、(x2,y2)、…(xN,yN)进行拟合得到一条直线,通过下式(5)估计直线斜率k;
设直线方程为:y=kx+b,则直线斜率k估计为:
步骤4:由步骤3得到的直线斜率k计算得到水下作业工具在图像平面中的姿态角。
2.根据权利要求1所述的一种基于深度学习的水下目标视觉识别与姿态估计方法,其特征在于,所述N=3。
3.根据权利要求1所述的一种基于深度学习的水下目标视觉识别与姿态估计方法,其特征在于,所述A=500,B=10000。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010970281.9A CN112183255A (zh) | 2020-09-15 | 2020-09-15 | 一种基于深度学习的水下目标视觉识别与姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010970281.9A CN112183255A (zh) | 2020-09-15 | 2020-09-15 | 一种基于深度学习的水下目标视觉识别与姿态估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112183255A true CN112183255A (zh) | 2021-01-05 |
Family
ID=73921185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010970281.9A Pending CN112183255A (zh) | 2020-09-15 | 2020-09-15 | 一种基于深度学习的水下目标视觉识别与姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183255A (zh) |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318233A (zh) * | 2014-10-19 | 2015-01-28 | 温州大学 | 车牌图像水平倾斜校正方法 |
CN105678296A (zh) * | 2015-12-30 | 2016-06-15 | 小米科技有限责任公司 | 确定字符倾斜角度的方法及装置 |
CN107590498A (zh) * | 2017-09-27 | 2018-01-16 | 哈尔滨工业大学 | 一种基于字符分割级联二分类器的自适应汽车仪表检测方法 |
CN107609453A (zh) * | 2016-07-11 | 2018-01-19 | 北京君正集成电路股份有限公司 | 一种车牌图像校正、车牌字符分割方法及设备 |
KR101885839B1 (ko) * | 2017-03-14 | 2018-08-06 | 중앙대학교 산학협력단 | 객체추적을 위한 특징점 선별 장치 및 방법 |
CN108764178A (zh) * | 2018-05-31 | 2018-11-06 | 中国民航大学 | 一种手指三模态特征图像姿态同步采集装置及控制方法 |
CN108961221A (zh) * | 2018-06-15 | 2018-12-07 | 哈尔滨工业大学 | 一种航空插头现场静态图像检测算法 |
CN109508710A (zh) * | 2018-10-23 | 2019-03-22 | 东华大学 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
CN110210320A (zh) * | 2019-05-07 | 2019-09-06 | 南京理工大学 | 基于深度卷积神经网络的多目标无标记姿态估计方法 |
CN110458798A (zh) * | 2019-06-20 | 2019-11-15 | 长沙理工大学 | 基于关键点检测的防振锤缺陷视觉检测方法、系统及介质 |
CN110472573A (zh) * | 2019-08-14 | 2019-11-19 | 北京思图场景数据科技服务有限公司 | 一种基于身体关键点的人体行为分析方法、设备以及计算机存储介质 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
CN110909738A (zh) * | 2019-11-15 | 2020-03-24 | 杭州远鉴信息科技有限公司 | 一种基于关键点检测的指针仪表自动读数方法 |
CN111104940A (zh) * | 2018-10-26 | 2020-05-05 | 深圳怡化电脑股份有限公司 | 图像旋转校正方法、装置、电子设备及存储介质 |
CN111353544A (zh) * | 2020-03-05 | 2020-06-30 | 天津城建大学 | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 |
CN111401148A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进的多级YOLOv3的道路多目标检测方法 |
CN111488874A (zh) * | 2020-04-03 | 2020-08-04 | 中国农业大学 | 一种指针式仪表倾斜校正方法及系统 |
CN111553406A (zh) * | 2020-04-24 | 2020-08-18 | 上海锘科智能科技有限公司 | 基于改进yolo-v3的目标检测系统、方法及终端 |
-
2020
- 2020-09-15 CN CN202010970281.9A patent/CN112183255A/zh active Pending
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318233A (zh) * | 2014-10-19 | 2015-01-28 | 温州大学 | 车牌图像水平倾斜校正方法 |
CN105678296A (zh) * | 2015-12-30 | 2016-06-15 | 小米科技有限责任公司 | 确定字符倾斜角度的方法及装置 |
CN107609453A (zh) * | 2016-07-11 | 2018-01-19 | 北京君正集成电路股份有限公司 | 一种车牌图像校正、车牌字符分割方法及设备 |
KR101885839B1 (ko) * | 2017-03-14 | 2018-08-06 | 중앙대학교 산학협력단 | 객체추적을 위한 특징점 선별 장치 및 방법 |
CN107590498A (zh) * | 2017-09-27 | 2018-01-16 | 哈尔滨工业大学 | 一种基于字符分割级联二分类器的自适应汽车仪表检测方法 |
CN108764178A (zh) * | 2018-05-31 | 2018-11-06 | 中国民航大学 | 一种手指三模态特征图像姿态同步采集装置及控制方法 |
CN108961221A (zh) * | 2018-06-15 | 2018-12-07 | 哈尔滨工业大学 | 一种航空插头现场静态图像检测算法 |
CN109508710A (zh) * | 2018-10-23 | 2019-03-22 | 东华大学 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
CN111104940A (zh) * | 2018-10-26 | 2020-05-05 | 深圳怡化电脑股份有限公司 | 图像旋转校正方法、装置、电子设备及存储介质 |
CN110210320A (zh) * | 2019-05-07 | 2019-09-06 | 南京理工大学 | 基于深度卷积神经网络的多目标无标记姿态估计方法 |
CN110458798A (zh) * | 2019-06-20 | 2019-11-15 | 长沙理工大学 | 基于关键点检测的防振锤缺陷视觉检测方法、系统及介质 |
CN110472573A (zh) * | 2019-08-14 | 2019-11-19 | 北京思图场景数据科技服务有限公司 | 一种基于身体关键点的人体行为分析方法、设备以及计算机存储介质 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
CN110909738A (zh) * | 2019-11-15 | 2020-03-24 | 杭州远鉴信息科技有限公司 | 一种基于关键点检测的指针仪表自动读数方法 |
CN111401148A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进的多级YOLOv3的道路多目标检测方法 |
CN111353544A (zh) * | 2020-03-05 | 2020-06-30 | 天津城建大学 | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 |
CN111488874A (zh) * | 2020-04-03 | 2020-08-04 | 中国农业大学 | 一种指针式仪表倾斜校正方法及系统 |
CN111553406A (zh) * | 2020-04-24 | 2020-08-18 | 上海锘科智能科技有限公司 | 基于改进yolo-v3的目标检测系统、方法及终端 |
Non-Patent Citations (3)
Title |
---|
CHANGYOU LI ET AL: "Skew detection of track images based on wavelet transform and linear least square fitting", 《2009 INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》 * |
范丽等: "基于YOLOv3模型的实时行人检测改进算法", 《山西大学学报(自然科学版)》 * |
陆亚涵: "变电站电力表计检测与读数识别算法研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111775152B (zh) | 基于三维测量引导机械臂抓取散乱堆叠工件的方法及系统 | |
CN109784333B (zh) | 基于点云带权通道特征的三维目标检测方法及系统 | |
CN109166140B (zh) | 一种基于多线激光雷达的车辆运动轨迹估计方法及系统 | |
CN108010078B (zh) | 一种基于三级卷积神经网络的物体抓取检测方法 | |
CN110069993B (zh) | 一种基于深度学习的目标车辆检测方法 | |
WO2022017131A1 (zh) | 点云数据的处理方法、智能行驶控制方法及装置 | |
CN112509063A (zh) | 一种基于边缘特征匹配的机械臂抓取系统及方法 | |
CN102472612A (zh) | 三维物体识别装置以及三维物体识别方法 | |
CN112907735A (zh) | 一种基于点云的柔性电缆识别与三维重建方法 | |
CN113269040A (zh) | 结合图象识别与激光雷达点云分割的驾驶环境感知方法 | |
Arain et al. | Improving underwater obstacle detection using semantic image segmentation | |
CN112146654A (zh) | 基于关键约束帧的前视成像声呐水下定位与导航方法 | |
CN110533716B (zh) | 一种基于3d约束的语义slam系统及方法 | |
CN115496923B (zh) | 一种基于不确定性感知的多模态融合目标检测方法及装置 | |
CN110533720A (zh) | 基于联合约束的语义slam系统及方法 | |
CN104121902A (zh) | 基于Xtion摄像机的室内机器人视觉里程计实现方法 | |
CN108151713A (zh) | 一种单目vo快速位姿估计方法 | |
CN113034600A (zh) | 基于模板匹配的无纹理平面结构工业零件识别和6d位姿估计方法 | |
CN113284179A (zh) | 一种基于深度学习的机器人多物体分拣方法 | |
JP2022181173A (ja) | 透明物体のビンピッキング | |
CN111626120A (zh) | 工业环境下基于改进的yolo-6d算法的目标检测方法 | |
CN116984269A (zh) | 一种基于图像识别的煤矸石抓取方法及系统 | |
Sun et al. | Accurate lane detection with atrous convolution and spatial pyramid pooling for autonomous driving | |
CN112183255A (zh) | 一种基于深度学习的水下目标视觉识别与姿态估计方法 | |
CN114140526A (zh) | 一种基于深度学习的无序工件三维视觉位姿估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210105 |
|
WD01 | Invention patent application deemed withdrawn after publication |