Nothing Special   »   [go: up one dir, main page]

CN111161348A - 一种基于单目相机的物体位姿估计方法、装置及设备 - Google Patents

一种基于单目相机的物体位姿估计方法、装置及设备 Download PDF

Info

Publication number
CN111161348A
CN111161348A CN201811326687.2A CN201811326687A CN111161348A CN 111161348 A CN111161348 A CN 111161348A CN 201811326687 A CN201811326687 A CN 201811326687A CN 111161348 A CN111161348 A CN 111161348A
Authority
CN
China
Prior art keywords
poses
points
feature
monocular camera
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811326687.2A
Other languages
English (en)
Other versions
CN111161348B (zh
Inventor
熊友军
张惊涛
张万里
李懿
庞建新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Ubtech Technology Co ltd
Original Assignee
Shenzhen Ubtech Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Ubtech Technology Co ltd filed Critical Shenzhen Ubtech Technology Co ltd
Priority to CN201811326687.2A priority Critical patent/CN111161348B/zh
Publication of CN111161348A publication Critical patent/CN111161348A/zh
Application granted granted Critical
Publication of CN111161348B publication Critical patent/CN111161348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

一种基于单目相机的物体位姿估计方法包括:通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。在有多个相同物体的场景下,可以通过聚类的第一子集进行匹配,有利于提高位姿计算的准确度,并且通过拟合得到多个位姿后,将相似的位姿合并,减少了位姿迭代时造成的冗余,提高位姿计算效率。

Description

一种基于单目相机的物体位姿估计方法、装置及设备
技术领域
本申请属于图像处理领域,尤其涉及一种基于单目相机的物体位姿估计方法、装置及设备。
背景技术
物体位姿估计(Pose estimation)在计算机视觉领域扮演着十分重要的角色。在使用视觉传感器估计机器人位姿进行控制、机器人导航、增强现实以及其它方面都有着极大的应用。
基于视觉的位姿估计方法总的来说分为三种,分别为基于标记marker的位姿估计、基于模型model的位姿估计等。
其中,基于标记marker的位姿估计方法,首先需要在待估计物体上粘贴特定的标识物,一般为二维码,然后通过算法识别二维码的四个角点的图像坐标,最后联合四个角点的世界坐标通过PnP算法求出物体相对于摄像机的6D位姿,该方法虽然精度较高,由于物体需要具有平面才能粘贴marker,因此具有很大的局限性。
为了克服局限性缺陷,可以采用基于模型model的方法,首先建立待估计物体的3D模型,然后通过特征点匹配的方法在图像与模型之间寻找多对2D-3D点,最后利用迭代优化的方法获取6D位姿,该方法通用性较强。
但是,基于模型model的方法在实际应用中,当场景中存在多个同样物体时,由于同样的物体其特征是相同或相似的,因此在特征匹配时会存在一对多的想象,从而在位姿计算时会出错,无法获得每个物体的位姿;并且由于存在大量相同或相似的特征点,在位姿迭代求解时,需要迭代的次数将无法预估,从而降低算法的效率,并且占用大量的计算资源,无法达到实时估计。
发明内容
有鉴于此,本申请实施例提供了一种基于单目相机的物体位姿估计方法、装置及设备,以解决现有技术中由于场景中可能存在多个同样物体,可能会导致位姿计算出错,并且可能会降低位姿计算效率的问题。
本申请实施例的第一方面提供了一种基于单目相机的物体位姿估计方法,所述基于单目相机的物体位姿估计方法包括:
通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
结合第一方面,在第一方面的第一种可能实现方式中,在所述根据位姿的相似性将集合中的位姿合并,得到场景中物体的位姿的步骤之前,所述方法还包括:
调整聚类阈值,对位姿集合中的位姿再次进行聚类,得到物体对应的、由多个特征点构成的第二子集;
通过拟合算法获取第二子集所对应的位姿,由多个位姿构成第二位姿集合;
反复上述聚类和拟合步骤,直到达到最大拟合次数或者没有再次聚类的特征点。
结合第一方面或第一方面的第一种可能实现方式,在第一方面的第二种可能实现方式中,在所述提取所采集的图像中的特征点和特征描述子的步骤之前,所述方法还包括:
获取单目相机的内参数和/或畸变系数;
根据所获取的内参数和/或畸变系数,消除所采集的图像的畸变。
结合第一方面或第一方面的第一种可能实现方式,在第一方面的第三种可能实现方式中,所述根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集的步骤包括:
根据均值漂移meansift算法对图像中的匹配点进行聚类运算,获取多个匹配的特征点构成的第一子集。
结合第一方面或第一方面的第一种可能实现方式,在第一方面的第四种可能实现方式中,所述通过拟合算法获取第一子集所对应的位姿的步骤包括:
通过随机一致性采样RANSAC算法,对每个第一子集中的特征点进行迭代优化,获取与预设模型拟合的特征点最多时所对应的特征点;
根据拟合的特征点最多时的特征点确定所述第一子集对应的物体的位姿。
结合第一方面或第一方面的第一种可能实现方式,在第一方面的第五种可能实现方式中,在所述根据所述特征描述子将所述特征点与预设的模型进行匹配的步骤之前,所述方法还包括:
对物体进行360度环绕拍照,得到物体的连贯图像序列;
根据相机的内参数和畸变系数对图像序列进行消畸变处理;
提取畸变处理后的所述图像序列中的特征点及其对应的特征描述子;
基于运动重构SFM算法,建立物体的稀疏三维点云模型,保存三维点云模型中的三维点及其对应的特征描述子。
结合第一方面的第五种可能实现方式,在第一方面的第六种可能实现方式中,在所述得到物体的连贯图像序列的步骤之后,所述方法还包括:
获取图像序列中该物体的掩膜MASK区域;
提取所述掩膜MASK区域的特征点及其对应的特征描述子;
在基于运动重构SFM算法,建立物体的稀疏三维点云模型后,保存MASK区域的三维点及其对应的特征描述子。
本申请实施例的第二方面提供了一种基于单目相机的物体位姿估计装置,所述基于单目相机的物体位姿估计装置包括:
特征提取单元,用于通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
匹配单元,用于根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
聚类单元,用于根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
位姿获取单元,用于通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
位姿合并单元,用于根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
本申请实施例的第三方面提供了一种基于单目相机的物体位姿估计设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如第一方面任一项所述基于单目相机的物体位姿估计方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如第一方面任一项所述基于单目相机的物体位姿估计方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:通过单目相机采集图像后,提取图像中包括的特征点以及特征点对应的特征描述子,通过特征描述子将所述特征点与预设的模型进行匹配,得到与模型匹配的匹配点,然后根据匹配点的位置进行聚类运算,得到一个或者多个第一子集,在每一个第一子集中,包括多个匹配点,并通过拟合第一子集中的特征点,从而得到每个第一子集对应的物体的位姿,由多个位姿构成第一位姿集合,然后根据相似性对位姿进行合并,从而在有多个相同物体的场景下,可以通过聚类的第一子集进行匹配,有利于提高位姿计算的准确度,并且通过拟合得到多个位姿后,将相似的位姿合并,减少了位姿迭代时造成的冗余,提高位姿计算效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种单目相机的物体位姿估计方法的实现流程示意图;
图2是本申请实施例提供的一种建立位姿模型的方法的实现流程示意图;
图3是本申请实施例提供的又一单目相机的物体位姿方法的实现流程示意图;
图4是本申请实施例提供的一种单目相机的物体位姿估计装置的示意图;
图5是本申请实施例提供的基于单目相机的物体位姿估计设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
图1为本申请实施例提供的一种基于单目相机的物体位姿估计方法的实现流程示意图,详述如下:
在步骤S101中,通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
具体的,本申请所述单目相机所采集的图像,可以为照片,也可以为视频图像中的图像帧。所述单目相机可以预先获取其畸变系数和/或内参数,也可以通过标定步骤,计算相机的内参数和/或畸变系数。
当获取到单目相机的内参数和/或畸变系数后,可以对采集的图像进行变换,从而消息所采集的图像中的畸变。由畸变后的图像可以更加真实的还原场景中的物体本身,从而有利于后续特征比对更加准确。
如果对图像进行去畸变处理后,可以通过特征点提取算法,提取去除畸变影响的图像中的特征点,并且记录所述特征点周围的特征描述子,以便于准确的将图像中的特征点与预设的模型中的三维点进行2D-3D的匹配。
其中,提取所采集的图像中的特征点的方法,可以包括SIFT(中文全称为:尺度不变特征变换,英文全称为Scale-invariant feature transform)特征点,其选取方式为,通过判断一个点在DOG(英文全称为Difference of Gaussians,中文全称为高斯差分)尺度空间本层以及上下两层的26个领域中是最大或最小值时,就认为该点是图像在该尺度下的一个特征点。
可以用直方图统计特征点领域内的像素梯度方向,取直方图bin值(直方图的统计值)最大的以及超过最大bin值80%的那些方向做为特征点的主方向。再将特征点领域内的图像旋转,使特征方向与X轴方向平行,保证旋转不变性。选取特征点周围16*16区域,划分为4*4=16块,求取每一块在8个方向上的梯度,这样就可以得到4*4*8=128维的SIFT特征描述子。
采用SIFT特征描述子,具有如下特点:
对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也保持一定程度的稳定性。
旋转不变性,可以用于图像旋转变换后的匹配;
尺寸无关性,构建尺度空间的时候,构建了不同尺度缩放下的图片,在求取特征点的时候,在多种尺度空间下进行了检测;
亮度变化抗性,将描述子中各个维度的归一化,可以减小亮度变化的影响。
因此,通过SIFT特征描述子可以有效的与3D模型中的特征点进行匹配。
在步骤S102中,根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
根据所提取的特征点的特征描述子,将其与预先设定的模型中的特征描述子进行匹配,如果特征描述子匹配成功,则表示该特征点与预先设定的模型中的特征点能够匹配。在此,我们只需要记录所采集的图像中的特征点可以完成匹配的特征点,即本申请所称的匹配点,即从采集的图像中所提取的特征点中,进一步提取匹配点。
在步骤S103中,根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
对于所采集的图像中提取的特征点,通过匹配筛选后得到匹配点,然后根据匹配点的位置,对所采集的2D图像中的匹配点进行聚类,使得位于相邻位置的匹配点聚类为同一子集。通过聚类步骤,可以生成一个或者多个第一子集,所述第一子集中包括多个匹配点。
所述聚类步骤,可以采用均值漂移meansift算法对图像中的匹配点进行聚类运算,获取多个匹配的特征点构成的第一子集。即通过多次迭代,寻找图像中的特征点分布密度的局部极值,即可将同一场景中的多个物体的特征点划分在不同的第一子集中。
在步骤S104中,通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
通过聚类运算后,将位于同一物体的特征点划分在同一个子集中,进一步对第一子集的噪声特征点进行拟合,比如可以通过随机一致性采样RANSAC算法进行迭代优化,通过拟合可以过滤掉第一子集中的非位姿特征点,根据拟合的特征点最多时的特征点确定所述第一子集对应的物体的位姿。
其中,所述随机一致性采样RANSAC算法进行迭代优化,可以随机从第一子集中随机选取多个特征点与模型进行拟合,经过反复拟合,可以确定特征点与模型拟合的个数最多的一次拟合,并记录该次拟合所对应的特征点,根据所记录的特征点确定第一子集对应的物体的位姿。
在步骤S105中,根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
由于本申请中可能包括多个第一子集,因而根据多个第一子集可以相应的确定多个位姿,可以通过相似度计算,如果位姿之间的相似度大于预定值,则可以将两个位姿合并,从而减少了位姿迭代时造成的冗余,提高了算法的效率。
另外,本申请在实施根据所述特征描述子将所述特征点与预设的模型进行匹配的步骤之前,还可包括建立模型的步骤,如图2所示,包括:
在步骤S201中,对物体进行360度环绕拍照,得到物体的连贯图像序列;
在模型建立过程中,可以将待建模物体旋转在带有图案的平面上,从而提高特征点的数量,进一步提高特征点的匹配精度以及后续运动重构中迭代的准确度。
在步骤S202中,根据相机的内参数和畸变系数对图像序列进行消畸变处理;
通过消畸变处理后,使得采集的图像更加真实,减少畸变所带来的物体图像误差,提高建模精确度。
在步骤S203中,提取畸变处理后的所述图像序列中的特征点及其对应的特征描述子;
可以通过SIFT算法对图像序列进行特征提取以及特征描述子的计算。
在步骤S204中,基于运动重构SFM算法,建立物体的稀疏三维点云模型,保存三维点云模型中的三维点及其对应的特征描述子。
建立三维点云模型后,还可以对三维点云模型进行尺度对齐,使三维点云模型与真实物体具有相同的尺度,便于后续位姿估计时的特征点匹配。
当然,在得到物体的连贯图像序列的步骤之后,还可以获取图像序列中该物体的掩膜MASK区域,提取所述掩膜MASK区域的特征点及其对应的特征描述子;在基于运动重构SFM算法,建立物体的稀疏三维点云模型后,保存MASK区域的三维点及其对应的特征描述子。
图3为本申请实施例提供的又一基于单目相机的物体位姿估计方法的实现流程示意图,包括:
在步骤S301中,通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
在步骤S302中,根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
在步骤S303中,根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
在步骤S304中,通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
在步骤S305中,调整聚类阈值,对位姿集合中的位姿再次进行聚类,得到物体对应的、由多个特征点构成的第二子集;
所述聚类阈值的调整,可以通过改变聚类算法的半径实现。可以根据物体的外形尺寸,确定聚类算法的半径范围,比如可以设定外形的最短距离到外形的最长距离作为聚类半径范围,在此范围内逐步调整。
在步骤S306中,通过拟合算法获取第二子集所对应的位姿,由多个位姿构成第二位姿集合;
由于第二位姿中的特征点与第一位姿的特征点相比,可能会由于聚类结果不同,所包括的特征点也会存在区别,因此对第二子集重新拟合,可以得到第二子集对应的位姿,根据得到的多个位姿生成第二位姿集合。
在步骤S307中,反复上述聚类和拟合步骤,直到达到最大拟合次数或者没有再次聚类的特征点;
可以预先设定最大拟合次数,或者可以通过判断再次聚类是否产生新的特征点来确定是否需要重复步骤S305-S306中的聚类和拟合步骤。当达到最大拟合次数,或者没有再次聚类的特征点时,则进步步骤S308。
在步骤S308中,根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
图4所述物体位姿估计方法,在图1的基础上通过多次的聚类-拟合的迭代,使得到的物体位姿的精度进一步得到提高。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图4为本申请实施例提供的一种基于单目相机的物体位姿估计装置的结构示意图,所述基于单目相机的物体位姿估计装置包括:
特征提取单元401,用于通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
匹配单元402,用于根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
聚类单元403,用于根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
位姿获取单元404,用于通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
位姿合并单元405,用于根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
旅途4所述基于单目相机的物体位姿估计装置,与图1所述的基于单目相机的物体位姿估计方法对应。
图5是本申请一实施例提供的基于单目相机的物体位姿估计设备的示意图。如图5所示,该实施例的基于单目相机的物体位姿估计设备5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机程序52,例如基于单目相机的物体位姿估计程序。所述处理器50执行所述计算机程序52时实现上述各个基于单目相机的物体位姿估计方法实施例中的步骤,例如图1所示的步骤101至105。或者,所述处理器50执行所述计算机程序52时实现上述各装置实施例中各模块/单元的功能,例如图4所示模块401至405的功能。
示例性的,所述计算机程序52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序52在所述基于单目相机的物体位姿估计设备5中的执行过程。例如,所述计算机程序52可以被分割成特征提取单元、匹配单元、聚类单元、位姿获取单元和位姿合并单元,各单元具体功能如下:
特征提取单元,用于通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
匹配单元,用于根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
聚类单元,用于根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
位姿获取单元,用于通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
位姿合并单元,用于根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
所述基于单目相机的物体位姿估计设备5可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述基于单目相机的物体位姿估计设备可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是基于单目相机的物体位姿估计设备5的示例,并不构成对基于单目相机的物体位姿估计设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述基于单目相机的物体位姿估计设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述基于单目相机的物体位姿估计设备5的内部存储单元,例如基于单目相机的物体位姿估计设备5的硬盘或内存。所述存储器51也可以是所述基于单目相机的物体位姿估计设备5的外部存储设备,例如所述基于单目相机的物体位姿估计设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述基于单目相机的物体位姿估计设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述基于单目相机的物体位姿估计设备所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种基于单目相机的物体位姿估计方法,其特征在于,所述基于单目相机的物体位姿估计方法包括:
通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
2.根据权利要求1所述的基于单目相机的物体位姿估计方法,其特征在于,在所述根据位姿的相似性将集合中的位姿合并,得到场景中物体的位姿的步骤之前,所述方法还包括:
调整聚类阈值,对位姿集合中的位姿再次进行聚类,得到物体对应的、由多个特征点构成的第二子集;
通过拟合算法获取第二子集所对应的位姿,由多个位姿构成第二位姿集合;
反复上述聚类和拟合步骤,直到达到最大拟合次数或者没有再次聚类的特征点。
3.根据权利要求1或2所述的基于单目相机的物体位姿估计方法,其特征在于,在所述提取所采集的图像中的特征点和特征描述子的步骤之前,所述方法还包括:
获取单目相机的内参数和/或畸变系数;
根据所获取的内参数和/或畸变系数,消除所采集的图像的畸变。
4.根据权利要求1或2所述的基于单目相机的物体位姿估计方法,其特征在于,所述根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集的步骤包括:
根据均值漂移meansift算法对图像中的匹配点进行聚类运算,获取多个匹配的特征点构成的第一子集。
5.根据权利要求1或2所述的基于单目相机的物体位姿估计方法,其特征在于,所述通过拟合算法获取第一子集所对应的位姿的步骤包括:
通过随机一致性采样RANSAC算法,对每个第一子集中的特征点进行迭代优化,获取与预设模型拟合的特征点最多时所对应的特征点;
根据拟合的特征点最多时的特征点确定所述第一子集对应的物体的位姿。
6.根据权利要求1或2所述的基于单目相机的物体位姿估计方法,其特征在于,在所述根据所述特征描述子将所述特征点与预设的模型进行匹配的步骤之前,所述方法还包括:
对物体进行360度环绕拍照,得到物体的连贯图像序列;
根据相机的内参数和畸变系数对图像序列进行消畸变处理;
提取畸变处理后的所述图像序列中的特征点及其对应的特征描述子;
基于运动重构SFM算法,建立物体的稀疏三维点云模型,保存三维点云模型中的三维点及其对应的特征描述子。
7.根据权利要求6所述的基于单目相机的物体位姿估计方法,其特征在于,在所述得到物体的连贯图像序列的步骤之后,所述方法还包括:
获取图像序列中该物体的掩膜MASK区域;
提取所述掩膜MASK区域的特征点及其对应的特征描述子;
在基于运动重构SFM算法,建立物体的稀疏三维点云模型后,保存MASK区域的三维点及其对应的特征描述子。
8.一种基于单目相机的物体位姿估计装置,其特征在于,所述基于单目相机的物体位姿估计装置包括:
特征提取单元,用于通过单目相机采集图像,提取所采集的图像中的特征点和特征描述子;
匹配单元,用于根据所述特征描述子将所述特征点与预设的模型进行匹配,得到与预设模型匹配的匹配点;
聚类单元,用于根据匹配点的位置进行聚类运算,生成与物体对应的、由多个特征点构成的第一子集;
位姿获取单元,用于通过拟合算法获取第一子集所对应的位姿,由多个位姿构成第一位姿集合;
位姿合并单元,用于根据位姿的相似性将第一位姿集合中的位姿合并,得到场景中物体的位姿。
9.一种基于单目相机的物体位姿估计设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述基于单目相机的物体位姿估计方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于单目相机的物体位姿估计方法的步骤。
CN201811326687.2A 2018-11-08 2018-11-08 一种基于单目相机的物体位姿估计方法、装置及设备 Active CN111161348B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811326687.2A CN111161348B (zh) 2018-11-08 2018-11-08 一种基于单目相机的物体位姿估计方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811326687.2A CN111161348B (zh) 2018-11-08 2018-11-08 一种基于单目相机的物体位姿估计方法、装置及设备

Publications (2)

Publication Number Publication Date
CN111161348A true CN111161348A (zh) 2020-05-15
CN111161348B CN111161348B (zh) 2023-12-05

Family

ID=70554937

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811326687.2A Active CN111161348B (zh) 2018-11-08 2018-11-08 一种基于单目相机的物体位姿估计方法、装置及设备

Country Status (1)

Country Link
CN (1) CN111161348B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113393522A (zh) * 2021-05-27 2021-09-14 湖南大学 一种基于单目rgb相机回归深度信息的6d位姿估计方法
CN114536399A (zh) * 2022-01-07 2022-05-27 中国人民解放军海军军医大学第一附属医院 基于多个位姿标识的误差检测方法及机器人系统
CN115115847A (zh) * 2022-08-31 2022-09-27 海纳云物联科技有限公司 三维稀疏重建方法、装置及电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080152218A1 (en) * 2006-10-27 2008-06-26 Kabushiki Kaisha Toshiba Pose estimating device and pose estimating method
US20140092132A1 (en) * 2012-10-02 2014-04-03 Frida Issa Systems and methods for 3d pose estimation
US20160086336A1 (en) * 2014-09-19 2016-03-24 Qualcomm Incorporated System and method of pose estimation
CN108416840A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN108648215A (zh) * 2018-06-22 2018-10-12 南京邮电大学 基于imu的slam运动模糊位姿跟踪算法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080152218A1 (en) * 2006-10-27 2008-06-26 Kabushiki Kaisha Toshiba Pose estimating device and pose estimating method
US20140092132A1 (en) * 2012-10-02 2014-04-03 Frida Issa Systems and methods for 3d pose estimation
US20160086336A1 (en) * 2014-09-19 2016-03-24 Qualcomm Incorporated System and method of pose estimation
CN108416840A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN108648215A (zh) * 2018-06-22 2018-10-12 南京邮电大学 基于imu的slam运动模糊位姿跟踪算法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113393522A (zh) * 2021-05-27 2021-09-14 湖南大学 一种基于单目rgb相机回归深度信息的6d位姿估计方法
CN114536399A (zh) * 2022-01-07 2022-05-27 中国人民解放军海军军医大学第一附属医院 基于多个位姿标识的误差检测方法及机器人系统
CN114536399B (zh) * 2022-01-07 2023-04-25 中国人民解放军海军军医大学第一附属医院 基于多个位姿标识的误差检测方法及机器人系统
CN115115847A (zh) * 2022-08-31 2022-09-27 海纳云物联科技有限公司 三维稀疏重建方法、装置及电子装置
CN115115847B (zh) * 2022-08-31 2022-12-16 海纳云物联科技有限公司 三维稀疏重建方法、装置及电子装置

Also Published As

Publication number Publication date
CN111161348B (zh) 2023-12-05

Similar Documents

Publication Publication Date Title
CN109753885B (zh) 一种目标检测方法、装置以及行人检测方法、系统
CN109543489B (zh) 基于二维码的定位方法、装置和存储介质
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN112581629A (zh) 增强现实显示方法、装置、电子设备及存储介质
CN108711144B (zh) 增强现实方法及装置
CN114331951B (zh) 图像检测方法、装置、计算机、可读存储介质及程序产品
CN110930411B (zh) 一种基于深度相机的人体分割方法及系统
CN111524168A (zh) 点云数据的配准方法、系统、装置及计算机存储介质
CN111161348B (zh) 一种基于单目相机的物体位姿估计方法、装置及设备
CN112328715A (zh) 视觉定位方法及相关模型的训练方法及相关装置、设备
CN112435193A (zh) 一种点云数据去噪的方法、装置、存储介质和电子设备
CN114627244A (zh) 三维重建方法及装置、电子设备、计算机可读介质
CN116433843A (zh) 基于双目视觉重建路线的三维模型重建方法及装置
CN111145196A (zh) 图像分割方法、装置及服务器
CN113570725A (zh) 基于聚类的三维表面重建方法、装置、服务器及存储介质
KR102421604B1 (ko) 이미지 처리 방법, 장치 및 전자 기기
CN110673607A (zh) 动态场景下的特征点提取方法、装置、及终端设备
CN114758145A (zh) 一种图像脱敏方法、装置、电子设备及存储介质
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
CN118115659A (zh) 多视图三维重建方法、装置、电子设备及存储介质
CN112800806A (zh) 物体位姿检测追踪方法、装置、电子设备及存储介质
CN109816709B (zh) 基于单目摄像头的深度估计方法、装置及设备
CN113570667B (zh) 视觉惯导补偿方法、装置及存储介质
CN116402867A (zh) 融合sift和ransac的三维重建图像对齐的方法
CN107704819B (zh) 一种动作识别方法、系统及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant