CN110264509A - 确定图像捕捉设备的位姿的方法、装置及其存储介质 - Google Patents
确定图像捕捉设备的位姿的方法、装置及其存储介质 Download PDFInfo
- Publication number
- CN110264509A CN110264509A CN201810393076.3A CN201810393076A CN110264509A CN 110264509 A CN110264509 A CN 110264509A CN 201810393076 A CN201810393076 A CN 201810393076A CN 110264509 A CN110264509 A CN 110264509A
- Authority
- CN
- China
- Prior art keywords
- image
- location information
- frame image
- characteristic point
- matching characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本公开提出在单目视觉SLAM系统中应用的确定图像捕捉设备的位姿的方法、装置和存储介质。该方法使用图像捕捉设备获取多帧图像;提取图像中的多个匹配特征点以及每个所述匹配特征点在每帧图像中的第一位置信息;使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息;基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿。本公开的方案用于克服现有的单目视觉SLAM系统在初始化过程中对图像捕捉设备的运动要求较高而无法快速有效确定图像捕捉设备的位姿而完成初始化的缺陷,用户体验良好、快速稳健,能够在系统启动后获取第一帧图像时就提供完整SLAM功能。
Description
技术领域
本公开涉及定位方法,特别地,涉及在单目视觉SLAM(SimultaneousLocalization And Mapping,即时定位与同步地图构建)系统中应用的确定图像捕捉设备的位姿的方法、装置、存储介质及其电子设备。
背景技术
增强现实(Augmented Reality,AR)是将虚拟物体叠加在真实场景中并加以显示、交互的系统。目前,SLAM是AR系统的核心技术,其能够使AR系统在未知的场景中获得场景的三维结构信息和系统在场景中的位置和姿态。单目视觉SLAM系统是只使用一个摄像头提供的视觉图像信息完成SLAM功能的系统,手机等移动设备是单目视觉SLAM硬件系统的一个示例。
单目视觉SLAM系统启动后要进行初始化过程,即重建局部场景的结构、确定场景尺度、确定系统初始的位置和朝向等。在初始化过程中SLAM系统启动后根据最初的视觉、传感器信息,重建出场景的初始三维结构并估计相机的初始位置和姿态。
SLAM系统通常使用三维重建SfM(Structure from Motion)技术,该技术要求对同一个场景有至少两幅视差变化较大的图像,以便利用极线几何关系重建场景结构和恢复相机运动。这需要用户按照一定的要求移动设备,对用户的操作依赖性很大。未经训练的用户可能会花费很长时间移动设备也无法提供两帧满足要求的图像,导致SLAM系统无法启动。
当场景中物体的相对深度差远小于场景到相机的距离的时候,场景可以近似看作是平面。单应矩阵(Homography Matrix,H矩阵)是描述平面场景在两幅图像中的变换关系,分解单应矩阵也可以获得相机在拍摄两幅图像时的运动。但是,该情况适合当相机间的运动幅度较小时,两幅图像的视差很小,不能有效地分辨场景的深度信息的情况,系统运行时间增加或设备运动距离增大后重建的场景结构和估计的相机运动会变得越来越不准确,限制了系统的应用范围。上述两种方案都需要用户移动AR系统的相机或摄像头,存在局限性。
因此,存在对现有的单目视觉SLAM系统在初始化过程中确定图像捕捉设备的位姿进行改进的需求。
发明内容
本公开的目的在于克服现有的单目视觉SLAM系统在初始化过程中对图像捕捉设备的运动要求较高而无法快速有效确定图像捕捉设备的位姿而完成初始化的缺陷,不需要强制用户按照特定方式移动设备。
根据本公开的一方面,提出一种用于确定图像捕捉设备的位姿的方法,包括:
使用图像捕捉设备获取多帧图像;
提取图像中的多个匹配特征点以及每个所述匹配特征点在每帧图像中的第一位置信息;
使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息;
基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿。
根据本公开的实施例,提取图像中的多个匹配特征点以及每个所述匹配特征点在每帧图像中的第一位置信息包括:获取每个所述匹配特征点在每帧图像中的所述第一位置信息的二维位置信息;通过所述图像捕捉设备的内部参数矩阵将所述第一位置信息的二维位置信息变换为所述第一位置信息的三维位置信息,其中所述第一位置的三维位置信息包括场景的深度信息。
根据本公开的实施例,如果当前帧图像为第一帧图像,在使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息之前,所述方法还包括:初始化每个所述匹配特征点在当前帧图像中的第一位置信息的三维位置信息;基于所述第一位置信息的三维位置信息的初始化信息,通过单应矩阵变换确定所述图像捕捉设备的初始位姿。
根据本公开的实施例,使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息包括:基于所述内部参数矩阵以及所述图像捕捉设备在获取上一帧图像到获取当前帧图像过程中的运动参数矩阵,将每个所述匹配特征点在上一帧图像中的所述第一位置信息的二维位置信息转换为每个所述匹配特征点在当前帧图像中的第二位置信息的二维位置信息,其中所述运动参数矩阵包括所述图像捕捉设备的旋转矩阵和位移向量,所述旋转矩阵表征所述图像捕捉设备的位姿中的姿态信息,所述位移向量表征所述图像捕捉设备的位姿中的位置信息。
根据本公开的实施例,基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿包括:计算在每个所述匹配特征点在当前帧图像中的第一位置信息中的二维位置信息与每个所述匹配特征点在当前帧图像中的第二位置信息的二维位置信息之间的差异值,通过使所述差异值最优化估计所述运动参数矩阵和每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息;基于求解后的所述运动参数矩阵中旋转矩阵和位移向量更新所述图像捕捉设备在捕捉当前帧图像时的位姿。
根据本公开的实施例,每个所述匹配特征点在当前帧图像中的第二位置信息的二维位置信息为所述匹配特征点在上一帧图像中提取的第一位置信息的二维位置在当前帧图像上的投影,通过使所述差异值最优化估计所述运动参数矩阵和每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息还包括:在每个所述匹配特征点在当前帧图像中的第一位置信息的二维位置信息与所述投影之间的差值平方和最小化时,求解所述运动参数矩阵和所述匹配特征点在当前帧图像中的第一位置信息的三维位置信息。
根据本公开的实施例,基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿还包括:在对于当前匹配特征点与上一个匹配特征点确定的所述图像捕捉设备的位姿相同时,所述位姿为所述图像捕捉设备的最终位姿。
根据本公开的另一方面,提出一种用于确定图像捕捉设备的位姿的装置,包括:
特征提取和匹配单元,设置为从所述图像捕捉设备获取的多帧图像中提取多个匹配特征点以及所述每个匹配特征点在每帧图像中的第一位置信息;
局部光束平差优化单元,设置为使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息,以及基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿。
根据本公开的实施例,该装置还包括:单应矩阵变换单元,设置为如果当前帧图像为第一帧图像,初始化每个所述匹配特征点在当前帧图像中的第一位置信息的三维位置信息,以及基于所述第一位置信息的三维位置信息的初始化信息,通过单应矩阵变换确定所述图像捕捉设备的初始位姿。
根据本公开的实施例,该装置还包括:图像处理单元,设置为消除图像的畸变和模糊。
根据本公开的实施例,该装置还包括:地图管理模块,设置为基于所述图像和所述图像捕捉设备的位姿生成三维地图信息。
根据本公开的又一方面,提出一种计算机可读存储介质,其上存储有计算机程序,该计算机程序包括可执行指令,当该可执行指令被处理器执行时,实施如上所述的方法。
根据本公开的再一方面,提出一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器设置为执行所述可执行指令以实施如上所述的方法。
通过采用本公开提出的确定图像捕捉设备的位姿的方法、装置、存储介质及其电子设备,在最开始的两帧图像间假设场景满足单应矩阵的要求,通过分解单应矩阵获得场景的深度和相机的位姿。在后续的每帧图像中,通过一个局部的光束平差(BundleAdjustment,BA)最优化问题更新初始场景中的特征点深度信息,并更新该帧图像时刻的相机位姿。该方案用户体验良好、快速稳健,能够在系统启动后获取第一帧图像时就提供完整SLAM功能,并且会自动根据用户的运动不断地优化场景结构,同时还可以输出可供SfM算法利用的多幅图像,不需要强制用户按特定方式移动设备,从第一帧图像开始就能够为AR系统提供一致的、平稳的、可靠的SLAM功能。
附图说明
通过参照附图详细描述其示例性实施例,本公开的上述和其它特征及优点将变得更加明显。
图1是根据本公开实施例的使用移动设备作为单目视觉SLAM系统的应用场景示意图;
图2是分别使用基础矩阵、单应矩阵和本公开实施例的方案进行单目视觉SLAM系统初始化的图像捕捉对比图;
图3是根据本公开实施例的进行单目视觉SLAM系统初始化的示意图;
图4是根据本公开实施例的确定图像捕捉设备的位姿的方法的流程图;
图5是根据本公开另一实施例的确定图像捕捉设备的位姿的方法的流程图;
图6是根据本公开实施例的提取图像中的多个匹配特征点及其第一位置信息的具体流程;
图7是根据本公开实施例的使用上一帧图像中提取的匹配特征点的第一位置信息估计在当前帧图像中的第二位置信息的具体流程;
图8是根据本公开实施例的基于每个匹配特征点的第一位置信息和第二位置信息确定图像捕捉设备的位姿的具体流程;
图9是根据本公开实施例的使差异值最优化估计运动参数矩阵和每个匹配特征点的第一位置信息的具体流程;
图10是根据本公开另一实施例的基于每个匹配特征点的第一位置信息和第二位置信息确定图像捕捉设备的位姿的具体流程;
图11是根据本公开实施例的确定图像捕捉设备的位姿的装置的结构框图;
图12是根据本公开另一实施例的确定图像捕捉设备的位姿的装置的结构框图;
图13是根据本公开又一实施例的确定图像捕捉设备的位姿的装置的结构框图;
图14是根据本公开再一实施例的确定图像捕捉设备的位姿的装置的结构框图;以及
图15为根据本公开实施例的一种电子设备的示意框图。
具体实施方式
现在将参考附图更全面地描述示例性实施例。然而,示例性实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施方式;相反,提供这些实施方式使得本公开将全面和完整,并将示例性实施例的构思全面地传达给本领域的技术人员。在图中,为了清晰,可能会夸大部分元件的尺寸或加以变形。在图中相同的附图标记表示相同或类似的结构,因而将省略它们的详细描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有所述特定细节中的一个或更多,或者可以采用其它的方法、元件等。在其它情况下,不详细示出或描述公知结构、方法或者操作以避免模糊本公开的各方面。
图1示出根据本公开实施例的一种采用诸如手机等的移动设备作为单目视觉SLAM系统的应用场景示意图。移动设备例如但不限于手机、个人数字助理、平板电脑等。在使用智能手机的AR游戏中,用户通过手102操纵智能手机101的屏幕进行AR游戏。在手机屏幕上,虚拟物体105在现实3D场景103和104中固定在某处或者在某个桌子上跳舞,而不会随着用户手机的移动而移动。3D场景103和104为智能手机101移动时,通过手机101的图像捕捉设备(例如,前置或后置相机和摄像头)获取的视差较大的两帧图像。因此,本公开实施例的方法和装置主要在配备有图像捕捉设备的终端上应用。
图2示出分别使用基础矩阵、单应矩阵和本公开实施例的方案进行单目视觉SLAM系统初始化的图像捕捉对比图。
场景201示出采用基础矩阵(Fundamental Matrix,F矩阵)进行单目视觉SLAM系统初始化的情况。现有的单目视觉SLAM系统(如PTAM、ORB-SLAM等)的初始化均是基于极线几何原理的。若同一个场景的三维点在两帧不同图像上分别有成像,那么三维点、两帧图像上的像点,以及拍摄这两帧图像时图像捕捉设备的中心,是位于同一个空间平面上的。基础矩阵是描述极线几何关系的数学表达,通过至少8对对应特征点的图像坐标可以估计出两帧图像间图像捕捉设备的运动信息,进而通过三角化算法可以求解其他对应特征点的三维场景点的坐标。这样就实现了系统初始化过程。
通过基础矩阵来初始化系统要求输入的两帧图像间有较大的移动,仅有旋转运动的图像往往会导致初始化失败。现有方案会要求用户在某个时刻点击屏幕开始触发SLAM系统初始化过程,要求用户移动设备使得当前帧图像相对于点击时刻的图像有足够的视差,当用户有足够多的移动运动时,SLAM系统就获得了所需的两帧初始化图像,通过SfM技术完成初始化过程。但是,这种方案对用户的操作依赖性很大,未经培训的用户可能无法按照要求运动,使得SLAM系统无法启动。
应注意到,当场景中物体的相对深度差远小于场景到图像捕捉设备的距离的时候,场景可以近似看作是平面。单应矩阵描述平面场景在两帧图像中的变换关系,通过分解单应矩阵也可以获得图像捕捉设备在拍摄两帧图像时的运动情况。图2的场景202则示出采用单应矩阵进行单目视觉SLAM系统的初始化的情况。另外,当图像捕捉设备的运动幅度较小时,两帧图像的视差很小,仅简单使用单应矩阵变换不能有效地分辨场景的深度信息,此时可以通过单应矩阵变换来描述图像捕捉设备的运动。但是,该方案也要求用户进行较大幅度的运动,从而通过单应变换获得具有不同视差的图像。
针对上述情况,本公开的实施例提出在图像捕捉设备所获得的最开始的两帧图像间假设场景满足单应矩阵的要求,通过分解单应矩阵获得场景的深度和相机的位姿,对应于图2中场景203所示的情况。在后续的每帧中,通过一个局部的光束平差(BundleAdjustment,BA)最优化问题更新初始场景中的特征点深度信息,并更新获取该帧图像时刻的图像捕捉设备的位姿。该方案能够在系统启动后获取第一帧图像时就提供完整SLAM功能,并且会自动根据用户的运动不断地优化场景结构,同时还可以输出可供SfM算法利用的多幅图像,不需要强制用户按特定方式移动设备。
图3示出根据本公开实施例的SLAM系统初始化过程的示意图。
图像捕捉设备301获取多帧图像302后,图像处理模块将图像302进行消除畸变和模糊处理。经过特征提取和匹配,从图像302获得多个匹配特征点303。系统的数据库(DB)304存储上述图像信息和匹配特征点信息,并提供给服务器305。服务器305具有单应矩阵变换和局部BA优化功能,通过运行上述功能,服务器305获得场景的三维地图信息和图像捕捉设备301的位姿信息306。
下文将详细介绍本公开实施例的用于在SLAM系统初始化过程中确定图像捕捉设备的位姿的方法和装置。
图4示出根据本公开实施例的图像捕捉设备的位姿的方法,该方法包括如下步骤:
S100:使用图像捕捉设备获取多帧图像;
S200:提取图像中的多个匹配特征点以及每个匹配特征点在每帧图像中的第一位置信息;
S300:使用每个匹配特征点在上一帧图像中提取的第一位置信息估计每个匹配特征点在当前帧图像中的第二位置信息;
S400:基于每个匹配特征点在当前帧图像中的第一位置信息和第二位置信息确定图像捕捉设备的位姿。
首先,SLAM系统使用图像捕捉设备捕捉多帧图像。
然后,在每帧图像到来的时候执行特征提取和匹配。特征提取可以用不同的算法,如Harris Corner、FAST、SIFT、SURF、ORB等。通常在提取完特征点后还会生成该特征点的描述子用来区分不同的特征点。在3D真实场景所捕捉的多帧图像中提取多个特征点,第i个特征点的图像坐标为{ui,vi+,对应的三维场景点的齐次坐标为{xi,yi,1,wi}。这里为了简化运算使用逆深度w代替z坐标(w=1/z),即场景点深度的倒数。
特征匹配会在相邻的两帧图像之间执行,特征匹配算法可以使用光流跟踪或根据特征点的描述子的相似程度进行匹配。经过特征提取和特征匹配之后,图像信息转化为匹配特征点的第一位置信息。
根据图5所示,本公开实施例的图像捕捉设备的位姿的方法还包括在当前帧图像为第一帧图像时,执行初始化步骤:
S500:初始化每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息;以及基于第一位置信息的三维位置信息的初始化信息,通过单应矩阵变换确定图像捕捉设备的初始位姿。
此时,系统会将提取到的第i个匹配特征点所对应的空间三维点的逆深度形式表示的描述子初始化为pi={xi,yi,1,wi+,图像捕捉设备的初始位姿为其中I为单位阵。
在初始化后,流程重新执行步骤S200。如果当前帧图像不是第一帧图像,则从步骤S200后直接执行步骤S300。
根据图6所示的本公开的实施例,步骤S200进一步包括如下步骤:
S210:获取每个匹配特征点在每帧图像中的第一位置信息的二维位置信息;
S220:通过图像捕捉设备的内部参数矩阵将第一位置信息的二维位置信息变换为第一位置信息的三维位置信息,其中第一位置的三维位置信息包括场景的深度信息。
假设采用针孔相机成像模型,图像捕捉设备的内部参数矩阵为其中fx和fy分别为图像捕捉设备在x轴和y轴的焦距,cx和cy分别为图像捕捉设备的主光轴在成像平面上的交点坐标(光心)。
设某个匹配特征点在图像上的坐标为pi={ui,vi+,其中u和v分别为第i个匹配特征点在该帧图像上的u,v轴坐标。
则在步骤S220中,可将该匹配特征点pi对应的场景中的三维点的坐标,即三维位置信息,用逆深度表示为pi={xi,yi,1,wi+,则有:
这样在一帧图像中,匹配特征点就可以只用一个参数,即逆深度wi来描述。
图7示出根据本公开实施例的使用上一帧图像中提取的匹配特征点的第一位置信息估计在当前帧图像中的第二位置信息的具体步骤,包括:
S310:基于内部参数矩阵以及图像捕捉设备在获取上一帧图像到获取当前帧图像过程中的运动参数矩阵,将每个匹配特征点在上一帧图像中的第一位置信息的二维位置信息转换为所述匹配特征点在当前帧图像中的第二位置信息的二维位置信息,
其中运动参数矩阵包括图像捕捉设备的旋转矩阵和位移向量,旋转矩阵表征图像捕捉设备的位姿中的姿态信息,位移向量表征图像捕捉设备的位姿中的位置信息。
通常系统启动后的前几帧图像基本相同,此时可以用单应矩阵H估计和分解来求解图像捕捉设备的位姿。
单应矩阵H描述平面场景在图像捕捉设备的不同视角下的变换关系,记一前一后相邻的第m帧和第n帧两帧图像上的匹配特征点分别为则有:
而根据针孔相机成像关系,有:
其中,R为3×3阶图像捕捉设备的旋转矩阵,对应于图像捕捉设备的三个光轴的三个旋转自由度,而t为3×1阶位移向量,对应于图像捕捉设备在三维空间中的三个坐标。
对比公式(2)和(3),可知:
因而可以首先根据至少4对匹配特征点的像素坐标计算出两帧图像间的单应矩阵H,然后通过矩阵分解得到图像捕捉设备在两帧图像间的运动参数矩阵Tmn=H。
图8示出根据本公开实施例的基于所述匹配特征点在当前帧图像中的第一位置信息和第二位置信息确定图像捕捉设备的位姿的具体步骤,包括:
S410:计算在每个匹配特征点在当前帧图像中的第一位置信息中的二维位置信息与每个匹配特征点在当前帧图像中的第二位置信息的二维位置信息之间的差异值;
S420:通过使差异值最优化估计运动参数矩阵和每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息;
S430:基于求解后的运动参数矩阵中旋转矩阵和位移向量更新图像捕捉设备在捕捉当前帧图像时的位姿。
系统通过构建并求解下面的最优化问题,求解得到匹配特征点的逆深度描述子的参数以及图像捕捉设备的运动参数矩阵的更新值。
设前后两帧图像为Im和In,两帧图像中的第i个匹配特征点在两帧中的二维位置信息分别为和该匹配特征点对应的场景中的三维点的三维坐标信息为和两帧图像间的运动参数矩阵为则有:
其中,Rmn为3×3阶旋转矩阵,tmn为3×1阶位移向量。
转换到图像的二维坐标系下,有:
经变换,得到:
上式描述了同一个匹配特征点所对应的三维空间点在图像捕捉设备的运动参数矩阵下从Im到In投影的关系。实际上,公式(7)中的投影关系也表示当从第m帧图像到第n帧图像时,使用第i个匹配特征点在第m帧图像中提取的第一位置信息的二维位置信息估计该匹配特征点在第n帧图像中的第二位置信息的二维位置信息。
在本文中,第一位置信息为从图像中提取的匹配特征点的坐标信息,当以图像平面的二维空间表示时,第一位置信息为的形式,当以三维空间表示时,该第一位置信息为的形式。而第二位置信息为采用该匹配特征点在从前一帧图像中提取的第一位置信息估计的位置信息。
在实际应用中,由于误差以及镜头畸变等影响,在图像In上提取的匹配特征点坐标和投影坐标不一致。上述估计位置信息的最优化目标为使在图像In上提取的第一位置信息与以图像Im中提取的第一位置信息估计的第二位置信息之间尽可能保持一致,即第一位置信息和第二位置信息的差值平方值尽可能小。对两帧的所有匹配特征点,构造下面的问题
R,t,wi=argmin∑i|M′i-proj(R,t,Mi,wi)|2 (8)
其中M′i是第i个匹配特征点在当前帧图像进行特征提取得到的坐标,Mi是第i个匹配特征点在上一帧图像进行特征提取得到的坐标,是投影函数。
因此,根据图9所示的根据本公开实施例的方法中,每个匹配特征点在当前帧图像中的第二位置信息的二维位置信息为匹配特征点在上一帧图像中提取的第一位置信息的二维位置在当前帧图像上的投影,则步骤S420还包括步骤:
S421:在每个匹配特征点在当前帧图像中的第一位置信息的二维位置信息与投影之间的差值平方和最小化时,求解运动参数矩阵和匹配特征点在当前帧图像中的第一位置信息的三维位置信息。
上述的最优化过程可以通过高斯牛顿迭代求解。当图像捕捉设备实际运动较小的时候,匹配特征点的逆深度wi在迭代过程的雅可比矩阵退化为0,从而导致迭代过程不稳定而无法获得精确的逆深度优化解。因此在每次迭代时,测试每个匹配特征点的运动参数矩阵大小。如果该运动参数矩阵太小,那么将匹配特征点的雅可比变化值设为0。迭代过程以前后两次迭代结果插值小于给定的阈值或迭代次数达到给定值时结束。
图10示出根据本公开另一实施例的基于每个匹配特征点的第一位置信息和第二位置信息确定图像捕捉设备的位姿的具体流程,其中相比图7所示的方法,还包括如下步骤:
S440:在对于当前匹配特征点与上一个匹配特征点确定的图像捕捉设备的位姿相同时,位姿为图像捕捉设备的最终位姿。
当某次最优化求解结果使得没有需要更新的匹配特征点的时候,即两次匹配特征点的上述最优化问题求解得出的图像捕捉设备的运动参数矩阵中的旋转矩阵R和位移向量t、以及逆深度wi相同时,初始化过程完成,初始场景中的匹配特征点的三维坐标即为当前帧图像的求解结果,图像捕捉设备的位置和姿态即为最终位姿。除此之外,可以将第一帧图像和当前帧图像作为SLAM初始化过程的输入图像,通过求解基础矩阵并通过三角化重建三维场景来完成SLAM的初始化过程。
在整个初始化过程中,根据本公开实施例的方法不需要任何用户的特殊运动,只要在初始化过程中始终能看到第一帧图像的某些部分,该初始化方法就可以输出一贯连续的图像捕捉设备的位姿和三维场景结构和三维地图信息,从而使单目视觉SLAM应用在第一帧就可以执行渲染、交互等功能。
该方法用户体验良好、快速稳健,能够在系统启动后获取第一帧图像时就提供完整SLAM功能,并且会自动根据用户的运动不断地优化场景结构,同时还可以输出可供SfM算法利用的多幅图像,不需要强制用户按特定方式移动设备,从第一帧图像开始就能够为AR系统提供一致的、平稳的、可靠的SLAM功能。而且上述方法能够有效地筛选出合适的两帧图像,并且在此过程中持续为用户提供完整的、连续的SLAM功能,极大地增加用户使用单目SLAM系统的成功率,提高应用的用户粘滞性。
作为替代,还可以采用通常的xyz三参数表示方式取代逆深度w表示方案。也可以采用不同的最优化求解算法,引入其它传感器,例如双目摄像机,IMU传感器等,融合视觉和传感器信息替代最优化问题的求解。
现在介绍根据本公开实施例的应用于单目视觉SLAM系统的初始化过程中的确定图像捕捉设备的位姿的装置。
图11示出根据本公开实施例的确定图像捕捉设备的位姿的装置的结构框图。
确定图像捕捉设备的位姿的装置1100包括特征提取和匹配单元1101和局部光束平差优化单元1102。特征提取和匹配单元1101设置为从图像捕捉设备1110获取的多帧图像中提取多个匹配特征点以及每个匹配特征点在每帧图像中的第一位置信息。局部光束平差优化单元1102设置为使用每个匹配特征点在上一帧图像中提取的第一位置信息估计每个匹配特征点在当前帧图像中的第二位置信息,以及基于每个匹配特征点在当前帧图像中的第一位置信息和第二位置信息确定图像捕捉设备的位姿。
根据本公开的实施例,特征提取和匹配单元1101还设置为获取每个匹配特征点在每帧图像中的第一位置信息的二维位置信息;通过图像捕捉设备的内部参数矩阵将第一位置信息的二维位置信息变换为第一位置信息的三维位置信息,其中第一位置的三维位置信息包括场景的深度信息。
根据本公开的实施例,局部光束平差优化单元1102还设置为基于参数矩阵以及图像捕捉设备在获取上一帧图像到获取当前帧图像过程中的运动参数矩阵,将每个匹配特征点在上一帧图像中的第一位置信息的二维位置信息转换为每个匹配特征点在当前帧图像中的第二位置信息的二维位置信息,其中运动参数矩阵包括图像捕捉设备的旋转矩阵和位移向量,旋转矩阵表征图像捕捉设备的位姿中的姿态信息,位移向量表征图像捕捉设备的位姿中的位置信息。
根据本公开的实施例,局部光束平差优化单元1102还设置为计算在每个匹配特征点在当前帧图像中的第一位置信息中的二维位置信息与每个匹配特征点在当前帧图像中的第二位置信息的二维位置信息之间的差异值,通过使差异值最优化估计运动参数矩阵和每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息;基于求解后的运动参数矩阵中旋转矩阵和位移向量更新图像捕捉设备在捕捉当前帧图像时的位姿。
根据本公开的实施例,每个匹配特征点在当前帧图像中的第二位置信息的二维位置信息为匹配特征点在上一帧图像中提取的第一位置信息的二维位置在当前帧图像上的投影,局部光束平差优化单元1102还设置为在每个匹配特征点在当前帧图像中的第一位置信息的二维位置信息与投影之间的差值平方和最小化时,求解运动参数矩阵和匹配特征点在当前帧图像中的第一位置信息的三维位置信息。
根据本公开的实施例,该局部光束平差优化单元1102还设置为在对于当前匹配特征点与上一个匹配特征点确定的图像捕捉设备的位姿相同时,该位姿为图像捕捉设备的最终位姿。
图12则示出根据本公开另一实施例的确定图像捕捉设备的位姿的装置的结构框图。相比图11,该装置还包括单应矩阵变换单元1103,设置为如果当前帧图像为第一帧图像,初始化每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息,以及基于第一位置信息的三维位置信息的初始化信息,通过单应矩阵变换确定图像捕捉设备的初始位姿。
图13示出根据又一实施例的确定图像捕捉设备的位姿的装置的结构框图。该装置还包括图像处理单元1104,设置为消除图像的畸变和模糊。
图14的装置则相比图13,进一步增加地图管理模块1105,设置为基于图像和图像捕捉设备的位姿生成三维地图信息。
本公开的用于单目视觉SLAM系统初始化过程中的确定图像捕捉设备的位姿的装置,在最开始的两帧图像间假设场景满足单应矩阵的要求,通过分解单应矩阵获得场景的深度和相机的位姿。在后续的每帧图像中,通过一个局部的光束平差最优化问题更新初始场景中的特征点深度信息,并更新该帧时刻的相机位姿,用户体验良好、快速稳健,能够在系统启动后获取第一帧图像时就提供完整SLAM功能,并且会自动根据用户的运动不断地优化场景结构,同时还可以输出可供SfM算法利用的多幅图像,不需要强制用户按特定方式移动设备,从第一帧图像开始就能够为AR系统提供一致的、平稳的、可靠的SLAM功能。而且上述方法能够有效地筛选出合适的两帧图像,并且在此过程中持续为用户提供完整的、连续的SLAM功能,极大地增加用户使用单目SLAM系统的成功率,提高应用的用户粘滞性。
应当注意,尽管在上文详细描述中提及了确定图像捕捉设备的位姿的装置的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。作为模块或单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序包括可执行指令,该可执行指令被例如处理器执行时可以实现上述任意一个实施例中所述确定图像捕捉设备的位姿方法的步骤。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书确定图像捕捉设备的位姿方法中描述的根据本公开各种示例性实施例的步骤。
根据本公开的实施例的用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在本公开的示例性实施例中,还提供一种电子设备,该电子设备可以包括处理器,以及用于存储所述处理器的可执行指令的存储器。其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一个实施例中的确定图像捕捉设备的位姿方法的步骤。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图15来描述根据本公开的这种实施方式的电子设备1500。图15显示的电子设备1500仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图15所示,电子设备1500以通用计算设备的形式表现。电子设备1500的组件可以包括但不限于:至少一个处理单元1510、至少一个存储单元1520、连接不同系统组件(包括存储单元1520和处理单元1510)的总线1530、显示单元1540等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1510执行,使得所述处理单元1510执行本说明书用于确定图像捕捉设备的位姿方法中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元1510可以执行如图1至图7中所示的步骤。
所述存储单元1520可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)15201和/或高速缓存存储单元15202,还可以进一步包括只读存储单元(ROM)15203。
所述存储单元1520还可以包括具有一组(至少一个)程序模块15205的程序/实用工具15204,这样的程序模块15205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1530可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1500也可以与一个或多个外部设备1600(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1500交互的设备通信,和/或与使得该电子设备1500能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1550进行。并且,电子设备1500还可以通过网络适配器1560与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器1560可以通过总线1530与电子设备1500的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1500使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本公开实施方式的确定图像捕捉设备的位姿方法。
本公开已由上述相关实施例加以描述,然而上述实施例仅为实施本公开的范例。必需指出的是,已揭露的实施例并未限制本公开的范围。相反,在不脱离本公开的精神和范围内所作的变动与润饰,均属本公开的专利保护范围。
Claims (13)
1.一种用于确定图像捕捉设备的位姿的方法,其特征在于,包括:
使用图像捕捉设备获取多帧图像;
提取图像中的多个匹配特征点以及每个所述匹配特征点在每帧图像中的第一位置信息;
使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息;
基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿。
2.根据权利要求1所述的方法,其特征在于,提取图像中的多个匹配特征点以及每个所述匹配特征点在每帧图像中的第一位置信息包括:
获取每个所述匹配特征点在每帧图像中的所述第一位置信息的二维位置信息;
通过所述图像捕捉设备的内部参数矩阵将所述第一位置信息的二维位置信息变换为所述第一位置信息的三维位置信息,其中所述第一位置的三维位置信息包括场景的深度信息。
3.根据权利要求2所述的方法,其特征在于,如果当前帧图像为第一帧图像,在使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息之前,所述方法还包括:
初始化每个所述匹配特征点在当前帧图像中的第一位置信息的三维位置信息;
基于所述第一位置信息的三维位置信息的初始化信息,通过单应矩阵变换确定所述图像捕捉设备的初始位姿。
4.根据权利要求2所述的方法,其特征在于,使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息包括:
基于所述内部参数矩阵以及所述图像捕捉设备在获取上一帧图像到获取当前帧图像过程中的运动参数矩阵,将每个所述匹配特征点在上一帧图像中的所述第一位置信息的二维位置信息转换为每个所述匹配特征点在当前帧图像中的第二位置信息的二维位置信息,
其中所述运动参数矩阵包括所述图像捕捉设备的旋转矩阵和位移向量,所述旋转矩阵表征所述图像捕捉设备的位姿中的姿态信息,所述位移向量表征所述图像捕捉设备的位姿中的位置信息。
5.根据权利要求4所述的方法,其特征在于,基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿包括:
计算在每个所述匹配特征点在当前帧图像中的第一位置信息中的二维位置信息与每个所述匹配特征点在当前帧图像中的第二位置信息的二维位置信息之间的差异值,
通过使所述差异值最优化估计所述运动参数矩阵和每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息;
基于求解后的所述运动参数矩阵中旋转矩阵和位移向量更新所述图像捕捉设备在捕捉当前帧图像时的位姿。
6.根据权利要求5所述的方法,其特征在于,每个所述匹配特征点在当前帧图像中的第二位置信息的二维位置信息为所述匹配特征点在上一帧图像中提取的第一位置信息的二维位置在当前帧图像上的投影,通过使所述差异值最优化估计所述运动参数矩阵和每个匹配特征点在当前帧图像中的第一位置信息的三维位置信息还包括:
在每个所述匹配特征点在当前帧图像中的第一位置信息的二维位置信息与所述投影之间的差值平方和最小化时,求解所述运动参数矩阵和所述匹配特征点在当前帧图像中的第一位置信息的三维位置信息。
7.根据权利要求5所述的方法,其特征在于,基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿还包括:
在对于当前匹配特征点与上一个匹配特征点确定的所述图像捕捉设备的位姿相同时,所述位姿为所述图像捕捉设备的最终位姿。
8.一种用于确定图像捕捉设备的位姿的装置,其特征在于,包括:
特征提取和匹配单元,设置为从所述图像捕捉设备获取的多帧图像中提取多个匹配特征点以及所述每个匹配特征点在每帧图像中的第一位置信息;
局部光束平差优化单元,设置为使用每个所述匹配特征点在上一帧图像中提取的第一位置信息估计每个所述匹配特征点在当前帧图像中的第二位置信息,以及基于每个所述匹配特征点在当前帧图像中的所述第一位置信息和所述第二位置信息确定所述图像捕捉设备的位姿。
9.根据权利要求8所述的装置,其特征在于,还包括:
单应矩阵变换单元,设置为如果当前帧图像为第一帧图像,初始化每个所述匹配特征点在当前帧图像中的第一位置信息的三维位置信息,以及基于所述第一位置信息的三维位置信息的初始化信息,通过单应矩阵变换确定所述图像捕捉设备的初始位姿。
10.根据权利要求8所述的装置,其特征在于,还包括:
图像处理单元,设置为消除图像的畸变和模糊。
11.根据权利要求8所述的装置,其特征在于,还包括:
地图管理模块,设置为基于所述图像和所述图像捕捉设备的位姿生成三维地图信息。
12.一种计算机可读存储介质,其上存储有计算机程序,该计算机程序包括可执行指令,当该可执行指令被处理器执行时,实施如权利要求1至7中任一项所述的方法。
13.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器设置为执行所述可执行指令以实施如权利要求1至7中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810393076.3A CN110264509B (zh) | 2018-04-27 | 2018-04-27 | 确定图像捕捉设备的位姿的方法、装置及其存储介质 |
PCT/CN2019/079347 WO2019205852A1 (zh) | 2018-04-27 | 2019-03-22 | 确定图像捕捉设备的位姿的方法、装置及其存储介质 |
EP19793739.4A EP3786890B1 (en) | 2018-04-27 | 2019-03-22 | Method and apparatus for determining pose of image capture device, and storage medium therefor |
US16/940,148 US11270460B2 (en) | 2018-04-27 | 2020-07-27 | Method and apparatus for determining pose of image capturing device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810393076.3A CN110264509B (zh) | 2018-04-27 | 2018-04-27 | 确定图像捕捉设备的位姿的方法、装置及其存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110264509A true CN110264509A (zh) | 2019-09-20 |
CN110264509B CN110264509B (zh) | 2022-10-14 |
Family
ID=67911635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810393076.3A Active CN110264509B (zh) | 2018-04-27 | 2018-04-27 | 确定图像捕捉设备的位姿的方法、装置及其存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11270460B2 (zh) |
EP (1) | EP3786890B1 (zh) |
CN (1) | CN110264509B (zh) |
WO (1) | WO2019205852A1 (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706257A (zh) * | 2019-09-30 | 2020-01-17 | 北京迈格威科技有限公司 | 有效特征点对的识别方法、相机状态的确定方法及装置 |
CN111260726A (zh) * | 2020-02-07 | 2020-06-09 | 北京三快在线科技有限公司 | 一种视觉定位方法及装置 |
CN111563138A (zh) * | 2020-04-30 | 2020-08-21 | 浙江商汤科技开发有限公司 | 定位方法及装置、电子设备和存储介质 |
CN111882589A (zh) * | 2020-06-23 | 2020-11-03 | 广州万维创新科技有限公司 | 基于图像的单目视觉slam的初始化方法 |
CN111882605A (zh) * | 2020-06-30 | 2020-11-03 | 浙江大华技术股份有限公司 | 监控设备图像坐标转换方法、装置和计算机设备 |
CN111935644A (zh) * | 2020-08-10 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 一种基于融合信息的定位方法、装置及终端设备 |
CN112070833A (zh) * | 2020-08-07 | 2020-12-11 | 北京三快在线科技有限公司 | 招牌地图生成方法、装置和路径规划方法、装置 |
WO2021082801A1 (zh) * | 2019-10-31 | 2021-05-06 | Oppo广东移动通信有限公司 | 增强现实处理方法及装置、系统、存储介质和电子设备 |
CN112819889A (zh) * | 2020-12-30 | 2021-05-18 | 浙江大华技术股份有限公司 | 位置信息的确定方法及装置、存储介质、电子装置 |
CN112991441A (zh) * | 2019-12-12 | 2021-06-18 | 北京达佳互联信息技术有限公司 | 相机定位方法、装置、电子设备及存储介质 |
CN113066110A (zh) * | 2021-05-06 | 2021-07-02 | 北京爱康宜诚医疗器材有限公司 | 骨盆配准中标记点的选取方法和选取装置 |
CN113112542A (zh) * | 2021-03-25 | 2021-07-13 | 北京达佳互联信息技术有限公司 | 一种视觉定位方法、装置、电子设备及存储介质 |
CN113129366A (zh) * | 2020-01-10 | 2021-07-16 | 北京字节跳动网络技术有限公司 | 单目slam初始化方法、装置及电子设备 |
CN113658260A (zh) * | 2021-07-12 | 2021-11-16 | 南方科技大学 | 机器人位姿计算方法、系统、机器人及存储介质 |
WO2022022141A1 (zh) * | 2020-07-30 | 2022-02-03 | 腾讯科技(深圳)有限公司 | 图像显示方法、装置、计算机设备及存储介质 |
CN114998411A (zh) * | 2022-04-29 | 2022-09-02 | 中国科学院上海微系统与信息技术研究所 | 结合时空增强光度损失的自监督单目深度估计方法和装置 |
WO2022193508A1 (zh) * | 2021-03-16 | 2022-09-22 | 浙江商汤科技开发有限公司 | 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品 |
WO2022262152A1 (zh) * | 2021-06-18 | 2022-12-22 | 深圳市商汤科技有限公司 | 地图构建方法及装置、电子设备、存储介质和计算机程序产品 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020137313A1 (zh) * | 2018-12-28 | 2020-07-02 | ||
CN111724439B (zh) * | 2019-11-29 | 2024-05-17 | 中国科学院上海微系统与信息技术研究所 | 一种动态场景下的视觉定位方法及装置 |
CN111091621A (zh) * | 2019-12-11 | 2020-05-01 | 东南数字经济发展研究院 | 双目视觉的同步定位与构图方法、装置、设备及存储介质 |
US11023730B1 (en) * | 2020-01-02 | 2021-06-01 | International Business Machines Corporation | Fine-grained visual recognition in mobile augmented reality |
US11398048B2 (en) * | 2020-07-30 | 2022-07-26 | Apical Limited | Estimating camera pose |
CN112418322B (zh) * | 2020-11-24 | 2024-08-06 | 苏州爱医斯坦智能科技有限公司 | 影像数据处理方法、装置、电子设备及存储介质 |
CN112509047B (zh) * | 2020-12-10 | 2024-07-09 | 北京地平线信息技术有限公司 | 基于图像的位姿确定方法、装置、存储介质及电子设备 |
CN114119990B (zh) * | 2021-09-29 | 2023-10-27 | 北京百度网讯科技有限公司 | 用于图像特征点匹配的方法、装置及计算机程序产品 |
CN113963030B (zh) * | 2021-11-09 | 2024-10-25 | 福州大学 | 一种提高单目视觉初始化稳定性的方法 |
EP4191539A1 (en) * | 2021-12-02 | 2023-06-07 | Dimension Stream Labs AB | Method for performing volumetric reconstruction |
CN114998600B (zh) * | 2022-06-17 | 2023-07-25 | 北京百度网讯科技有限公司 | 图像处理方法、模型的训练方法、装置、设备及介质 |
CN118135159B (zh) * | 2024-05-06 | 2024-07-12 | 中国人民解放军国防科技大学 | 面向虚实协同训练的增强现实三维注册方法、装置及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140126769A1 (en) * | 2012-11-02 | 2014-05-08 | Qualcomm Incorporated | Fast initialization for monocular visual slam |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN104903934A (zh) * | 2013-01-03 | 2015-09-09 | 高通股份有限公司 | 基于前景物体再现扩增实境 |
CN105408937A (zh) * | 2013-05-02 | 2016-03-16 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
CN106296812A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 同步定位与建图方法 |
CN107610175A (zh) * | 2017-08-04 | 2018-01-19 | 华南理工大学 | 基于半直接法和滑动窗口优化的单目视觉slam算法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103826032B (zh) * | 2013-11-05 | 2017-03-15 | 四川长虹电器股份有限公司 | 深度图后期处理方法 |
JP6464934B2 (ja) * | 2015-06-11 | 2019-02-06 | 富士通株式会社 | カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム |
US10282861B2 (en) * | 2016-12-12 | 2019-05-07 | Here Global B.V. | Pose error estimation and localization using static features |
CN111094893A (zh) * | 2017-07-28 | 2020-05-01 | 高通股份有限公司 | 机器人式运载工具的图像传感器初始化 |
US10436590B2 (en) * | 2017-11-10 | 2019-10-08 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Localization system and method, and robot using the same |
US11417017B2 (en) * | 2019-04-22 | 2022-08-16 | Texas Instmments Incorporated | Camera-only-localization in sparse 3D mapped environments |
-
2018
- 2018-04-27 CN CN201810393076.3A patent/CN110264509B/zh active Active
-
2019
- 2019-03-22 EP EP19793739.4A patent/EP3786890B1/en active Active
- 2019-03-22 WO PCT/CN2019/079347 patent/WO2019205852A1/zh active Application Filing
-
2020
- 2020-07-27 US US16/940,148 patent/US11270460B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140126769A1 (en) * | 2012-11-02 | 2014-05-08 | Qualcomm Incorporated | Fast initialization for monocular visual slam |
CN104781849A (zh) * | 2012-11-02 | 2015-07-15 | 高通股份有限公司 | 单眼视觉同时定位与建图(slam)的快速初始化 |
CN104903934A (zh) * | 2013-01-03 | 2015-09-09 | 高通股份有限公司 | 基于前景物体再现扩增实境 |
CN105408937A (zh) * | 2013-05-02 | 2016-03-16 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN106296812A (zh) * | 2016-08-18 | 2017-01-04 | 宁波傲视智绘光电科技有限公司 | 同步定位与建图方法 |
CN107610175A (zh) * | 2017-08-04 | 2018-01-19 | 华南理工大学 | 基于半直接法和滑动窗口优化的单目视觉slam算法 |
Non-Patent Citations (1)
Title |
---|
MULLONI ALESSANDRO ET AL: "User friendly SLAM initialization", 《2013 IEEE INTERNATIONAL SYMPOSIUN ON MIXED AND AUGMENTED REALITY》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706257A (zh) * | 2019-09-30 | 2020-01-17 | 北京迈格威科技有限公司 | 有效特征点对的识别方法、相机状态的确定方法及装置 |
CN110706257B (zh) * | 2019-09-30 | 2022-07-22 | 北京迈格威科技有限公司 | 有效特征点对的识别方法、相机状态的确定方法及装置 |
WO2021082801A1 (zh) * | 2019-10-31 | 2021-05-06 | Oppo广东移动通信有限公司 | 增强现实处理方法及装置、系统、存储介质和电子设备 |
CN112991441A (zh) * | 2019-12-12 | 2021-06-18 | 北京达佳互联信息技术有限公司 | 相机定位方法、装置、电子设备及存储介质 |
CN113129366A (zh) * | 2020-01-10 | 2021-07-16 | 北京字节跳动网络技术有限公司 | 单目slam初始化方法、装置及电子设备 |
CN113129366B (zh) * | 2020-01-10 | 2024-04-30 | 北京字节跳动网络技术有限公司 | 单目slam初始化方法、装置及电子设备 |
CN111260726A (zh) * | 2020-02-07 | 2020-06-09 | 北京三快在线科技有限公司 | 一种视觉定位方法及装置 |
CN111563138A (zh) * | 2020-04-30 | 2020-08-21 | 浙江商汤科技开发有限公司 | 定位方法及装置、电子设备和存储介质 |
CN111563138B (zh) * | 2020-04-30 | 2024-01-05 | 浙江商汤科技开发有限公司 | 定位方法及装置、电子设备和存储介质 |
CN111882589A (zh) * | 2020-06-23 | 2020-11-03 | 广州万维创新科技有限公司 | 基于图像的单目视觉slam的初始化方法 |
CN111882605A (zh) * | 2020-06-30 | 2020-11-03 | 浙江大华技术股份有限公司 | 监控设备图像坐标转换方法、装置和计算机设备 |
WO2022022141A1 (zh) * | 2020-07-30 | 2022-02-03 | 腾讯科技(深圳)有限公司 | 图像显示方法、装置、计算机设备及存储介质 |
CN112070833A (zh) * | 2020-08-07 | 2020-12-11 | 北京三快在线科技有限公司 | 招牌地图生成方法、装置和路径规划方法、装置 |
CN111935644B (zh) * | 2020-08-10 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 一种基于融合信息的定位方法、装置及终端设备 |
CN111935644A (zh) * | 2020-08-10 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 一种基于融合信息的定位方法、装置及终端设备 |
CN112819889A (zh) * | 2020-12-30 | 2021-05-18 | 浙江大华技术股份有限公司 | 位置信息的确定方法及装置、存储介质、电子装置 |
CN112819889B (zh) * | 2020-12-30 | 2024-05-10 | 浙江大华技术股份有限公司 | 位置信息的确定方法及装置、存储介质、电子装置 |
WO2022193508A1 (zh) * | 2021-03-16 | 2022-09-22 | 浙江商汤科技开发有限公司 | 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品 |
CN113112542A (zh) * | 2021-03-25 | 2021-07-13 | 北京达佳互联信息技术有限公司 | 一种视觉定位方法、装置、电子设备及存储介质 |
CN113066110A (zh) * | 2021-05-06 | 2021-07-02 | 北京爱康宜诚医疗器材有限公司 | 骨盆配准中标记点的选取方法和选取装置 |
WO2022262152A1 (zh) * | 2021-06-18 | 2022-12-22 | 深圳市商汤科技有限公司 | 地图构建方法及装置、电子设备、存储介质和计算机程序产品 |
CN113658260A (zh) * | 2021-07-12 | 2021-11-16 | 南方科技大学 | 机器人位姿计算方法、系统、机器人及存储介质 |
CN114998411A (zh) * | 2022-04-29 | 2022-09-02 | 中国科学院上海微系统与信息技术研究所 | 结合时空增强光度损失的自监督单目深度估计方法和装置 |
CN114998411B (zh) * | 2022-04-29 | 2024-01-09 | 中国科学院上海微系统与信息技术研究所 | 结合时空增强光度损失的自监督单目深度估计方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3786890B1 (en) | 2023-08-30 |
US20200357136A1 (en) | 2020-11-12 |
CN110264509B (zh) | 2022-10-14 |
US11270460B2 (en) | 2022-03-08 |
EP3786890A4 (en) | 2021-03-03 |
WO2019205852A1 (zh) | 2019-10-31 |
EP3786890A1 (en) | 2021-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110264509A (zh) | 确定图像捕捉设备的位姿的方法、装置及其存储介质 | |
JP6768156B2 (ja) | 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法 | |
CN109636831B (zh) | 一种估计三维人体姿态及手部信息的方法 | |
CN108335353B (zh) | 动态场景的三维重建方法、装置和系统、服务器、介质 | |
US9928656B2 (en) | Markerless multi-user, multi-object augmented reality on mobile devices | |
WO2020192568A1 (zh) | 人脸图像生成方法、装置、设备及存储介质 | |
US20170330375A1 (en) | Data Processing Method and Apparatus | |
JP2016522485A (ja) | 再構成からの隠消現実感効果および媒介現実感効果 | |
CN109144252B (zh) | 对象确定方法、装置、设备和存储介质 | |
US8531505B2 (en) | Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium | |
KR102455468B1 (ko) | 객체의 3차원 모델을 복원하는 방법 및 장치 | |
WO2022237249A1 (zh) | 三维重建方法、装置和系统、介质及计算机设备 | |
WO2020048484A1 (zh) | 超分辨图像重建方法、装置、终端和存储介质 | |
US11403781B2 (en) | Methods and systems for intra-capture camera calibration | |
CN113688907B (zh) | 模型训练、视频处理方法,装置,设备以及存储介质 | |
JP2021513175A (ja) | データ処理方法及び装置、電子機器並びに記憶媒体 | |
CN113936085B (zh) | 三维重建方法和装置 | |
KR20210113100A (ko) | 멀티-카메라 또는 기타 환경을 위한 슈퍼-해상도 뎁스 맵 생성 | |
Barandiaran et al. | Real-time optical markerless tracking for augmented reality applications | |
WO2014093906A1 (en) | Model based video projection | |
CN114663575A (zh) | 图像处理的方法、设备和计算机可读存储介质 | |
US20220036513A1 (en) | System and method for generating bokeh image for dslr quality depth-of-field rendering and refinement and training method for the same | |
JP6806160B2 (ja) | 3次元運動評価装置、3次元運動評価方法、及びプログラム | |
CN112750164A (zh) | 轻量化定位模型的构建方法、定位方法、电子设备 | |
CN109741245A (zh) | 平面信息的插入方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |