Nothing Special   »   [go: up one dir, main page]

CN110555883B - 相机姿态追踪过程的重定位方法、装置及存储介质 - Google Patents

相机姿态追踪过程的重定位方法、装置及存储介质 Download PDF

Info

Publication number
CN110555883B
CN110555883B CN201910847941.1A CN201910847941A CN110555883B CN 110555883 B CN110555883 B CN 110555883B CN 201910847941 A CN201910847941 A CN 201910847941A CN 110555883 B CN110555883 B CN 110555883B
Authority
CN
China
Prior art keywords
image
camera
pose
initial
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910847941.1A
Other languages
English (en)
Other versions
CN110555883A (zh
Inventor
林祥凯
凌永根
暴林超
刘威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910847941.1A priority Critical patent/CN110555883B/zh
Publication of CN110555883A publication Critical patent/CN110555883A/zh
Application granted granted Critical
Publication of CN110555883B publication Critical patent/CN110555883B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本申请是申请号为201810391550.9的分案申请。本申请公开了一种相机姿态追踪过程的重定位方法、装置及存储介质,属于计算机视觉中的SLAM领域。所述方法包括:获取当前图像;当所述当前图像符合重定位条件时,获取多个标记图像中的第一个标记图像的初始特征点和初始位姿参数;将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点;在以所述投影特征点为中心的第一范围内,从所述候选特征点中搜索与所述初始特征点匹配的目标特征点;根据所述初始特征点、所述目标特征点和所述初始位姿参数,重定位得到所述目标相机姿态对应的目标位姿参数。

Description

相机姿态追踪过程的重定位方法、装置及存储介质
本申请是申请号为201810391550.9、申请日为2018年04月27日、发明名称为“相机姿态追踪过程的重定位方法、装置及存储介质”的中国申请的分案申请
技术领域
本申请实施例涉及增强显示领域,特别涉及一种相机姿态追踪过程的重定位方法、装置及存储介质。
背景技术
视觉SLAM(simultaneous Localization and mapping,同时定位与地图构建) 是指搭载相机的主体,在没有环境先验信息的情况下,于运动过程中建立环境的模型,同时估计自己的运动的技术。SLAM可以应用在AR(Augmented Reality,增强显示)领域、机器人领域和无人驾驶领域中。
以单目视觉SLAM为例,通常将相机采集的第一帧图像作为标记图像 (Anchor)。在相机后续采集到当前图像时,设备对当前图像与标记图像之间共同具有的特征点进行追踪,根据当前图像与标记图像之间的特征点位置变化计算得到相机在现实世界中的位姿变化。但某些场景下会发生当前图像中的特征点丢失(Lost),无法继续追踪的情况。此时,需要使用SLAM重定位方法对当前图像进行重定位。
但是在AR(Augmented Reality,增强现实)领域进行相机姿态追踪时,比如使用手机拍摄桌面进行AR游戏的场景,由于AR使用场景存在其场景特殊性,直接使用相关技术中的SLAM重定位方法的效果较差,尚需提供一种适用于AR 领域的重定位解决方案。
发明内容
本申请实施例提供了一种相机姿态追踪过程的重定位方法、装置及存储介质,可以用于解决在AR使用场景中直接使用SLAM重定位方法的效果较差的问题。所述技术方案如下:
根据本申请实施例的一个方面,提供了一种相机姿态追踪过程的重定位方法,应用于具有相机的设备中,所述设备用于按序执行多个标记图像的相机姿态追踪,所述方法包括:
获取所述多个标记图像中第i个标记图像之后采集的当前图像,i为大于1 的整数;
当所述当前图像符合重定位条件时,获取所述多个标记图像中的第一个标记图像的初始特征点和初始位姿参数,所述初始位姿参数用于指示所述相机采集所述第一个标记图像时的相机姿态;
将所述当前图像相对于所述第一个标记图像进行特征点追踪,得到与所述初始特征点匹配的目标特征点;
根据所述初始特征点和所述目标特征点,计算所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量,所述目标相机姿态是所述相机在采集所述当前图像时的相机姿态;
根据所述初始位姿参数和所述位姿变化量,重定位得到所述目标相机姿态对应的目标位姿参数。
根据本申请实施例的另一方面,提供了一种相机姿态追踪过程的重定位装置,应用于具有相机的设备中,所述装置用于按序执行多个标记图像的相机姿态追踪,所述装置包括:
图像获取模块,用于获取所述多个标记图像中第i个标记图像之后采集的当前图像,i为大于1的整数;
信息获取模块,用于当所述当前图像符合重定位条件时,获取所述多个标记图像中的第一个标记图像的初始特征点和初始位姿参数,所述初始位姿参数用于指示所述相机采集所述第一个标记图像时的相机姿态;
特征点追踪模块,用于将所述当前图像相对于所述第一个标记图像进行特征点追踪,得到与所述初始特征点匹配的目标特征点;
变化量计算模块,用于根据所述初始特征点和所述目标特征点,计算所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量,所述目标相机姿态是所述相机在采集所述当前图像时的相机姿态;
重定位模块,用于根据所述初始位姿参数和所述位姿变化量,重定位得到所述目标相机姿态对应的目标位姿参数。
根据本申请实施例的另一方面,提供了一个电子设备,所述电子设备包括存储器和处理器;
所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如上所述的重定位方法。
根据本申请实施例的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上所述的重定位方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过在当前图像符合重定位条件时,将当前图像与第一个标记图像进行重定位,能够在连续多个标记图像进行追踪的Anchor-SLAM算法中实现重定位,从而减少了追踪过程中断的可能性,由于重定位过程是将当前图像相对于第一个标记图像进行重定位,所以还能消除多个标记图像的追踪过程所产生的累积误差,从而解决相关技术中的SLAM重定位方法在AR领域中重定位效果较差的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的AR应用场景的场景示意图;
图2是本申请一个示例性实施例提供的AR应用场景的场景示意图;
图3是本申请一个示例性实施例提供的Anchor-Switching AR System算法的原理示意图;
图4是本申请一个示例性实施例提供的电子设备的结构框图;
图5是本申请一个示例性实施例提供的相机姿态追踪过程的重定位方法的流程图;
图6是本申请一个示例性实施例提供的相机姿态追踪过程的重定位方法的流程图;
图7是本申请一个示例性实施例提供的金字塔图像的示意图;
图8是本申请一个示例性实施例提供的相机姿态追踪过程的重定位方法的流程图;
图9是本申请一个示例性实施例提供的重定位方法的原理示意图;
图10是本申请一个示例性实施例提供的重定位方法的流程图;
图11是本申请一个示例性实施例提供的相机姿态追踪过程的重定位装置的框图;
图12是本申请一个示例性实施例提供的电子设备的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请涉及的若干个名词进行简介:
AR(Augmented Reality,增强现实):一种在相机采集图像的过程中,实时地计算相机在现实世界(或称三维世界、真实世界)中的相机姿态参数,根据该相机姿态参数在相机采集的图像上添加虚拟元素的技术。虚拟元素包括但不限于:图像、视频和三维模型。AR技术的目标是在屏幕上把虚拟世界套接在现实世界上进行互动。该相机姿态参数包括位移向量和旋转矩阵,位移向量用于表征相机在现实世界中发生的位移距离,旋转矩阵用于表征相机在现实世界中发生的旋转角度。
例如,参见图1和参见图2,设备在相机拍摄到的图像中添加了一个虚拟人物形象。随着相机在现实世界中的运动,相机拍摄到的图像会发生变化,虚拟人物的拍摄方位也发生变化,模拟出了虚拟人物在图像中静止不动,而相机随着位置和姿态的变化同时拍摄图像和虚拟人物的效果,为用户呈现了一幅真实立体的画面。
Anchor-Switching AR System:是基于连接多个标记图像(Anchor)的相机姿态追踪来确定在自然场景下的相机姿态参数,进而根据相机姿态参数在相机采集的图像上叠加虚拟世界的AR系统。
IMU(Inertial Measurement Unit,惯性测量单元):是用于测量物体的三轴姿态角(或角速率)以及加速度的装置。一般的,一个IMU包含了三个单轴的加速度计和三个单轴的陀螺,加速度计用于检测物体在三维坐标系中每个坐标轴上的加速度信号,进而计算得到位移向量;而陀螺用于检测物体在三维坐标系中的旋转矩阵。可选地,IMU包括陀螺仪、加速度计和地磁传感器。
示意性的,三维坐标系的建立方式为:1、X轴使用向量积Y*Z来定义,在 X轴在设备当前的位置上,沿与地面相切的方向指向东方;2、Y轴在设备当前的位置上,沿与地面相切的方向指向地磁场的北极;3、Z轴指向天空并垂直于地面。
本申请提供了一种适用于Anchor-Switching AR System算法的重定位方法。Anchor-Switching AR System算法在确定相机姿态的过程中,将相机的运动过程划分为至少两段追踪过程进行追踪,每段追踪过程对应各自的标记图像。具体地,当第i个标记图像对应的追踪过程中,当当前图像相对于第i个标记图像的追踪效果差于预设条件(比如能够匹配到的特征点少于预设阈值)时,将当前图像的上一个图像确定为第i+1个标记图像,开启第i+1段追踪过程。其中,i 为正整数。示意性的参考图3,其示出了本申请一个示例性实施例提供的 Anchor-Switching AR System算法的原理示意图。在现实世界中存在物体320,设置有相机的设备340被用户手持进行移动,在移动过程中拍摄得到包括物体 320的多帧图像1-6。设备将图像1确定为第1个标记图像(born-anchor或 born-image)并记录初始相机姿态参数,该初始相机姿态参数可以是IMU采集的,然后将图像2相对于图像1进行特征点追踪,根据初始相机姿态参数和特征点追踪结果计算出相机在拍摄图像2时的相机姿态参数;将图像3相对于图像1进行特征点追踪,根据初始相机姿态参数和特征点追踪结果计算出相机在拍摄图像3时的相机姿态参数;将图像4相对于图像1进行特征点追踪,根据初始相机姿态参数和特征点追踪结果计算出相机在拍摄图像4时的相机姿态参数。
然后,将图像5相对于图像1进行特征点追踪,如果特征点追踪效果差于预设条件(比如匹配的特征点数量较少),则将图像4确定为第2个标记图像,将图像5相对于图像4进行特征点追踪,计算出相机在拍摄图像4至图像5之间的位移变化量,再结合相机在拍摄图像4至图像1之间的位移变化量以及初始相机姿态参数,计算出相机在拍摄图像5时的相机姿态参数。然后再将图像6 相对于图像4进行特征点追踪,依次类推,若当前图像的特征点追踪效果变差时,即可将当前图像的上一帧图像确定为新的标记图像,切换新的标记图像后重新进行特征点追踪。
可选地,特征点追踪可以采用光流追踪、直接法等基于视觉里程计原理的算法。若相机在追踪过程中发生较为剧烈的运动、朝向强光源、朝向白色墙壁等各种异常场景时,上述Anchor-Switching AR System追踪过程可能会发生丢失 (Lost)现象。丢失现象是指在当前图像中无法匹配到足够多的特征点,导致追踪失败。
参考图4,其示出了本申请一个示例性实施例提供的电子设备的结构框图。该设备包括:处理器420、存储器440、相机460和IMU 480。
处理器420包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器420用于执行存储器440中存储的指令、代码、代码片段和程序中的至少一种。
处理器420与存储器440电性相连。可选地,处理器420通过总线与存储器440相连。存储器440存储有一个或多个指令、代码、代码片段和/或程序。该指令、代码、代码片段和/或程序在被处理器420执行时,用于实现如下实施例中提供的SLAM重定位方法。
处理器420还与相机460电性相连。可选地,处理器420通过总线与相机 460相连。相机460是具有图像采集能力的传感器件。相机460还可称为摄像头、感光器件等其它名称。相机460具有连续采集图像或多次采集图像的能力。可选地,相机460设置在设备内部或设备外部。
处理器420还与IMU480电性相连。可选地,IMU480用于每隔预定时间间隔采集相机的位姿参数,并记录每组位姿参数在采集时的时间戳。相机的位姿参数包括:位移向量和旋转矩阵。其中,IMU480采集的旋转矩阵相对准确,采集的位移向量受实际环境可能会有较大的误差。
参考图5,其示出了本申请一个示例性实施例提供的相机姿态追踪过程的重定位方法的流程图。本实施例以该重定位方法应用于图4所示的设备中来举例说明,该设备用于按序执行多个标记图像的相机姿态追踪。该方法包括:
步骤501,获取多个标记图像中第i个标记图像之后采集的当前图像;
设备内的相机按照预设时间间隔采集一帧帧图像,形成图像序列。可选地,相机是在运动(平移和/或旋转)过程中,按照预设时间间隔采集一帧帧图像形成图像序列。
可选地,设备将图像序列中的第一帧图像(或前几帧图像中符合预定条件的一帧图像)确定为第一个标记图像,将后续采集的图像相对于第一个标记图像进行特征点追踪,并根据特征点追踪结果计算相机的相机姿态参数;若当前帧图像的特征点追踪效果差于预设条件时,将当前帧图像的上一帧图像确定为第二个标记图像,将后续采集的图像相对于第二个标记图像进行特征点追踪,并根据特征点追踪结果计算相机的相机姿态参数,依次类推。设备可以按序进行连续多个标记图像的相机姿态追踪。
当处于第i个标记图像对应的第i个追踪过程时,相机会采集到当前图像。当前图像是第i个标记图像之后采集的某一帧图像,其中,i为大于1的整数。
步骤502,当当前图像符合重定位条件时,获取多个标记图像中的第一个标记图像的初始特征点和初始位姿参数,初始位姿参数用于指示相机采集第一个标记图像时的相机姿态;
设备会确定当前图像是否符合重定位条件。重定位条件用于指示当前图像相对于第i个标记图像的追踪过程失败,或者,重定位条件用于指示历史追踪过程中的累积误差已经高于预设条件。
在一个可选的实施例中,设备对当前图像相对于第i个标记图像进行追踪,若当前图像中不存在与第i个标记图像匹配的特征点,或者,当前图像中与第i 个标记图像匹配的特征点少于第一数量时,确定当前图像相对于第i个标记图像的追踪过程失败,符合重定位条件。
在另一个可选的实施例中,设备确定当前图像与上一次重定位的图像之间的帧数大于第二数量时,确定历史追踪过程中的累积误差已经高于预设条件,或者,设备确定第i个标记图像和第一个标记图像之间的标记图像数量大于第三数量时,确定历史追踪过程中的累计误差已经高于预设条件。
本实施例对重定位条件的具体条件内容不加以限定。
当当前图像符合重定位条件时,设备尝试将当前图像相对于第一个标记图像进行特征点追踪。此时,设备获取缓存的第一个标记图像中的初始特征点以及初始位姿参数,该初始位姿参数用于指示相机采集第一个标记图像时的相机姿态。
初始特征点是从第一个标记图像上提取到的特征点,初始特征点可以是多个,比如10-500个。该初始位姿参数用于指示相机采集第一个标记图像时的相机姿态。可选地,初始位姿参数包括旋转矩阵R和位移向量T,初始位姿参数可以由IMU采集得到。
步骤503,将当前图像相对于第一个标记图像进行特征点追踪,得到与初始特征点匹配的目标特征点;
特征点追踪可采用基于视觉里程计的追踪算法,本申请对此不加以限定。在一个实施例中,特征点追踪采用KLT(Kanade-Lucas)光流追踪算法;在另一个实施例中,特征点追踪采用基于ORB(Oriented FAST and Rotated BRIEF,快速特征点提取和描述)算法提取的ORB特征描述子进行特征点跟踪。本申请对特征点追踪的具体算法不加以限定,特征点追踪过程可以采用特征点法或直接法。
在一个实施例中,设备对第一个标记图像进行特征点提取,得到N个初始特征点;设备还对当前图像进行特征点提取,得到M个候选特征点;然后将M 个候选特征点逐一与N个初始特征点进行匹配,确定出至少一组匹配特征点对。每组匹配特征点对包括:一个初始特征点和一个目标特征点。初始特征点是第1 个标记图像上的特征点,目标特征点是当前图像上与该初始特征点匹配度最高的候选特征点。
可选地,初始特征点的数量大于或等于目标特征点的数量。比如,初始特征点的数量是450个,目标特征点为320组。
步骤504,根据初始特征点和目标特征点,计算相机从第一相机姿态改变至目标相机姿态时的位姿变化量,目标相机姿态是相机在采集当前图像时的相机姿态;
可选地,设备根据初始特征点和目标特征点计算两帧图像之间的单应性矩阵homography;对单应性矩阵homography进行分解,得到相机从第一相机姿态改变至目标相机姿态时的位姿变化量Rrelocalize和Trelocalize
单应性矩阵描述了两个平面之间的映射关系,若自然场景(现实环境)中的特征点都落在同一物理平面上,则可以通过单应性矩阵进行运动估计。当存在至少四对相匹配的初始特征点和目标特征点时,设备通过ransac对该单应性矩阵进行分解,得到旋转矩阵Rrelocalize和平移向量Trelocalize
其中,Rrelocalize是相机从第一相机姿态改变至目标相机姿态时的旋转矩阵,Trelocalize是相机从第一相机姿态改变至目标相机姿态时的位移向量。
步骤505,根据初始位姿参数和位姿变化量,重定位得到目标相机姿态对应的目标位姿参数。
设备将初始位姿参数利用位姿变化量进行变换后,重定位得到目标相机姿态对应的目标位姿参数,从而计算得到相机在采集当前图像时的相机姿态。
综上所述,本实施例提供的重定位方法,通过在当前图像符合重定位条件时,将当前图像与第一个标记图像进行重定位,能够在连续多个标记图像进行追踪的Anchor-SLAM算法中实现重定位,从而减少了追踪过程中断的可能性,从而解决相关技术中的SLAM重定位方法在AR领域中重定位效果较差的问题。
另外,由于重定位过程是将当前图像相对于第一个标记图像进行重定位,第一个标记图像可以认为是没有累积误差的,所以本实施例还能消除多个标记图像的追踪过程所产生的累积误差。
以下对上述重定位方法的若干个阶段进行介绍:
预处理阶段:
在基于图5所示的可选实施例中,由于第一个标记图像通常是相机拍摄的第一帧图像,也是重定位过程使用的当前图像,出于提高特征点匹配的成功率的目的,需要对第一个标记图像进行预处理。如图6所示,步骤502之前还包括如下步骤:
步骤501a,记录第一个标记图像对应的初始位姿参数;
设备中设置有IMU,通过IMU定时采集相机的位姿参数以及时间戳。位姿参数包括旋转矩阵和位移向量,时间戳用于表示位姿参数的采集时间。可选地, IMU采集的旋转矩阵是较为准确的。
设备中的相机采集每帧图像时,同时记录有每帧图像的拍摄时间。设备根据第一个标记图像的拍摄时间,查询并记录相机在拍摄第一个标记图像时的初始位姿参数。
步骤501b,获取第一个标记图像对应的n个尺度不同的金字塔图像,n为大于1的整数;
设备还提取第一个标记图像中的初始特征点。可选地,设备提取特征点时采用的特征提取算法可以为FAST(Features from Accelerated Segment Test,加速段测试特征点)检测算法、Shi-Tomasi(史托马西)角点检测算法、Harris Corner Detection(Harris角点检测)算法、SIFT(Scale-Invariant Feature Transform,尺度不变特征转换)算法、ORB(Oriented FAST and Rotated BRIEF,快速特征点提取和描述)算法等。
由于SIFT特征的实时计算难度较大,为了保证实时性,设备可以提取第一个标记图像中的ORB特征点。一个ORB特征点包括FAST角点(Key-point) 和BRIER描述子(BinaryRobust Independent Elementary Feature Descirptor)两部分。
FAST角点是指该ORB特征点在图像中所在的位置。FAST角点主要检测局部像素灰度变化明显的地方,以速度快著称。FAST角点的思想时:如果一个像素与邻域的像素差别较大(过亮或过暗),则该像素可能是一个角点。
BRIEF描述子是一个二进制表示的向量,该向量按照某种人为设计的方式描述了该关键点周围像素的信息。BRIEF描述子的描述向量由多个0和1组成,这里的0和1编码了FAST角点附近的两个像素的大小关系。
由于ORB特征的计算速度较快,因此适用于移动设备上实施。但由于ORB 特征描述子没有尺度不变性,用户手持相机采集图像时的尺度变化又很明显,用户很可能在很远或很近的尺度下观测到第一个标记图像对应的画面,在一个可选的实现中,设备为第一个标记图像生成n个尺度不同的金字塔图像。
金字塔图像是指对第一个标记图像按照预设比例进行缩放后的图像。以金字塔图像包括四层图像为例,按照缩放比例1.0、0.8、0.6、0.4将第一个标记图像进行缩放后,得到四张不同尺度的图像。
步骤501c,对每个金字塔图像提取初始特征点,并记录初始特征点在金字塔图像缩放至原始尺寸时的二维坐标。
设备对每一层金字塔图像都提取特征点并计算ORB特征描述子。对于不是原始尺度(1.0)的金字塔图像上提取的特征点,将该金字塔图像按照缩放比例放大到原始尺度后,记录每个特征点在原始尺度的金字塔图像上的二维坐标。这些金字塔图像上的特征点以及二维坐标,可称为layer-keypoint。在一个例子中,每层金字塔图像上的特征点最多有500个特征点。
对于第一个标记图像,将每个金字塔图像上的特征点确定为初始特征点。在后续特征点追踪过程中,若当前图像的尺度很大,当前图像上的高频细节都清晰可见,则当前图像与层数较低的金字塔图像(比如原始图像)会有更高的匹配分数;反之,若当前图像的尺度很小,当前图像上只能看到模糊的低频信息,则当前图像与层数较高的金字塔图像有更高的匹配分数。
在如图7所示出的例子中,第一个标记图像具有三个金字塔图像71、72和 73,金字塔图像1位于金字塔的第一层,具有三个图像中的最小尺度;金字塔图像2位于金字塔的第二层,具有三个图像中的中间尺度;金字塔图像3位于金字塔的第三层,具有三个图像中的最大尺度,若当前图像74相对于第一个标记图像进行特征点追踪时,设备可以将当前图像74分别与三个金字塔图像中提取的特征点进行匹配,由于金字塔图像3和当前图像74的尺度更接近,则金字塔图像3中提取的特征点具有更高的匹配分数。
本实施例通过对第一个标记图像设置多个尺度的金字塔图像,并进而提取每层金字塔图像上的初始特征点用于后续的特征点追踪过程,通过多个尺度上的特征点共同匹配,自动调节了第一个标记图像的尺度,实现了尺度不变性。
特征点追踪阶段:
在基于图5所示的可选实施例中,对于步骤506所示出的特征点追踪过程。设备对当前图像提取特征点,该特征点可以是ORB特征描述子。与第一个标记图像提取多层特征点不同的是,设备可以对当前图像提取一层特征点(比如最多500个),对于第一个标记图像上预先提取的layer-keypoint和当前图像上提取的特征点通过ORB特征描述子进行匹配。
出于提高匹配速度的目的,本申请实施例还对特征点追踪过程进行加速匹配。如图8所示,步骤506可选包括如下子步骤506a至506c:
步骤506a,对当前图像提取候选特征点;
设备提取特征点时采用的特征提取算法可以采用FAST检测算法、 Shi-Tomasi角点检测算法、Harris角点检测算法、SIFT算法、ORB算法中的至少一种。本实施例以采用ORB算法提取当前图像中的ORB特征描述子来举例说明。
步骤506b,通过IMU获取相机采集当前图像时的参考位姿变化量;
设备中设置有IMU,通过IMU能够获取相机采集当前图像时的参考位姿变化量。参考位姿变化量用于表征相机从采集第一个标记图像至采集当前图像过程中的位姿变化量,该位姿变化量包括旋转矩阵和位移向量。由于IMU的物理特征,IMU所采集的旋转矩阵是较为准确的,IMU采集的位移向量会存在一定的累积误差,但与真实结果相差不会太大,仍然具有指导意义。
步骤506c,根据参考位姿变化量将第一个标记图像中的初始特征点进行旋转平移投影,得到当前图像中与初始特征点对应的投影特征点;
在一个示例性的例子中,本步骤包括如下子步骤:
1、获取第一个标记图像中的初始特征点的二维坐标;
设备预先提取和缓存有第一个标记图像中的初始特征点的二维坐标。该二维坐标采用齐次表示。
2、对初始特征点的二维坐标进行反投影,得到初始特征点在三维空间中的第一三维坐标Xborn
设备通过如下公式将初始特征点的二维坐标变换至三维空间,得到这些初始特征点在三维空间中的第一三维坐标Xborn
Figure GDA0003654146310000121
其中,fx、fy、cx、cy为相机的内置参数。初始特征点的二维坐标xborn是第一个标记图像上的layer-keyPoints的齐次表示,三维点Xborn是非齐次表示。假设第一个标记图像的初始深度d为1。
3、将第一三维坐标Xborn通过如下公式进行三维旋转平移,得到初始特征点在当前图像上对应的第二三维坐标Xcurrent
Xcurrent=R*Xborn+T;
其中,R是IMU采集的参考位姿变化量中的旋转矩阵,T是IMU采集的参考位姿变化量中的位移向量。
4、将第二三维坐标Xcurrent投影至当前图像,得到投影特征点在当前图像中的二维坐标;
设备通过如下公式将第二三维坐标Xcurrent投影至当前图像,得到投影特征点在当前图像中的二维坐标xcurrent
Figure GDA0003654146310000131
其中,fx、fy、cx、cy为相机的内置参数。
这些投影特征点在当前图像中所在的位置用于预测目标特征点的位置,通常这些投影特征点的位置与目标特征点的位置相同或接近。
步骤506d,在以投影特征点为中心的第一范围内,搜索与初始特征点匹配的目标特征点。
设备在当前图像中提取了多个ORB特征描述子。对于每个初始特征点对应的投影特征点,挑选出位于投影特征点为中心的第一范围内的候选ORB特征描述子,然后对投影特征点与候选ORB特征描述子进行匹配,当匹配成功时,认为搜索到与初始特征点匹配的目标特征点。
可选地,第一范围是矩形框或正方形框。本申请实施例对第一范围的样式不加以限定,第一范围还可以是菱形框、平行四边形框、圆形框等其它样式。
步骤506e,当搜索到的目标特征点数量少于预设阈值时,在以投影特征点为中心的第二范围内,重新搜索与初始特征点匹配的目标特征点。
可选地,第二范围大于第一范围。
需要说明的是,每个投影特征点对应各自的初始特征点,每个目标特征点对应各自的初始特征点。但投影特征点的总数小于或等于初始特征点的总数,目标特征点的总数小于或等于初始特征点的总数。
综上所述,本实施例提供的重定位方法,通过利用IMU采集的存在一定误差的参考位姿变化量,将初始特征点通过旋转平移投影至当前图像中,得到投影特征点;进而根据投影特征点在较小的范围内匹配得到目标特征点。一方面,由于搜索范围变小,减小了每个初始特征点的候选ORB特征描述子的个数,使得需要进行的匹配计算次数变少,加速了匹配过程;另一方面,由于投影特征点是基于2D-3D-2D的转换过程得到的,相当于附加入了3D约束条件,可以排除掉一些特征匹配度高但不满足几何一致性的干扰匹配点。
重定位计算过程:
在基于图5所示的可选实施例中,对于步骤508所示出的相机姿态的位姿变化量计算过程。设备得到当前图像相对于第一个标记图像的多个目标特征点之后,将初始特征点和目标特征点输入至ransac的算法中,计算得到当前图像相对于第一个标记图像的单应性矩阵homography,通过IMU中的分解算法对单应性矩阵homography可以分解得到旋转矩阵Rrelocalize和平移向量Trelocalise
下面对比一下未进行重定位和重定位两种情况下的误差情况:
1、未进行重定位的场景下:
如图9所示,假设第1个标记图像的图像坐标系F、第i个标记图像的图像坐标系A、前一帧图像的图像坐标系L、当前图像的图像坐标系C。在追踪过程较为顺利时,第1个标记图像和第i个标记图像之间的单应性矩阵为Haf,对Haf进行分解后得到第一旋转矩阵R_old和第一平移向量T_old;第i个标记图像和前一帧图像之间的单应性矩阵为Hla,前一帧图像与当前图像之间的单应性矩阵为Hcl,对Hla和Hcl进行迭代分解后,得到第二旋转矩阵R_ca和第一平移向量 T_ca。
也即,最终得到当前图像相对于第一个标记图像的旋转矩阵R和位移向量T 如下:
Figure GDA0003654146310000141
2、重定位的场景下,由于直接对当前图像相对于第一个标记图像进行重定位,消除了多次标记图像的追踪过程中不停累积的误差,直接得到结果如下:
Figure GDA0003654146310000142
因为当前图像上的点不一定满足平面性假设,虽然通过直接分解 homography得到的结果可能会有假设误差,但Anchor-SLAM的最理想情况就是从第一个标记图像光流追踪到当前图像的过程中没有出现lost也没有切换过标记图像,也没有出现运动模糊等累积误差的情况,那也是得到第一个标记图像到当前图像上的目标匹配点,进而通过分解homography的方法计算结果。因此通过本申请实施例的重定位可以确实地消除掉累积误差,且结果等同于 Anchor-SLAM的最好情况。
请参考图10,其示出了本申请另一个示例性实施例提供的相机姿态追踪过程的重定位方法的流程图。本实施例以该方法应用于图4所示的设备中来举例说明。该方法包括:
步骤1001,记录第一个标记图像对应的初始位姿参数;
设备中设置有IMU,通过IMU定时采集相机的位姿参数以及时间戳。位姿参数包括旋转矩阵和位移向量,时间戳用于表示位姿参数的采集时间。可选地, IMU采集的旋转矩阵是较为准确的。
设备中的相机采集每帧图像时,同时记录有每帧图像的拍摄时间。设备根据第一个标记图像的拍摄时间,查询并记录相机在拍摄第一个标记图像时的初始位姿参数。
可选地,第一个标记图像是设备采集的第一帧图像,或者,第一个标记图像是设备采集的前几帧图像中,特征点数量大于预设阈值的一帧图像。
步骤1002,获取第一个标记图像对应的n个尺度不同的金字塔图像,n为大于1的整数;
设备提取第一个标记图像中的初始特征点。在本实施例中,设备可以提取第一个标记图像中的ORB特征点作为初始特征点。
在一个可选的实现中,设备为第一个标记图像生成n个尺度不同的金字塔图像,n为正整数。
金字塔图像是指对第一个标记图像按照预设比例进行缩放后的图像。以金字塔图像包括四层图像为例,按照缩放比例1.0、0.8、0.6、0.4将第一个标记图像进行缩放后,得到四张不同尺度的图像。
步骤1003,对每个金字塔图像提取初始特征点,并记录初始特征点在金字塔图像缩放至原始尺寸时的二维坐标。
设备对每一层金字塔图像都提取特征点并计算ORB特征描述子。对于不是原始尺度(1.0)的金字塔图像上提取的特征点,将该金字塔图像按照缩放比例放大到原始尺度后,记录每个特征点在原始尺度的金字塔图像上的二维坐标。这些金字塔图像上的特征点以及二维坐标,可称为layer-keypoint。在一个例子中,每层金字塔图像上的特征点最多有500个特征点。
对于第一个标记图像,将每个金字塔图像上的特征点确定为初始特征点。
步骤1004,获取多个标记图像中第i个标记图像之后采集的当前图像;
设备内的相机按照预设时间间隔采集一帧帧图像,形成图像序列。可选地,相机是在运动(平移和/或旋转)过程中,按照预设时间间隔采集一帧帧图像形成图像序列。
可选地,设备将图像序列中的第一帧图像(或前几帧图像中符合预定条件的一帧图像)确定为第一个标记图像,将后续采集的图像相对于第一个标记图像进行特征点追踪,并根据特征点追踪结果计算相机的相机姿态参数;若当前帧图像的特征点追踪效果差于预设条件时,将当前帧图像的上一帧图像确定为第二个标记图像,将后续采集的图像相对于第二个标记图像进行特征点追踪,并根据特征点追踪结果计算相机的相机姿态参数,依次类推。设备可以按序进行连续多个标记图像的相机姿态追踪。
当处于第i个标记图像对应的第i个追踪过程时,相机会采集到当前图像。当前图像是第i个标记图像之后采集的某一帧图像,其中,i为大于1的整数。
步骤1005,当当前图像符合重定位条件时,获取多个标记图像中的第一个标记图像的初始特征点和初始位姿参数,初始位姿参数用于指示相机采集第一个标记图像时的相机姿态;
设备会确定当前图像是否符合重定位条件。重定位条件用于指示当前图像相对于第i个标记图像的追踪过程失败,或者,重定位条件用于指示历史追踪过程中的累积误差已经高于预设条件。
在一个可选的实施例中,设备对当前图像相对于第i个标记图像进行追踪,若当前图像中不存在与第i个标记图像匹配的特征点,或者,当前图像中与第i 个标记图像匹配的特征点少于第一数量时,确定当前图像相对于第i个标记图像的追踪过程失败,符合重定位条件。
在另一个可选的实施例中,设备确定当前图像与上一次重定位的图像之间的帧数大于第二数量时,确定历史追踪过程中的累积误差已经高于预设条件,或者,设备确定第i个标记图像和第一个标记图像之间的标记图像数量大于第三数量时,确定历史追踪过程中的累计误差已经高于预设条件。
本实施例对重定位条件的具体条件内容不加以限定。
当当前图像符合重定位条件时,设备尝试将当前图像相对于第一个标记图像进行特征点追踪。此时,设备获取缓存的第一个标记图像中的初始特征点以及初始位姿参数,该初始位姿参数用于指示相机采集第一个标记图像时的相机姿态。
步骤1006,对当前图像提取候选特征点;
设备提取特征点时采用的特征提取算法可以采用FAST检测算法、 Shi-Tomasi角点检测算法、Harris角点检测算法、SIFT算法、ORB算法中的至少一种。本实施例以采用ORB算法提取当前图像中的ORB特征描述子作为候选特征点来举例说明。
步骤1007,通过IMU获取相机采集当前图像时的参考位姿变化量;
设备中设置有IMU,通过IMU能够获取相机采集当前图像时的参考位姿变化量。参考位姿变化量用于表征相机从采集第一个标记图像至采集当前图像过程中的位姿变化量,该位姿变化量包括旋转矩阵和位移向量。由于IMU的物理特征,IMU所采集的旋转矩阵是较为准确的,IMU采集的位移向量会存在一定的累积误差,但与真实结果相差不会太大,仍然具有指导意义。
步骤1008,根据参考位姿变化量将第一个标记图像中的初始特征点进行旋转平移投影,得到当前图像中与初始特征点对应的投影特征点;
在一个示例性的例子中,本步骤包括如下子步骤:
1、获取第一个标记图像中的初始特征点的二维坐标;
设备预先提取和缓存有第一个标记图像中的初始特征点的二维坐标。该二维坐标采用齐次表示。
2、对初始特征点的二维坐标进行反投影,得到初始特征点在三维空间中的第一三维坐标Xborn
设备通过如下公式将初始特征点的二维坐标变换至三维空间,得到这些初始特征点在三维空间中的第一三维坐标Xborn
Figure GDA0003654146310000171
其中,fx、fy、cx、cy为相机的内置参数。初始特征点的二维坐标xborn是第一个标记图像上的layer-keyPoints的齐次表示,三维点Xborn是非齐次表示。假设第一个标记图像的初始深度d为1。
3、将第一三维坐标Xborn通过如下公式进行三维旋转平移,得到初始特征点在当前图像上对应的第二三维坐标Xcurrent
Xcurrent=R*Xborn+T;
其中,R是IMU采集的参考位姿变化量中的旋转矩阵,T是IMU采集的参考位姿变化量中的位移向量。
4、将第二三维坐标Xcurrent投影至当前图像,得到投影特征点在当前图像中的二维坐标;
设备通过如下公式将第二三维坐标Xcurrent投影至当前图像,得到投影特征点在当前图像中的二维坐标xcurrent
Figure GDA0003654146310000181
其中,fx、fy、cx、cy为相机的内置参数。
这些投影特征点在当前图像中所在的位置用于预测目标特征点的位置,通常这些投影特征点的位置与目标特征点的位置相同或接近。
步骤1009,在以投影特征点为中心的第一范围内,搜索与初始特征点匹配的目标特征点。
设备在当前图像中提取了多个ORB特征描述子。对于每个初始特征点对应的投影特征点,挑选出位于投影特征点为中心的第一范围内的候选ORB特征描述子,然后对投影特征点与候选ORB特征描述子进行匹配,当匹配成功时,认为搜索到与初始特征点匹配的目标特征点。
可选地,第一范围是矩形框或正方形框。本申请实施例对第一范围的样式不加以限定,第一范围还可以是菱形框、平行四边形框、圆形框等其它样式。
步骤1010,当搜索到的目标特征点数量少于预设阈值时,在以投影特征点为中心的第二范围内,重新搜索与初始特征点匹配的目标特征点。
可选地,第二范围大于第一范围。
需要说明的是,每个投影特征点对应各自的初始特征点,每个目标特征点对应各自的初始特征点。但投影特征点的总数小于或等于初始特征点的总数,目标特征点的总数小于或等于初始特征点的总数。
步骤1011,根据初始特征点和目标特征点,计算相机从第一相机姿态改变至目标相机姿态时的位姿变化量,目标相机姿态是相机在采集当前图像时的相机姿态;
可选地,设备根据初始特征点和目标特征点计算两帧图像之间的单应性矩阵homography;对单应性矩阵homography进行分解,得到相机从第一相机姿态改变至目标相机姿态时的位姿变化量Rrelocalize和Trelocalize
单应性矩阵描述了两个平面之间的映射关系,若自然场景(现实环境)中的特征点都落在同一物理平面上,则可以通过单应性矩阵进行运动估计。当存在至少四对相匹配的初始特征点和目标特征点时,设备通过ransac对该单应性矩阵进行分解,得到旋转矩阵Rrelocalize和平移向量Trelocalize
其中,Rrelocalize是相机从第一相机姿态改变至目标相机姿态时的旋转矩阵,Trelocalize是相机从第一相机姿态改变至目标相机姿态时的位移向量。
步骤1012,根据初始位姿参数和位姿变化量,重定位得到目标相机姿态对应的目标位姿参数。
设备将初始位姿参数利用位姿变化量进行变换后,重定位得到目标相机姿态对应的目标位姿参数,从而计算得到相机在采集当前图像时的相机姿态。
综上所述,本实施例提供的重定位方法,通过在当前图像符合重定位条件时,将当前图像与第一个标记图像进行重定位,能够在连续多个标记图像进行追踪的Anchor-SLAM算法中实现重定位,从而减少了追踪过程中断的可能性,从而解决相关技术中的SLAM重定位方法在AR领域中重定位效果较差的问题。
另外,由于重定位过程是将当前图像相对于第一个标记图像进行重定位,第一个标记图像可以认为是没有累积误差的,所以本实施例还能消除多个标记图像的追踪过程所产生的累积误差。
本实施例提供的重定位方法,通过利用IMU采集的存在一定误差的参考位姿变化量,将初始特征点通过旋转平移投影至当前图像中,得到投影特征点;进而根据投影特征点在较小的范围内匹配得到目标特征点。一方面,由于搜索范围变小,减小了每个初始特征点的候选ORB特征描述子的个数,使得需要进行的匹配计算次数变少,加速了匹配过程;另一方面,由于投影特征点是基于 2D-3D-2D的转换过程得到的,相当于附加入了3D约束条件,可以排除掉一些特征匹配度高但不满足几何一致性的干扰匹配点。
以下为本申请的装置实施例,对于装置实施例中未详细描述的技术细节,可以参考上述方法实施例中的对应描述。
请参考图11,其示出了本申请一个示例性实施例提供的相机姿态追踪过程的重定位装置的框图。该重定位装置可以通过软件、硬件或者两者的结合实现成为电子设备或移动终端的全部或一部分。该装置包括:图像获取模块1110、信息获取模块1120、特征点追踪模块1130、变化量计算模块1140和重定位模块 1150。
图像获取模块1110,用于获取所述多个标记图像中第i个标记图像之后采集的当前图像,i为大于1的整数;
信息获取模块1120,用于当所述当前图像符合重定位条件时,获取所述多个标记图像中的第一个标记图像的初始特征点和初始位姿参数,所述初始位姿参数用于指示所述相机采集所述第一个标记图像时的相机姿态;
特征点追踪模块1130,用于将所述当前图像相对于所述第一个标记图像进行特征点追踪,得到与所述初始特征点匹配的目标特征点;
变化量计算模块1140,用于根据所述初始特征点和所述目标特征点,计算所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量,所述目标相机姿态是所述相机在采集所述当前图像时的相机姿态;
重定位模块1150,用于根据所述初始位姿参数和所述位姿变化量,重定位得到所述目标相机姿态对应的目标位姿参数。
在一个可选的实施例中,所述设备中还设置有惯性测量单元IMU;所述特征点追踪模块1130包括:
提取子模块,用于对所述当前图像提取候选特征点;
采集子模块,用于通过所述IMU获取所述相机采集所述当前图像时的参考位姿变化量;
投影子模块,用于根据所述参考位姿变化量将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点;
搜索子模块,用于在以所述投影特征点为中心的第一范围内,从所述候选特征点中搜索与所述初始特征点匹配的目标特征点。
在一个可选的实施例中,所述投影子模块用于:
获取所述第一个标记图像中的所述初始特征点的二维坐标;
对所述初始特征点的二维坐标进行反投影,得到所述初始特征点在三维空间中的第一三维坐标Xborn
将所述第一三维坐标Xborn通过如下公式进行三维旋转平移,得到所述初始特征点在所述当前图像上对应的第二三维坐标Xcurrent
Xcurrent=R*Xborn+T;
将所述第二三维坐标Xcurrent投影至当前图像,得到所述投影特征点在所述当前图像中的二维坐标;
其中,R是所述参考位姿变化量中的旋转矩阵,T是所述参考位姿变化量中的位移参数。
在一个可选的实施例中,所述搜索子模块,还用于当搜索到的所述目标特征点数量少于预设阈值时,在以所述投影特征点为中心的第二范围内,重新搜索与所述初始特征点匹配的目标特征点;
其中,所述第二范围大于所述第一范围。
在一个可选的实施例中,所述装置还包括:提取模块1160;
所述图像获取模块1110,还用于获取所述第一个标记图像对应的n个尺度不同的金字塔图像,n为大于1的整数;
所述提取模块1160,还用于对每个所述金字塔图像提取所述初始特征点,并记录所述初始特征点在所述金字塔图像缩放至原始尺寸时的二维坐标。
在一个可选的实施例中,所述变化量计算模块1140,用于根据所述初始特征点和所述目标特征点计算所述相机在相机姿态改变过程时的单应性矩阵;对所述单应性矩阵进行分解,得到所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量Rrelocalize和Trelocalize
在一个可选的实施例中,所述特征点追踪模块1130,用于将所述当前图像确定为第i+1个标记图像,将后续采集的图像相对于所述第i+1个标记图像进行特征点追踪。
需要说明的是:上述实施例提供的相机姿态追踪过程的重定位装置在实现重定位时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的重定位装置与重定位方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图12示出了本发明一个示例性实施例提供的终端1200的结构框图。该终端1200可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1200还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1200包括有:处理器1201和存储器1202。
处理器1201可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1201可以采用DSP(Digital Signal Processing,数字信号处理)、 FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA (Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1201也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1201可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器 1201还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1202可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1202还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1202中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1201所执行以实现本申请中方法实施例提供的相机姿态追踪过程的重定位方法。
在一些实施例中,终端1200还可选包括有:外围设备接口1203和至少一个外围设备。处理器1201、存储器1202和外围设备接口1203之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1203相连。具体地,外围设备包括:射频电路1204、触摸显示屏1205、摄像头1206、音频电路1207和电源1208中的至少一种。
外围设备接口1203可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1201和存储器1202。在一些实施例中,处理器1201、存储器1202和外围设备接口1203被集成在同一芯片或电路板上;在一些其他实施例中,处理器1201、存储器1202和外围设备接口1203中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1204用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1204通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1204将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1204包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1204可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真) 网络。在一些实施例中,射频电路1204还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1205用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1205是触摸显示屏时,显示屏1205还具有采集在显示屏1205的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1201进行处理。此时,显示屏1205还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1205可以为一个,设置终端1200的前面板;在另一些实施例中,显示屏1205可以为至少两个,分别设置在终端1200的不同表面或呈折叠设计;在再一些实施例中,显示屏1205可以是柔性显示屏,设置在终端1200的弯曲表面上或折叠面上。甚至,显示屏1205还可以设置成非矩形的不规则图形,也即异形屏。显示屏1205可以采用LCD(Liquid Crystal Display,液晶显示屏)、 OLED(Organic Light-EmittingDiode,有机发光二极管)等材质制备。
摄像头组件1206用于采集图像或视频。可选地,摄像头组件1206包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1206还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1207可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1201进行处理,或者输入至射频电路 1204以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1200的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1201或射频电路1204的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1207还可以包括耳机插孔。
电源1208用于为终端1200中的各个组件进行供电。电源1208可以是交流电、直流电、一次性电池或可充电电池。当电源1208包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1200还包括有一个或多个传感器1209。该一个或多个传感器1209包括但不限于:加速度传感器1210、陀螺仪传感器1211、压力传感器1212、光学传感器1213以及接近传感器1214。
加速度传感器1210可以检测以终端1200建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1210可以用于检测重力加速度在三个坐标轴上的分量。处理器1201可以根据加速度传感器1210采集的重力加速度信号,控制触摸显示屏1205以横向视图或纵向视图进行用户界面的显示。加速度传感器1210还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1211可以检测终端1200的机体方向及转动角度,陀螺仪传感器1211可以与加速度传感器1210协同采集用户对终端1200的3D动作。处理器1201根据陀螺仪传感器1211采集的数据,可以实现如下功能:动作感应 (比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1212可以设置在终端1200的侧边框和/或触摸显示屏1205的下层。当压力传感器1212设置在终端1200的侧边框时,可以检测用户对终端1200 的握持信号,由处理器1201根据压力传感器1212采集的握持信号进行左右手识别或快捷操作。当压力传感器1212设置在触摸显示屏1205的下层时,由处理器1201根据用户对触摸显示屏1205的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
光学传感器1213用于采集环境光强度。在一个实施例中,处理器1201可以根据光学传感器1213采集的环境光强度,控制触摸显示屏1205的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1205的显示亮度;当环境光强度较低时,调低触摸显示屏1205的显示亮度。在另一个实施例中,处理器1201 还可以根据光学传感器1213采集的环境光强度,动态调整摄像头组件1206的拍摄参数。
接近传感器1214,也称距离传感器,通常设置在终端1200的前面板。接近传感器1214用于采集用户与终端1200的正面之间的距离。在一个实施例中,当接近传感器1214检测到用户与终端1200的正面之间的距离逐渐变小时,由处理器1201控制触摸显示屏1205从亮屏状态切换为息屏状态;当接近传感器 1214检测到用户与终端1200的正面之间的距离逐渐变大时,由处理器1201控制触摸显示屏1205从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图12中示出的结构并不构成对终端1200的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (18)

1.一种相机姿态追踪过程的重定位方法,其特征在于,应用于AR应用场景中具有相机的设备中,所述设备用于按序执行多个标记图像的相机姿态追踪,所述方法包括:
获取所述多个标记图像中第i个标记图像之后采集的当前图像,i为大于1的整数;
当所述当前图像符合重定位条件时,获取所述多个标记图像中的第一个标记图像的初始特征点和初始位姿参数,所述初始位姿参数用于指示所述相机采集所述第一个标记图像时的相机姿态,所述第一个标记图像是指所述相机在平移和/或旋转过程中,按照预设时间间隔采集一帧帧图像形成图像序列,将所述图像序列中的前几帧图像中符合预定条件的一帧图像确定为所述第一个标记图像;
将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点;
在以所述投影特征点为中心的第一范围内,从候选特征点中搜索与所述初始特征点匹配的目标特征点;
根据所述初始特征点、所述目标特征点和所述初始位姿参数,重定位得到目标相机姿态对应的目标位姿参数。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点,包括:
对所述当前图像提取候选特征点;
通过IMU获取所述相机采集所述当前图像时的参考位姿变化量;
根据所述参考位姿变化量将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点。
3.根据权利要求2所述的方法,其特征在于,所述根据所述参考位姿变化量将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点,包括:
获取所述第一个标记图像中的所述初始特征点的二维坐标;
对所述初始特征点的二维坐标进行反投影,得到所述初始特征点在三维空间中的第一三维坐标Xborn
将所述第一三维坐标Xborn通过如下公式进行三维旋转平移,得到所述初始特征点在所述当前图像上对应的第二三维坐标Xcurrent
Xcurrent=R*Xborn+T;
将所述第二三维坐标Xcurrent投影至所述当前图像,得到所述投影特征点在所述当前图像中的二维坐标;
其中,R是所述参考位姿变化量中的旋转矩阵,T是所述参考位姿变化量中的位移参数。
4.根据权利要求2所述的方法,其特征在于,所述以所述投影特征点为中心的第一范围内,搜索与所述初始特征点匹配的目标特征点之后,还包括:
当搜索到的所述目标特征点数量少于预设阈值时,在以所述投影特征点为中心的第二范围内,重新搜索与所述初始特征点匹配的目标特征点;
其中,所述第二范围大于所述第一范围。
5.根据权利要求1至4任一所述的方法,其特征在于,所述方法还包括:
获取所述第一个标记图像对应的n个尺度不同的金字塔图像,n为大于1的整数;
对每个所述金字塔图像提取所述初始特征点,并记录所述初始特征点在所述金字塔图像缩放至原始尺寸时的二维坐标。
6.根据权利要求1所述的方法,其特征在于,所述根据所述初始特征点、所述目标特征点和所述初始位姿参数,重定位得到所述目标相机姿态对应的目标位姿参数,包括:
根据所述初始特征点和所述目标特征点,计算所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量,所述目标相机姿态是所述相机在采集所述当前图像时的相机姿态;
根据所述初始位姿参数和所述位姿变化量,重定位得到所述目标相机姿态对应的目标位姿参数。
7.根据权利要求6所述的方法,其特征在于,所述根据所述初始特征点和所述目标特征点,计算所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量,包括:
根据所述初始特征点和所述目标特征点计算所述相机在相机姿态改变过程时的单应性矩阵;
对所述单应性矩阵进行分解,得到所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量Rrelocalize和Trelocalize
8.根据权利要求6所述的方法,其特征在于,所述根据所述初始位姿参数和所述位姿变化量,重定位得到所述目标相机姿态对应的目标位姿参数之后,还包括:
将所述当前图像确定为第i+1个标记图像;
将后续采集的图像相对于所述第i+1个标记图像进行特征点追踪。
9.一种相机姿态追踪过程的重定位装置,其特征在于,应用于AR应用场景中具有相机的设备中,所述装置用于按序执行多个标记图像的相机姿态追踪,所述装置包括:
图像获取模块,用于获取所述多个标记图像中第i个标记图像之后采集的当前图像,i为大于1的整数;
信息获取模块,用于当所述当前图像符合重定位条件时,获取所述多个标记图像中的第一个标记图像的初始特征点和初始位姿参数,所述初始位姿参数用于指示所述相机采集所述第一个标记图像时的相机姿态,所述第一个标记图像是指相机在平移和/或旋转过程中,按照预设时间间隔采集一帧帧图像形成图像序列,将所述图像序列中的前几帧图像中符合预定条件的一帧图像确定为第一个标记图像;
投影子模块,用于将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点;
搜索子模块,用于在以所述投影特征点为中心的第一范围内,从候选特征点中搜索与所述初始特征点匹配的目标特征点;
重定位模块,用于根据所述初始特征点、所述目标特征点和所述初始位姿参数,重定位得到目标相机姿态对应的目标位姿参数。
10.根据权利要求9所述的装置,其特征在于,所述装置还包括提取子模块和采集子模块;
所述提取子模块,用于对所述当前图像提取候选特征点;
所述采集子模块,用于通过IMU获取所述相机采集所述当前图像时的参考位姿变化量;
所述投影子模块,用于根据所述参考位姿变化量将所述第一个标记图像中的所述初始特征点进行旋转平移投影,得到所述当前图像中与所述初始特征点对应的投影特征点。
11.根据权利要求10所述的装置,其特征在于,所述投影子模块用于:
获取所述第一个标记图像中的所述初始特征点的二维坐标;
对所述初始特征点的二维坐标进行反投影,得到所述初始特征点在三维空间中的第一三维坐标Xborn
将所述第一三维坐标Xborn通过如下公式进行三维旋转平移,得到所述初始特征点在所述当前图像上对应的第二三维坐标Xcurrent
Xcurrent=R*Xborn+T;
将所述第二三维坐标Xcurrent投影至当前图像,得到所述投影特征点在所述当前图像中的二维坐标;
其中,R是所述参考位姿变化量中的旋转矩阵,T是所述参考位姿变化量中的位移参数。
12.根据权利要求9所述的装置,其特征在于,
所述搜索子模块,还用于当搜索到的所述目标特征点数量少于预设阈值时,在以所述投影特征点为中心的第二范围内,重新搜索与所述初始特征点匹配的目标特征点;
其中,所述第二范围大于所述第一范围。
13.根据权利要求9至12任一所述的装置,其特征在于,所述装置还包括:提取模块;
所述图像获取模块,还用于获取所述第一个标记图像对应的n个尺度不同的金字塔图像,n为大于1的整数;
所述提取模块,还用于对每个所述金字塔图像提取所述初始特征点,并记录所述初始特征点在所述金字塔图像缩放至原始尺寸时的二维坐标。
14.根据权利要求9所述的装置,其特征在于,所述装置还包括:变化量计算模块;
所述变化量计算模块,用于根据所述初始特征点和所述目标特征点,计算所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量,所述目标相机姿态是所述相机在采集所述当前图像时的相机姿态;
所述根据所述初始位姿参数和所述位姿变化量,重定位得到所述目标相机姿态对应的目标位姿参数。
15.根据权利要求14所述的装置,其特征在于,
所述变化量计算模块,用于根据所述初始特征点和所述目标特征点计算所述相机在相机姿态改变过程时的单应性矩阵;对所述单应性矩阵进行分解,得到所述相机从所述第一相机姿态改变至目标相机姿态时的位姿变化量Rrelocalize和Trelocalize
16.根据权利要求14所述的装置,其特征在于,
所述特征点追踪模块,还用于将所述当前图像确定为第i+1个标记图像;将后续采集的图像相对于所述第i+1个标记图像进行特征点追踪。
17.一种电子设备,其特征在于,所述电子设备包括存储器和处理器;
所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如权利要求1至8任一所述的重定位方法。
18.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如权利要求1至8任一所述的重定位方法。
CN201910847941.1A 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质 Active CN110555883B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910847941.1A CN110555883B (zh) 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910847941.1A CN110555883B (zh) 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质
CN201810391550.9A CN108648235B (zh) 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201810391550.9A Division CN108648235B (zh) 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN110555883A CN110555883A (zh) 2019-12-10
CN110555883B true CN110555883B (zh) 2022-07-22

Family

ID=63748232

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910847941.1A Active CN110555883B (zh) 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质
CN201810391550.9A Active CN108648235B (zh) 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201810391550.9A Active CN108648235B (zh) 2018-04-27 2018-04-27 相机姿态追踪过程的重定位方法、装置及存储介质

Country Status (4)

Country Link
US (1) US11205282B2 (zh)
EP (1) EP3779883B1 (zh)
CN (2) CN110555883B (zh)
WO (1) WO2019205842A1 (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555883B (zh) * 2018-04-27 2022-07-22 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置及存储介质
CN108876854B (zh) 2018-04-27 2022-03-08 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN108734736B (zh) 2018-05-22 2021-10-26 腾讯科技(深圳)有限公司 相机姿态追踪方法、装置、设备及存储介质
CN110148178B (zh) * 2018-06-19 2022-02-22 腾讯科技(深圳)有限公司 相机定位方法、装置、终端及存储介质
CN109544615B (zh) * 2018-11-23 2021-08-24 深圳市腾讯信息技术有限公司 基于图像的重定位方法、装置、终端及存储介质
CN111260779B (zh) * 2018-11-30 2022-12-27 华为技术有限公司 地图构建方法、装置及系统、存储介质
CN111354042B (zh) * 2018-12-24 2023-12-01 深圳市优必选科技有限公司 机器人视觉图像的特征提取方法、装置、机器人及介质
CN111696157B (zh) * 2019-03-12 2024-06-18 北京京东尚科信息技术有限公司 图像重定位的确定方法、系统、设备和存储介质
CN111949112A (zh) 2019-05-14 2020-11-17 Oppo广东移动通信有限公司 对象交互方法及装置、系统、计算机可读介质和电子设备
CN110296686B (zh) * 2019-05-21 2021-11-09 北京百度网讯科技有限公司 基于视觉的定位方法、装置及设备
CN110414353B (zh) * 2019-06-24 2023-06-20 炬星科技(深圳)有限公司 机器人开机定位、运行重定位方法、电子设备及存储介质
CN110310333B (zh) * 2019-06-27 2021-08-31 Oppo广东移动通信有限公司 定位方法及电子设备、可读存储介质
CN110335317B (zh) * 2019-07-02 2022-03-25 百度在线网络技术(北京)有限公司 基于终端设备定位的图像处理方法、装置、设备和介质
CN111768443A (zh) * 2019-07-23 2020-10-13 北京京东尚科信息技术有限公司 基于移动摄像头的图像处理方法和装置
CN112406608B (zh) * 2019-08-23 2022-06-21 国创移动能源创新中心(江苏)有限公司 充电桩及其自动充电装置和方法
WO2021051227A1 (zh) * 2019-09-16 2021-03-25 深圳市大疆创新科技有限公司 三维重建中图像的位姿信息确定方法和装置
CN110942007B (zh) * 2019-11-21 2024-03-05 北京达佳互联信息技术有限公司 手部骨骼参数确定方法、装置、电子设备和存储介质
CN112585956B (zh) * 2019-11-29 2023-05-19 深圳市大疆创新科技有限公司 轨迹复演方法、系统、可移动平台和存储介质
CN113033590B (zh) * 2019-12-25 2024-08-09 杭州海康机器人股份有限公司 图像特征匹配方法、装置、图像处理设备及存储介质
CN115023743A (zh) * 2020-02-13 2022-09-06 Oppo广东移动通信有限公司 基于稀疏表示在增强现实会话中的表面检测和追踪
US11397869B2 (en) * 2020-03-04 2022-07-26 Zerofox, Inc. Methods and systems for detecting impersonating social media profiles
CN111582385B (zh) * 2020-05-11 2023-10-31 杭州易现先进科技有限公司 Slam质量的量化方法、系统、计算机设备和存储介质
CN111862150B (zh) * 2020-06-19 2024-06-14 杭州易现先进科技有限公司 图像跟踪的方法、装置、ar设备和计算机设备
CN111798489B (zh) * 2020-06-29 2024-03-08 北京三快在线科技有限公司 一种特征点跟踪方法、设备、介质及无人设备
CN114078092A (zh) * 2020-08-11 2022-02-22 中兴通讯股份有限公司 一种图像处理的方法、装置、电子设备及存储介质
CN112084041A (zh) * 2020-09-30 2020-12-15 汉海信息技术(上海)有限公司 资源处理方法、装置、电子设备及存储介质
CN112489224A (zh) * 2020-11-26 2021-03-12 北京字跳网络技术有限公司 图像绘制方法、装置、可读介质及电子设备
CN112562047B (zh) * 2020-12-16 2024-01-19 北京百度网讯科技有限公司 三维模型的控制方法、装置、设备以及存储介质
CN112907662B (zh) * 2021-01-28 2022-11-04 北京三快在线科技有限公司 特征提取方法、装置、电子设备及存储介质
CN112945240B (zh) * 2021-03-16 2022-06-07 北京三快在线科技有限公司 特征点位置的确定方法、装置、设备及可读存储介质
CN113409388A (zh) * 2021-05-18 2021-09-17 深圳市乐纯动力机器人有限公司 扫地机位姿确定方法、装置、计算机设备和存储介质
CN113689484B (zh) * 2021-08-25 2022-07-15 北京三快在线科技有限公司 深度信息的确定方法、装置、终端及存储介质
US12014520B2 (en) 2021-08-26 2024-06-18 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for detecting objects within an image in a wide-view format
CN115937305A (zh) * 2022-06-28 2023-04-07 北京字跳网络技术有限公司 图像处理方法、装置及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101464134A (zh) * 2009-01-16 2009-06-24 哈尔滨工业大学 一种空间目标三维位姿视觉测量方法
CN102506757A (zh) * 2011-10-10 2012-06-20 南京航空航天大学 双目立体测量系统多视角测量中的自定位方法
CN103247075A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于变分机制的室内环境三维重建方法
WO2016009811A1 (en) * 2014-07-14 2016-01-21 Mitsubishi Electric Corporation Method for calibrating one or more cameras
CN106446815A (zh) * 2016-09-14 2017-02-22 浙江大学 一种同时定位与地图构建方法
CN107301661A (zh) * 2017-07-10 2017-10-27 中国科学院遥感与数字地球研究所 基于边缘点特征的高分辨率遥感图像配准方法
CN107888828A (zh) * 2017-11-22 2018-04-06 网易(杭州)网络有限公司 空间定位方法及装置、电子设备、以及存储介质
CN108648235A (zh) * 2018-04-27 2018-10-12 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011048497A2 (en) * 2009-10-19 2011-04-28 National University Of Singapore Computer vision based hybrid tracking for augmented reality in outdoor urban environments
US10860683B2 (en) * 2012-10-25 2020-12-08 The Research Foundation For The State University Of New York Pattern change discovery between high dimensional data sets
US9940553B2 (en) * 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9658070B2 (en) * 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
US10152825B2 (en) * 2015-10-16 2018-12-11 Fyusion, Inc. Augmenting multi-view image data with synthetic objects using IMU and image data
US11232583B2 (en) * 2016-03-25 2022-01-25 Samsung Electronics Co., Ltd. Device for and method of determining a pose of a camera
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN106092104B (zh) * 2016-08-26 2019-03-15 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
EP3800618B1 (en) * 2016-08-30 2022-12-07 Snap Inc. Systems and methods for simultaneous localization and mapping
CN106885574B (zh) * 2017-02-15 2020-02-07 北京大学深圳研究生院 一种基于重跟踪策略的单目视觉机器人同步定位与地图构建方法
CN106875450B (zh) * 2017-02-20 2019-09-20 清华大学 用于相机重定位的训练集优化方法及装置
CN106996769B (zh) * 2017-03-22 2020-02-14 天津大学 一种无需相机标定的主动式位姿快速重定位方法
CN107193279A (zh) * 2017-05-09 2017-09-22 复旦大学 基于单目视觉和imu信息的机器人定位与地图构建系统
CN107808395B (zh) * 2017-10-31 2020-12-04 南京维睛视空信息科技有限公司 一种基于slam的室内定位方法
CN108615248B (zh) * 2018-04-27 2022-04-05 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101464134A (zh) * 2009-01-16 2009-06-24 哈尔滨工业大学 一种空间目标三维位姿视觉测量方法
CN102506757A (zh) * 2011-10-10 2012-06-20 南京航空航天大学 双目立体测量系统多视角测量中的自定位方法
CN103247075A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于变分机制的室内环境三维重建方法
WO2016009811A1 (en) * 2014-07-14 2016-01-21 Mitsubishi Electric Corporation Method for calibrating one or more cameras
CN106446815A (zh) * 2016-09-14 2017-02-22 浙江大学 一种同时定位与地图构建方法
CN107301661A (zh) * 2017-07-10 2017-10-27 中国科学院遥感与数字地球研究所 基于边缘点特征的高分辨率遥感图像配准方法
CN107888828A (zh) * 2017-11-22 2018-04-06 网易(杭州)网络有限公司 空间定位方法及装置、电子设备、以及存储介质
CN108648235A (zh) * 2018-04-27 2018-10-12 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于单目视觉的SLAM算法研究;曹恒;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180115;第I138-I487页 *

Also Published As

Publication number Publication date
EP3779883A4 (en) 2021-12-22
US11205282B2 (en) 2021-12-21
WO2019205842A1 (zh) 2019-10-31
US20200327694A1 (en) 2020-10-15
CN108648235A (zh) 2018-10-12
CN108648235B (zh) 2022-05-17
EP3779883B1 (en) 2024-10-16
CN110555883A (zh) 2019-12-10
EP3779883A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
CN110555883B (zh) 相机姿态追踪过程的重定位方法、装置及存储介质
CN108615248B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN108596976B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN108734736B (zh) 相机姿态追踪方法、装置、设备及存储介质
CN108537845B (zh) 位姿确定方法、装置及存储介质
CN108615247B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN108876854B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN110599549B (zh) 界面显示方法、装置及存储介质
CN108682038B (zh) 位姿确定方法、装置及存储介质
CN109947886B (zh) 图像处理方法、装置、电子设备及存储介质
CN111738220A (zh) 三维人体姿态估计方法、装置、设备及介质
CN110148178B (zh) 相机定位方法、装置、终端及存储介质
CN110650379B (zh) 视频摘要生成方法、装置、电子设备及存储介质
CN108682037B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
JP2022511427A (ja) 画像特徴点の動き情報の決定方法、タスク実行方法およびデバイス
CN110807361A (zh) 人体识别方法、装置、计算机设备及存储介质
CN112749613B (zh) 视频数据处理方法、装置、计算机设备及存储介质
CN108776822B (zh) 目标区域检测方法、装置、终端及存储介质
CN111753784A (zh) 视频的特效处理方法、装置、终端及存储介质
CN110570460A (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN109547843B (zh) 对音视频进行处理的方法和装置
CN114170349A (zh) 图像生成方法、装置、电子设备及存储介质
CN111754386A (zh) 图像区域屏蔽方法、装置、设备及存储介质
CN111928861B (zh) 地图构建方法及装置
CN111611414A (zh) 车辆检索方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40018673

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant