CN102667855A - 用于确定相机姿态以及用于识别真实环境的对象的方法 - Google Patents
用于确定相机姿态以及用于识别真实环境的对象的方法 Download PDFInfo
- Publication number
- CN102667855A CN102667855A CN2010800574754A CN201080057475A CN102667855A CN 102667855 A CN102667855 A CN 102667855A CN 2010800574754 A CN2010800574754 A CN 2010800574754A CN 201080057475 A CN201080057475 A CN 201080057475A CN 102667855 A CN102667855 A CN 102667855A
- Authority
- CN
- China
- Prior art keywords
- image
- parameter
- camera
- data model
- real object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Navigation (AREA)
- Studio Devices (AREA)
Abstract
一种用于确定相机(22,32)相对于真实环境(40)的姿态的方法,包括以下步骤:通过相机(22,32)记录真实环境的至少一个图像(50),其中所述图像包含真实对象(41)的至少一个部分;执行追踪方法,该追踪方法在真实对象包含在所述真实环境的所述图像(50)中时,评价关于与真实对象(41)相关联的特征和所述真实对象(41)的相应特性之间的对应关系,以便得出关于相机(22,32)的姿态的结论;确定环境状况的至少一个参数;以及根据所述至少一个参数来执行所述追踪方法。该方法还可类似地应用于用于在由相机拍摄的图像中识别真实环境的对象的方法。
Description
技术领域
本发明涉及用于确定相机相对于真实环境的姿态的方法,以及涉及用于在由相机拍摄的图像中识别真实环境的对象的方法。而且,本发明涉及用于提供数据模型的方法,该数据模型意图用于在用于确定相机相对于真实环境的真实目标的姿态的方法中或在用于识别真实环境的对象的方法中,与由相机拍摄的图像数据进行比较。
背景技术
增强现实(AR)是以现实覆盖虚拟数据并且由此便于数据与现实相关联的技术。在现有技术中已知有例如移动AR系统的应用。在过去的几年中,已证实高性能移动设备(例如,所谓的智能手机)适于AR应用。同时,这些设备具有相当大的彩色显示器、内置相机、良好的处理器以及诸如方位传感器和GPS的附加传感器。此外,经由无线电通信网络,可以估计设备的位置。在过去,存在各种在移动设备上利用AR实施的方案。首先,存在使用特定的光学标记,以确定设备的位置和方位。最近,还存在利用更加现代化设备的方位传感器系统和GPS的方法([1,4,10,15])。
[1]AR Wikitude.http://www.mobilizy.com/wikitude.php。
[4]在1997年关于可佩戴式计算机的第一国际研讨会的论文集中第74-81页由S.Feiner、B.MacIntyre、T.Hollerer和A.Webster的A touring machine:Prototyping 3dmobile augmented reality systems for exploring the urban environment。
[10]Sekai Camera.http://www.tonchidot.com/product-info.html。
[14]2008年第七届关于混合和增强现实的IEEE/ACM国际研讨会,2008年IEEE/ACM国际研讨会第187页-188页由Marko Heinrich,Bruce H.Thomas,Stefan Mueller的“AR Weather”,混合和增强现实。
[15]layar.com
出版商Springer柏林/海德尔于2006年4月在杂志《Machine Visionand Applications》出版的第17卷,第1号,第8页-第20页,书号为ISSN0932-8092(印刷)1432-1769(在线)。
然而,在这方面应该注意的是由于不安全的传感器数据,配准(registration),即覆盖,的精度值得改进。对此的方法是使用混合追踪,该混合追踪通过光学方法,例如根据GPS、罗盘以及重力传感器的组合来改善相机的初始姿态。常常使用图像数据的所谓“直方图均衡化”,以便减少对于变化的光线条件的易感性。
在现有技术中,已知用于确定相机相对于真实环境的姿态的光学追踪系统的初始化和在由相机拍摄的图像中真实对象的对象识别。然而,系统的可靠性有时会随着变化的环境条件而发生极大的改变。在这方面相机姿态是空间中的相机的位置和方位。可以将现实提供为任意形式的数据模型,例如作为描述现实或部分现实的几何特性的3D模型。
公开文献US2003/0025714描述了通过增强现实来可视化气象数据的系统。公开文献US2005/0231419A1描述了通过气象独立传感器来监视空域,并通过AR显示空域信息的AR系统。
发明内容
本发明的目的在于在用于确定相机相对于真实环境的姿态的方法中以及用于在由相机拍摄的图像中识别真实环境的对象的方法中,提高对于变化的环境条件的鲁棒性。
根据第一方面,本发明涉及用于确定相机相对于真实环境的姿态的方法,所述方法包括以下步骤:通过相机拍摄真实环境的至少一个图像,所述图像包含真实对象的至少部分;例如在拍摄图像时,确定环境状况的至少一个参数;执行追踪方法,该追踪方法在真实对象包含在所述真实环境的所述图像中时,评价关于与所述真实对象相关联的特征和所述真实对象的相应特征之间的对应关系,以便获得关于相机的姿态的结论;以及根据所述至少一个参数来执行所述追踪方法。
根据本发明的另一方面,本发明涉及用于在由相机拍摄的图像中识别真实环境的对象的方法,所述方法包括以下步骤:通过相机拍摄真实环境的至少一个图像,所述图像包含真实对象的至少部分;执行图像识别方法,所述图像识别方法提供关于图像中的所述至少一个真实对象的识别的信息;例如在拍摄图像时,确定环境状况的至少一个参数;以及根据所述至少一个参数执行所述图像识别方法。
具体来说,可以以这一方式识别当前环境状况,并且动态地配置该系统。通过匹配配置的方式,提高了相对于变化的环境条件的鲁棒性。
根据本发明的实施例,所述环境状况的至少一个参数的确定使用以下信息项目中的至少一个或多个:某日的时间;某年的时间;天气,尤其是雨、云、太阳(太阳辐射)以及雾;月亮的位置;雪情;树木的枝叶;海拔高度;公共事件,特别是强烈运动;交通状况;位置;世界坐标系中的方位;图像直方图;温度;维护步骤。环境状况的至少一个参数尤其可以对于这些条件或状况中的一个或多个是特有的。
如在上文中以示例性方式指出地,各种环境条件对于前述的用于对象识别和姿态确定的方法,常常具有很大的影响。在识别这些条件后,从而能够做出反应。例如,一个反应可以是针对太阳的大多数位置,准备环境的数据模型,并且对于雨天和晴天也如此做。当期望在特定的位置执行识别或初始化时,可以例如通过某天/某年的时间以及在线天气信息的查询的方式,加载和利用合适的数据模型(其中太阳辐射的向量与所计算的太阳辐射的向量之间的角度尽可能小)。通常而言,由此存在描述至少部分环境条件的一个或多个测量、仿真或确定的参数。可以分别从配置用于对象识别和姿态确定的识别或初始化系统的一个或多个参数中确定或导出。
在本发明的实施例中,追踪方法使用至少一个根据至少一个参数进行初始化的光学追踪方法。
例如,通过具有一个、两个、三个、四个、五个或六个自由度的追踪方法,来确定相机的姿态。
在本发明的实施例中,追踪方法可以使用传感器类型不同的数个追踪传感器。例如,追踪方法包括根据至少一个参数对至少一个追踪传感器进行加权。
在本发明的实施例中,追踪方法也可以包括根据至少一个参数进行方法部分步骤的优先化(prioritization)。然而,在使用与由相机拍摄的图像的数据进行比较的数据模型的方法中,作为替换或与之组合,也可以考虑当前环境状况的至少一个参数来选择数据模型。在另一实施例中,使用至少一个数据模型与真实环境的图像中的真实对象的图像数据进行比较,其中所述至少一个参数对于数据模型的准备和/或使用具有影响。
例如,至少一个参数对于数据模型的种类,尤其是所谓特征探测器和描述符的准备具有影响。在另一实施例中,从记录有至少一个参数(环境状况)或由仿真准备的多个单独模型中提取数据模型,该数据模型包含在数个环境状况中出现的信息项目的交集。
本发明还涉及用于提供数据模型的方法,该数据模型意图用于在用于确定相机相对于真实环境的真实对象的姿态的方法中或用于识别真实环境的对象的方法中,与由相机拍摄的图像的数据进行比较。根据这样的方法,查明或仿真环境状况,并且确定所述环境状况的至少一个参数。而且,准备数据模型,该数据模型包含所述真实对象的基本描述,设定或仿真各种环境状况,并且对于不同的环境状况,根据相应的至少一个参数来提供相应匹配的数据模型(例如这可以作为对于当前参数的直接反应或者作为预备,例如,在预先仿真大多数的情况时发生)。
根据实施例,基本描述是环境的虚拟3D模型。
根据另一实施例,所准备的数据模型包括在数个不同环境状况中出现的信息项目的交集。
例如,当将虚拟信息混合在真实环境的景观中时,可以考虑例如经由因特网(“在线”)检索天气数据,以便相对于真实环境增加混合在虚拟信息中的真实度,并且从而提高关联性。存在在此可构想用于处理的各种的复杂度。例如,基于天气状况,可以分配与天气状况匹配的固定的照明模式或素材(例如纹理)。根据天气数据(诸如云、太阳辐射等)和/或其它数据(诸如,某日/某年的时间等),可以计算光线条件或投射的阴影(例如,通过本领域技术人员已知的光线追踪方法)。
本发明的附加的有利开发和实施例将在从属权利要求中指出。
附图说明
下文中将通过附图来更加详细地描述本发明,其中:
图1示出相对于真实环境的示例性系统设置的示意性配置的平面图,该示例性系统设置可以用于执行根据本发明的方法;
图2示出相对于真实环境的示例性系统设置的示意性配置的侧视图,该示例性系统设置可以用于执行根据本发明的方法;
图3示出用于确定相机姿态或用于对象识别的数据模型的示意性示例;
图4示出根据本发明的实施例的方法的示例性流程;
图5示出根据本发明的进一步实施例的方法的示例性流程;
图6示出根据本发明的进一步实施例的方法的示例性流程;
图7示出根据本发明的进一步实施例的方法的示例性流程;
图8示出根据本发明的进一步实施例的方法的示例性流程;
图9示出根据本发明的实施例的数据结构的示例性设置;
图10示出根据本发明的实施例的示例性参数向量;
图11示出根据本发明实施例的所拍摄的图像的差异的近似的示例性值以及可能的计算。
具体实施方式
图1示出相对于真实环境的示例性系统设置的示意性配置的平面图,该示例性系统设置可以用于执行根据本发明的方法。具体来说,图1示出了系统设置的各种可能性。与此结合,图2示出相对于真实环境的示例性系统设置的示意性配置的侧视图,该示例性系统设置可以用于执行根据本发明的方法。
在图1A的所示中,用户佩戴作为显示设备的头戴显示系统(“头戴显示器”,简称HMD),该头戴显示系统包括作为系统设置20的一部分的显示器21。该显示器21例如可以是通常已知的半透明数据眼镜(“光学透视显示器”),由计算机23提供的虚拟信息可以在半透明数据眼镜中混合。随后,在通过半透明数据眼镜21观看真实世界时,用户看到增加混合有虚拟信息的真实世界40的对象(诸如与真实世界相关的POI对象)。以这种方式,系统设置20构成了普遍已知的增强现实(AR)系统的第一实施例。
显示器21可以具有诸如旋转传感器的附加传感器24,和附加传感器24上安装的用于光学追踪的相机22。显示器21可以是半透明的,或可以由相机图像来提供现实图像。在采用半透明显示器21时,眼睛25与显示器21之间的校准是必要的。在这方面,具有各种记载在现有技术中的处理方法,并且对于本领域技术人员也是已知的。有利地是,在显示器21上或用户身体上的任何地方,或者也可以在计算机单元23中,还可以安装诸如GPS传感器(GPS:全球定位系统)的位置传感器,用以确定系统设置20在真实世界40中的地理位置(例如,根据经度和纬度)。
图1B的视图示出了例如可以在现代移动电话(所谓“智能手机”)中经常发现的另一示例性系统设置30。显示设备31(例如,以显示屏或显示器的形式)、计算机33、传感器34以及相机32构成了例如容纳在移动电话的共同外壳中的系统单元。可以使用传感器类型不同的数个追踪传感器。例如,可以组合使用和评价旋转传感器34-1和GPS传感器34-2(参见,图2)。
通过示出由相机32捕获的真实环境40的相机图像50的显示器31,来提供真实环境40的景象。对于增强现实的应用,可以在显示器31上显示该相机图像50,并且可以对该相机图像增加附加的虚拟信息(诸如与真实世界相关的POI对象)。以这种方式,系统设置30构成了普遍已知的增强现实(AR)系统的另一实施例。
基本上,本发明可以方便地应用于所有形式的AR。例如,无论是实施在具有半透明HMD的所谓光学透视模式中,还是实施在具有相机和显示屏的视频透视模式中。基本上,本发明也可以结合立体显示器来使用,其中视频透视方法有利地使用两个相机,每一个相机为每个眼睛记录一个视频流。在任何情况下,能够为每个眼睛单独计算虚拟3D信息的项目。
基本上,下文描述的不同部分的步骤的处理能够经由网络分配到各种计算机。因此,客户端/服务器架构或纯粹的基于客户端的解决方案是可行的(其中例如,将可供选择的各种数据模型固定地提供在服务器上)。例如,客户端可以将图像发送到服务器,服务器基于该图像并且基于环境状况的参数,,使用关于系统设置(参见,图1)的3D方位和3D位置或其相对于真实世界的部分(参见以下的姿态)以及对于视觉或能见度范围的客户端语句。可以由客户端部分地确定关于环境状况的参数(例如位置),并且可以由服务器部分地确定关于环境状况的参数(对于该位置的气象数据)。而且,客户端或服务器也可以包括数个计算单元,诸如数个CPU或诸如普遍已知的FPGA、ASIC、GPU或DSP的专门硬件组件。也存在相互交换例如相对于在该位置的环境状况产生的信息,或者在客户端产生环境数据的情况中相互交换信息的数个客户端。该信息的交换可以经由服务器进行,然而,也可以设想例如经由蓝牙或WLAN的直接连接而进行。
为了实现AR,空间中的相机姿态(位置和方位)是必需的。这可以通过各种不同的方式来实现。例如通过仅使用GPS和具有电子罗盘的方位传感器(例如安装在某些现代化移动电话中)能够确定在现实世界中的姿态。然而,姿态的不确定性会非常高。因此,也可以使用其它方法,诸如光学初始化和追踪,或者光学方法与GPS和方位传感器的结合。可以使用WLAN定位,或者RFID或光学标记也可以支持该定位过程。如上文中所述,在此也可以使用基于客户端/服务器的方法。然而,基本上,本发明并不仅限制于AR的使用。例如,还可以执行对象识别,并且随后在网页浏览器中启动网页或者启动应用程序。然而,也可以使用至少一个参数和照片,以便在诸如Flickr的照片站点上准确地定位图像,该图像也可以指示拍摄图像的地方。
本发明能够改善用于客户端的信息表示。然而,也能够用在远程情景中。在这种情况下,例如控制室中的维护专家在他的显示屏上可以看到经由数据网络传输的客户端的图像以及相应处理的信息。随后,专家可以对客户端发出指令或只是观察。在类似的情景中,可以设想某人观看具有根据本发明显示的交互式附加信息的捕获图像或视频素材,并且如果可能的话,能够通过类似于基于因特网的应用“谷歌街景”来导航。
此外,也可以将使用监视器、HMD或头顶显示器的本发明安装在或携载在车辆、飞机或船只中。
基本上,本发明可以用于融和所谓的感兴趣点。可以针对大量不同形式的信息设置感兴趣点(“POI”)。下文中给出的示例:可以使用GPS信息来表示多个地方的图像。可以自动提取来自因特网的信息。例如,这可以是具有地址或给出评级的网页的公司或餐馆网站。用户可以在特定的位置存放文本、图像或3D对象,并且可以将文本、图像或3D对象提供给其他人使用。可以针对地理信息检索诸如维基百科的信息网页,并且该网页可以作为POI用于访问。可以根据移动设备的用户的检索和浏览行为自动地产生POI。能够显示出其它的感兴趣地方,诸如地下交通或公交车站、医院、警察局、医生、房地产广告或健身俱乐部。
该系统也允许显示导航信息(例如,箭头)。
如图2中所示,现实可以以任意的形式呈现为数据模型,例如3D模型51,该3D模型51在该情况中限定出真实对象41的几何特性,或者将对象的点特征存储在3D点云中。因此,这样的数据模型通常可以描述现实或部分现实的几何特性。可以在用于确定相机姿态的追踪方法中或用于对象识别的方法中利用这样的数据模型。
例如,利用这样的数据模型,可以实施用于光学对象追踪的方法。在这种情况下,如本领域技术人员已知的,将诸如数据模型51的数据模型与由相机拍摄的包括真实对象41的图像的数据进行比较。
在现有技术中,已知在由相机拍摄的图像中的真实对象的对象识别以及用于确定相对于真实环境的相机姿态的光学追踪系统的初始化。具体来说,当真实对象包含在真实环境的图像中时,在此所使用的方法评价关于与真实对象相关联的特征和真实对象的相应特性之间的对应关系的信息,以获得关于相机姿态的结论。
然而,系统的可靠性有时会随着环境状况的改变而发生极大的变化。通过本发明,能够识别当前的环境状况并且动态地配置该系统。通过匹配配置的方式,提高了对于环境条件改变的鲁棒性。
根据本发明的一方面,将实施以下步骤:通过相机拍摄真实环境的至少一个图像;该图像包含真实对象的至少一部分;确定环境状况的至少一个参数;当真实对象包含在真实环境的图像中时,执行追踪方法,该追踪方法评价关于与真实对象相关联的特征和真实对象的相应特性之间的对应关系,以获得关于相机姿态的结论;以及根据该至少一个参数来执行追踪方法,尤其是根据该至少一个参数来找到对应关系。因此能够识别当前的环境状况,并且动态地配置该系统。通过匹配配置的方式,能够提高鲁棒性。
例如,追踪方法使用至少一个根据至少一个参数初始化的光学追踪方法。例如通过追踪方法采用一个、两个、三个、四个、五个或六个自由度来确定相机的姿态。预期用途例如是对象识别(例如,获得信息:“我在哪个对象的前面”),或者用于具有六自由度的增强现实的光学追踪系统的初始化。为了确定六自由度,现有技术中已知的可能方式在于生成2D-3D对应关系并且将其输入优化方法。此外,例如,当记录设备额外装配有生成深度信息的深度相机或第二相机时,也可以使用3D-3D对应关系。为了提供对应关系,可以从图像中识别特征,并且在数据模型中检索相同的特征。为了检索,可以使用所谓的特征描述符(例如SURF或SIFT)。SUFT表示加速鲁棒特征,SIFT表示尺度不变特征变换)。然而,当相对于其它光线条件而不是当前图像所识别的特征来产生数据模型的特征和其描述符时,这常常不起作用。
例如,追踪方法使用数个传感器类型不同的追踪传感器。随后,在追踪方法中,可以以所谓的传感器融合,根据至少一个参数,相对于其它追踪传感器,对追踪传感器中的一个或多个实施加权(例如,在恶劣条件的情况下增加了光学追踪的不确定性)。也可以根据至少一个参数在追踪方法中实施方法部分步骤的优先化。例如,在良好的条件下可以首先使用更快的方法(例如,SUFT),以及在恶劣条件的情况下首先使用更鲁棒的方法(例如,SIFT)。
不同的环境条件常常对该方法和许多特征有着很大的影响。因此在识别这些不同的环境条件时,可以由此针对该方法和许多特征做出反应。反应例如可以是对于太阳的大多数位置准备环境模型,并且对于雨天和晴天也如此做。当在特定的位置执行识别或初始化时,可以例如通过时间、日期/年和在线天气信息查询的方式,加载和使用合适的模型(其中在太阳辐射的向量和所计算的太阳辐射的向量之间的角度尽可能的小)。因此,存在描述环境条件的参数以及配置该识别或初始化系统的参数。
实施例使用以下项目信息中的一个或数个,来确定环境状况的至少一个参数:某日的时间;某年的时间;天气,尤其是雨、云、太阳和雾;月亮的位置;雪情;树木的枝叶;海拔高度;公共事件,并且特别是强烈运动;交通情况;位置;世界坐标系的方位;图像直方图;温度;维护步骤。因此,环境状况的至少一个参数对于这些条件或情况中的一个或多个尤其可以是特有的。在实施例中,至少一个参数并不(仅仅)是位置或并不(仅仅)是对于位置而特有的。在进一步的实施例中,至少一个参数并不(仅仅)是方位或并不(仅仅)是对于方位而特有的。在另一实施例中,至少一个参数并不(仅仅)是姿态或并不(仅仅)是对于姿态而特有的。
以下,存在根据本发明的进一步的示例和可能方式:
对于照明情况,还可以考虑月亮。在有月光的夜晚,可以使用特定的光学特征,在黑暗的夜晚,可以仅采用人造光源(例如,灯光广告)来工作,或者完全不尝试使用光学系统,而是仅使用例如GPS和罗盘。在下雪时(当前天气或最近几天的天气数据库,以及温度曲线或在线道路交通报道或在线雪崩报道),环境又有不同,并且将有利地加载相应的模型或停用该光学追踪。
根据年的时间,在某些区域可以得出关于树木枝叶的结论,并且可以加载不同的模型。除了某年的时间以外,还可以在计算中额外考虑整个一年的气候条件。在这个方面,海拔高度也可以起到作用。
基本上,不仅可以根据特定的环境状况来加载不同的数据模型,而且还能够对于优先化(在算法中初期或后期考虑)或组合模型中特定模型部分的加权(对于结果的强大的或弱小的影响)施加影响。在组合模型中,单个模型数据(诸如点云的多个点)被补充有关于环境状况的数据。根据特定的环境状况,因此能够移出、改变或者增加部分模型数据。例如在“冬天”的环境状况中将数据模型的特定点移出(即,不考虑),而在“夏天”的环境状况中则考虑它们。在图9中示出了对于该可能实现的可行的数据结构。该数据模型可以包含每个特征一个参数向量、诸如SURF描述符的描述符、和用于计算诸如地球坐标系中的3D位置的姿态的最优化信息,其中该参数向量描述该特征可以与哪些环境状况一起合理地使用。
相机拍摄图像的位置和方位常常还与所确定的环境条件有很大的关联性(当地天气,当地日期的时间等)。然而,例外是,识别过程会发生在全世界内(例如,可口可乐瓶的识别),并且其中客户端可以对特定环境的特性做出反应,而不管位置在哪里(例如,移动设备上的亮度传感器或相机图像的直方图)。直方图(一种关于图像的统计方式)例如可以允许提示环境照明的一般特性,并且可以停用或切换光学方法。方法的切换例如可以是代替使用角落特征而使用边缘特征,或者代替使用SURF而使用已知的SIFT。或者可以请求用户有益地干预和向系统提供用于识别的提示。
在对象受到维护的情况下,可以根据当前维护步骤或维护状态的知识,导出关于环境的进一步信息。例如对于特定步骤是否已经拆除电机。
甚至公共事件或交通情况的知识(根据经验或在线检索)也能够提供对于以下情况的提示:特定区域不能提供可靠的信息,因为它们处于不断的运动中(例如,人群或移动车辆)。
进一步的实施例包括根据环境状况的至少一个参数与追踪方法相对于已知环境状况的已知理想参数的距离测量的确定,来计算在确定相机姿态中的不确定性。通常来说,也可以以一个向量的形式组合关于环境状况的数个参数的一部分,并且产生具有记录或准备条件的相应向量的数据模型。可以根据向量的比较来导出提供给当前环境状况的数据模型的质量,并且因此可以选择具有最小偏差的数据模型,和/或可以根据差异导出用于识别的不确定性语句。在图10中示出这方面的示例:向量包含例如用于日期的时间、云的情况以及年的时间的三个字段。椭圆形示出在特定时间拍摄的情景的环境状况。图11示出近似的示例性值和情景之间差异的可能计算。在这方面,可以对各个参数加权,因为这些可以对于数据模型产生不同程度的影响。
可以对于每个数据模型,也可以对于比较信息的每一项(例如,SURF特征)或数据模型内的每个特征存储参数向量。在这个方面,不仅可以存储固定值,也可以存储该比较信息适和的参数范围。图8示出了附加信息的可能使用。例如,如步骤6.1和6.2中所述,可以通过根据参数向量距离的排序来加速比较,随后可以更加快速地发现所期望的数量的对。作为替换,可以将当前环境参数向量放置在图像中所发现的所有特征之前,并且随后可以启动由最近的邻近搜索选择性支持的匹配算法。
在本发明的实施例中,该至少一个参数对于关于模型数据的成功检索的最小需求具有影响,尤其是确定与真实对象相关联的多个特征和在真实环境的图像中的真实对象的相应特征,该相应特征已达到一致(至少“匹配”特征的数量)。在识别和初始化中,常常存在指出假设特征或整个对象从哪里检索的所指示的测量。例如,必须重新寻找或检索至少10个特征。在当前模型良好地适应环境时,例如,可以增加测量(例如必须重新寻找20个特征)。因此,在好的条件下,所谓“误报”(对象的错误识别;即由系统进行的对象假设识别证明是错误的)(例如,这会导致准确度的提高),然而,在恶劣条件的情况下,并不放弃可能的初始化机会。
在进一步的实施例中,环境状况的至少一个参数对于数据模型的准备和/或使用具有影响。具体来说,至少一个参数影响数据模型的准备类型,例如特征探测和特征描述符的准备。具体来说,存在不同的特征提取器和描述符。在好的环境条件下,例如,可以选择快速方法(例如,快速提取器+快速描述符),而在困难的条件情况下,可以使用更加复杂的方法(例如,SIFT)。
在另一实施例中,从多个单独的模型中提取数据模型,其中数据模型包含数个环境状况下信息的交集。图7中的流程图示出该过程的示例性实现方式。在步骤30.0中,加载各种现有的数据模型或之前由仿真产生的数据模型。之后(步骤31.0),执行模型之间的匹配。在这种情况下,常常检索一些比较数据,而另一些将一次也不会被检索。可以缓存检索的频率。在可选步骤32.0中,可以去除离群值,例如,当特征在数据模型的共同坐标系中的其位置处变化极大时。应当注意,数据模型基本上也可以由不同方法创建的异质性比较信息来构成(例如,SURF或SIFT或任何边缘模型或区域模型或考虑颜色的模型)。之后,可以组合经常检索的比较信息(步骤31.0),以形成新的地图。在这种情况下,也可以选择性地确定用于空间中例如每体积的比较信息的上限。随后,进行根据最强比较信息的排序。在这方面,可以通过仅优选非常稳健且缓慢的方法的加权操作来防止它。之后,可以存储该地图,以用于进一步的使用。
在另一实施例中,具有数个执行该方法的局部系统(尤其是数个客户端,诸如数个移动设备),并非每一个局部系统自身计算追踪情况,而是完成的情况信息对于所有的局部系统可用,有利地,甚至完成的识别或初始化模型对于局部系统可用。
例如,局部系统连续将关于情况的信息提供给所提供的服务器或对等处理。对等处理将发生在数个移动设备之间(例如,服务器与10号设备通信,10号设备与13号和17号设备邻近,并且随后,10号设备可以直接向这些设备请求信息)。另外,存在单独的设备将信息提供给服务器,并且,用户从服务器获得用于他的特定设备的信息。
在另一实施例中,将确定相机姿态用于计算相对于图像中包含的至少一个真实对象的深度信息,在显示设备中,当由被遮蔽的真实对象在情景中遮蔽叠置到真实环境上的虚拟信息时,深度信息用于融合用于遮蔽真实对象的遮蔽模型。
本发明的另一方面涉及在用于相对于真实对象确定相机的姿态的方法中或在用于识别真实环境的对象的方法中,用于准备数据模型的方法,该数据模型旨在分别与由相机拍摄的图像和其数据进行比较,其中确定或仿真环境状况,并且确定环境状况的至少一个参数,所准备的数据模型包含真实对象的基本描述,预设或仿真各种环境状况,并且根据相应的至少一个参数,可以将相应的匹配数据模型用于不同的环境状况。这可以作为对于当前参数的直接反应而发生,或作为预备,例如在预先仿真大部分情况时。因此,代替以巨大的花费提供不同情况的数个模型,一个构想包括提供中性(neutral)模型,并且通过环境效果的仿真,以动态地(或预先)匹配环境效果,并且采用相当少的花费。
例如,基本描述是环境的虚拟3D模型。例如,可以构想具有城市的3D模型。现在可以尝试通过已知的所谓3D渲染技术,来计算太阳的当前路径以及由此导致的环境模型。
例如,3D模型具有应用于其的纹理(texture),该纹理是之前从环境状况特定特性中释放的。在采集信息时,常常也能够记录阴影。可以尝试使用对于本领域技术人员已知的方法去消除这些。
在实施例中,采用不同的光线情况,将3D模型投影到图像平面上。
有利地,所准备的数据模型包含在数个不同(尽可能的多)环境状况中提供的信息的交集。也可想象产生大量不同环境模型(通过记录或仿真),并且从其中提取用于识别/初始化的特征。可以在环境模型中检查特定特征(例如,特定SURF特征)是否发生在尽可能多的不同模型中,并且随后将特别鲁棒的特征封装在尽可能多的情况下工作的模型中。也可以参照上文与图7相关的描述。
实施例将SLAM方法与当前环境状况的确定相结合,并且将所准备的数据模型与关于环境状况的信息一起存储。在所谓的同时定位与绘制地图(SLAM)中,在相机处于运动中或是立体相机的情况下,或还可以直接采用类似于3D方法(例如,深度相机),产生环境的地图(数据模型)(例如,SURF特征图和其在世界中的3D位置),并且确定相机的姿态。此外,在记录关于当前环境条件的数据或参数时(如上文所述),可以将这些数据用于产生相对于大量的不同环境条件的更加完整的世界模型集合。例如,系统可以用于在全面的数据已经可用的特定位置处开始,并且随后可以在此基础上进行。随后,系统学习相对于特定的条件的新范围,并且在将来也可以以此为基础来开始。
在以下中,将通过图4至图8中所示的流程图的方式并结合其它附图来更加详细地阐述本发明的多个方面和实施例。
图4首先涉及根据本发明的关于模型数据的使用的方法的实施例。在步骤1.0中,记录参数向量,该参数向量基本上包括关于环境状况的一个或多个参数(例如,通过经由中心服务器查询天气情况,通过一天/地方的日期/时间的方式计算太阳的位置)。在步骤2.0中,将包含记录位置的参数向量发送至服务器。在步骤3.0中,搜索用于该位置的追踪模型。从对于该位置可能的模型中,在步骤4.0中选择具有参数向量中的最小距离的模型。之后,在步骤5.0中加载相应的模型。在步骤6.0中,根据特定的应用,执行相机图像中的对象识别或者用于相机的姿态确定的追踪初始化。
在图5中,所执行的示例性方法用于根据用户数据准备数据模型。在步骤7.0中,在使用期间(同时初始化和绘制地图),“学习(learn)”新的模型数据。在步骤8.0中,将参数向量和新的地图(数据模型)发送至服务器。在步骤9.0中,存在数据的可选择性细化(所谓的“束调节”),其中新的数据存储有参数向量和位置。在步骤S10.0中,补充模型中的缺口(例如,未知区域的新覆盖或采用新的参数向量的新覆盖)。在步骤5.0中,随后另一客户端可以加载之前如通过步骤7.0至步骤10.0的方式描述的,由另一用户发送到服务器的相应数据模型。代替其它的客户端,也可以让准备数据模型的相同用户或相同设备例如在稍后的时刻分别加载数据模型。
图3示意性示出可以如何准备数据模型,以用于确定相机姿态的方法或用于对象识别的方法。可以从包含真实对象(参见,图2中的对象41)的基本描述的中性模型60开始。之后,设定或仿真各种环境状况,例如来自上方的太阳辐射。对于不同的环境状况,根据相应的至少一个参数,例如图3的匹配数据模型61和62来提供相应的匹配数据模型,该匹配数据模型61和62每一个均根据环境状况来考虑投射阴影。此外,能够有利地直接根据数据模型61和62准备略微压实器形状的数据模型,该数据模型由所准备的比较数据的集合构成,例如特征点云。数据模型62以示例性的方式示出对于所产生的数据模型的现实的接近度可以由附加措施进一步提高。因此,模型62不会由阴影投射造成的环境的附加已知对象的遮蔽而受损,而是也可以结合当前的云情况,例如通过当前的降雨雷达图像查询。
图6示出根据本发明另一实施例的方法的示例性流程。在步骤20.0中,记录真实环境的数据(具体地或如步骤7.0中),并且在这种情况下,有利地记录了环境状况的参数向量。对于特定的记录,可以有利地以HDR(所谓的“高动态范围”)进行记录。在步骤21.0中,尽可能地相对于特定参数实施数据模型的中性化(例如:去除阴影,亮度归一化等)。在步骤22.0中,针对环境条件的频谱产生参数向量。此外,在步骤23.0中,可以通过仿真(例如,光线追踪方法)产生相应的数据模型。在步骤24.0中,向根据图4的步骤4.0做出提供。
为了增加现实度并从而提高关联性,可以有利地在线查询天气数据。在这方面,存在可构想用于处理的各种复杂度。基于天气情况(例如,根据谷歌天气服务“主要多云”、“局部暴雨”、“局部降雨”),可以分配与天气情况相匹配的固定的照明模式或素材(例如,纹理)。然而,在最高复杂度中,也可以使用当前的云或雨卫星或雷达图像,以便动态地准备云层覆盖的近似模型,并且从其中计算出阴影投射以及可选的详细的光线条件(还参照图3)。如上文所述,这可以由服务器来实施,该服务器以特定位置的方式使数据对于客户端可用。对于距离的感知有帮助的是确定由于雾、雨或霾造成的能见度。这可以被自动实施(参见,出版商Springer柏林/海德尔于2006年4月在杂志《Machine Vision andApplications》出版的第17卷,第1号,第8页-第20页的“From video imagee.g.Automatic Fog Detection and Estimation of Visibility Distance throughuse of an Onboard Camera”,书号为ISSN 0932-8092(印刷)1432-1769(在线))或也可以通过当前的天气数据来查询。
除了其它已知技术之外,最简单的技术实现是在三维图形处理库(OpenGL)中设定雾调节。此外,可以基于位置、日期以及一天的时间,来分别计算太阳和月亮的位置,并且使用太阳和月亮的位置来调节光源。这对于阴影特别有效(参见图3),该阴影辅助人们更好地确定虚拟对象(例如POI)的位置。阴影可以是预先计算的纹理(有利地采用透明值),该预先计算的纹理根据太阳或月亮的位置,位于地平面上的POI下方,其中太阳或月亮与POI之间的直线与地平面交叉(如果并非如此,则属于例外)。如果太阳或月亮同时可见,则太阳用于计算。
然而,如现有技术已知的,也可以动态地计算阴影。这可以有利地包括POI的相互阴影。在提供环境的3D模型(例如,以用于遮蔽真实对象的遮蔽模型63的形式;所谓的“遮蔽几何形状”)时,这可以额外用于阴影情况的现实计算,因为它例如在POI上(还参见图3)投射阴影。通过由POI的环境的图像来丰富素材,可以进一步增加所融合的物质的真实度。对于本领域技术人员来说,使用所谓的环境地图是已知的。
根据相机的参数位置和方位,可以采用另一个重要步骤来增强数据模型的质量。通过加载遮蔽模型(所谓的“遮蔽几何形状”),可以确定比较数据对于相机是可见还是不可见,例如,在另一建筑物后面。可以存储深度模型,或者可以通过SLAM算法、立体相机或飞行时间相机动态产生深度模型。在这种情况下,每组比较数据(例如,SIFT特征)的深度信息的一项是足够的。在进一步的步骤中,产生用于在近范围中正确重叠的相机参数(这不必连续发生)。这些可以动态产生,例如,通过SLAM机构,或可以根据设备名称从服务器中检索,或可以存储在程序中。
根据系统的硬件能力,可以显示和计算一切。在系统硬件薄弱的情况下,也可以在部分服务器上进行正确素材表面的计算,或者可以在部分服务器上计算整个图像。采用强大的系统,现代的GPU(图像处理单元)可以承担大部分工作。对此,存在对于本领域技术人员已知的多种可能方式。
通过相对于真实环境,确定相机的位置和方位,可以计算关于至少一个包含在图像中的真实对象的深度信息,并且在由被遮蔽的真实对象在景观中遮蔽虚拟信息的情况中,深度信息可以用于在显示设备中,融合用于遮蔽真实对象的遮蔽模型。
Claims (24)
1.一种用于确定相机(22,32)相对于真实环境(40)的姿态的方法,所述方法包括以下步骤:
-通过相机(22,32)拍摄真实环境的至少一个图像(50),所述图像包含真实对象(41)的至少部分;
-确定环境状况的至少一个参数;
-执行追踪方法,所述追踪方法在所述真实对象包含在所述真实环境的所述图像(50)中时,评价关于所述真实对象(41)相关联的特征和所述真实对象(41)的相应特征之间的对应关系的信息,以获得关于所述相机(22,32)的所述姿态的结论;
-根据所述至少一个参数来执行所述追踪方法。
2.根据权利要求1所述的方法,其中:
所述追踪方法使用至少一个根据所述至少一个参数进行初始化的光学追踪方法。
3.根据权利要求1或2所述的方法,其中:
通过所述追踪方法,采用一个、两个、三个、四个、五个或六个自由度来确定所述相机(22,32)的所述姿态。
4.根据前述权利要求中任一项所述的方法,其中:
所述追踪方法使用传感器类型不同的数个追踪传感器(32,34-1,34-2)。
5.根据权利要求4所述的方法,其中:
所述追踪方法包括根据所述至少一个参数对至少一个所述追踪传感器(32,34-1,34-2)进行加权。
6.根据前述权利要求中任一项所述的方法,其中:
所述追踪方法包括根据所述至少一个参数对方法部分步骤进行优先化。
7.根据前述权利要求中任一项所述的方法,其中:
使用数据模型(51)与由所述相机拍摄的所述图像(50)的数据进行比较,考虑所述环境状况的所述至少一个参数来选择所述数据模型。
8.根据前述权利要求中任一项所述的方法,其中:
通过确定所述环境状况的所述至少一个参数与所述追踪方法相对于已知环境状况的已知理想参数的距离测量,计算在确定所述相机姿态中的不确定性。
9.一种用于在由相机拍摄的图像中识别真实环境的对象的方法,所述方法包括以下步骤:
-通过相机(22,32)拍摄真实环境的至少一个图像(50),所述图像包含真实对象(41)的至少部分;
-执行图像识别方法,所述图像识别方法提供关于所述图像(50)中的所述至少一个真实对象(41)的识别的信息;
-确定环境状况的至少一个参数;
-根据所述至少一个参数执行所述图像识别方法。
10.根据前述权利要求中任一项所述的方法,其中:
为了确定所述环境状况的所述至少一个参数,使用以下项目信息中的至少一个或多个:某日的时间;某年的时间;天气,尤其是雨、云、太阳和雾;月亮的位置;雪情;树木的枝叶;海拔高度;公共事件,尤其是强烈运动;交通状况;位置;世界坐标系中的方位;图像直方图;温度;维护步骤。
11.根据前述权利要求中任一项所述的方法,其中:
所述至少一个参数对于关于所述图像中的模型数据的成功检索的最低要求具有影响,尤其是确定与所述真实对象相关联的多个特征,所述多个特征与所述真实环境的图像中的所述真实对象的图像的相应特征相符合。
12.根据前述权利要求中任一项所述的方法,其中:
-使用数据模型(51,60)与所述真实环境的图像中的所述真实对象(41)的图像的数据进行比较,以及
-其中,所述至少一个参数对于所述数据模型的准备和/或使用具有影响。
13.根据权利要求12所述的方法,其中:
在所述数据模型内存储每数据模型一参数向量或每特征一参数向量。
14.根据权利要求12或13所述的方法,其中:
所述至少一个参数影响所述数据模型的准备的种类,尤其影响特征探测器和描述符的准备。
15.根据前述权利要求中任一项所述的方法,其中:
从多个单独模型中提取数据模型,所述数据模型包含在数个环境状况中出现的信息的交集。
16.根据前述权利要求中任一项所述的方法,其中:
数个局部系统分别执行所述方法;
其中,并非每个所述局部系统自身计算追踪状况,而是使已完成的状况信息对于所有局部系统可用,有利地,甚至使已完成的识别或初始化模型对于所述局部系统可用。
17.根据权利要求16所述的方法,其中:
所述局部系统将关于所述环境状况的信息提供给所提供的服务器,或提供给对等处理过程。
18.根据前述权利要求中任一项所述的方法,其中:
通过确定所述相机姿态,计算关于所述图像中包含的至少一个真实对象的深度信息,当叠加在所述真实环境上的虚拟信息在视野中被待遮蔽的所述真实对象遮蔽时,所述深度信息用于在显示设备中融入用于遮蔽真实对象的遮蔽模型。
19.一种用于提供数据模型(60)的方法,所述数据模型(60)意图用于在用于确定相机(22,32)相对于真实环境的真实对象(41)的姿态的方法中或用于识别真实环境的真实对象(41)的方法中,与由相机(22,32)拍摄的图像(50)的数据进行比较,其中:
-查明或仿真环境状况,并且确定所述环境状况的至少一个参数;
-准备数据模型(60),所述数据模型(60)包含所述真实对象的基本描述,设定或仿真各种环境状况,并且对于不同的环境状况,根据相应的至少一个参数来提供相应适合的数据模型(61)。
20.根据权利要求19所述的方法,其中:
所述基本描述是环境的虚拟3D模型。
21.根据权利要求20所述的方法,其中:
所述3D模型具有之前从环境状况特定特性中释放的应用于其的纹理。
22.根据权利要求20或21所述的方法,其中:
在不同的光线状况下,将所述3D模型投影到所述图像平面。
23.根据权利要求19至22中任一项所述的方法,其中:
所准备的数据模型包含在数个不同环境状况中出现的信息的交集。
24.根据权利要求19至23中任一项所述的方法,其中:
将SLAM方法与所述环境状况的查明进行组合,并且将所准备的数据模型与关于所述环境状况的信息一起存储。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610898928.5A CN106650723A (zh) | 2009-10-19 | 2010-09-16 | 用于确定相机姿态以及用于识别真实环境的对象的方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009049849.4A DE102009049849B4 (de) | 2009-10-19 | 2009-10-19 | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
DE102009049849.4 | 2009-10-19 | ||
PCT/EP2010/063589 WO2011047924A1 (de) | 2009-10-19 | 2010-09-16 | Verfahren zur bestimmung der pose einer kamera und zur erkennung eines objekts einer realen umgebung |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610898928.5A Division CN106650723A (zh) | 2009-10-19 | 2010-09-16 | 用于确定相机姿态以及用于识别真实环境的对象的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102667855A true CN102667855A (zh) | 2012-09-12 |
Family
ID=42667910
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080046762.5A Active CN102612704B (zh) | 2009-10-19 | 2010-05-28 | 用于提供针对图像的至少一个特征的描述符的方法和用于匹配特征的方法 |
CN2010800574754A Pending CN102667855A (zh) | 2009-10-19 | 2010-09-16 | 用于确定相机姿态以及用于识别真实环境的对象的方法 |
CN201610898928.5A Pending CN106650723A (zh) | 2009-10-19 | 2010-09-16 | 用于确定相机姿态以及用于识别真实环境的对象的方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080046762.5A Active CN102612704B (zh) | 2009-10-19 | 2010-05-28 | 用于提供针对图像的至少一个特征的描述符的方法和用于匹配特征的方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610898928.5A Pending CN106650723A (zh) | 2009-10-19 | 2010-09-16 | 用于确定相机姿态以及用于识别真实环境的对象的方法 |
Country Status (6)
Country | Link |
---|---|
US (7) | US8942418B2 (zh) |
EP (4) | EP3547256B1 (zh) |
JP (4) | JP2013508794A (zh) |
CN (3) | CN102612704B (zh) |
DE (1) | DE102009049849B4 (zh) |
WO (2) | WO2011047888A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103673990A (zh) * | 2012-09-13 | 2014-03-26 | 北京同步科技有限公司 | 获取摄像机姿态数据的装置及其方法 |
CN103674011A (zh) * | 2012-09-19 | 2014-03-26 | 联想(北京)有限公司 | 即时定位与地图构建设备、系统与方法 |
CN104881860A (zh) * | 2014-02-28 | 2015-09-02 | 国际商业机器公司 | 基于照片进行定位的方法和装置 |
CN105408937A (zh) * | 2013-05-02 | 2016-03-16 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
CN105849771A (zh) * | 2013-12-19 | 2016-08-10 | Metaio有限公司 | 移动设备上的同步定位与映射 |
CN106210450A (zh) * | 2016-07-20 | 2016-12-07 | 罗轶 | 基于slam的影视人工智能 |
CN107229329A (zh) * | 2016-03-24 | 2017-10-03 | 福特全球技术公司 | 用于具有深度地面实况注释的虚拟传感器数据生成的方法和系统 |
CN111598974A (zh) * | 2014-06-03 | 2020-08-28 | 苹果公司 | 用于呈现与真实对象相关的数字信息的方法和系统 |
CN113240732A (zh) * | 2014-05-29 | 2021-08-10 | 株式会社高迎科技 | 光学跟踪系统及光学跟踪系统的标记部姿势及位置算出方法 |
Families Citing this family (141)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7146260B2 (en) | 2001-04-24 | 2006-12-05 | Medius, Inc. | Method and apparatus for dynamic configuration of multiprocessor system |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
DE102009049849B4 (de) | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
CN102906810B (zh) | 2010-02-24 | 2015-03-18 | 爱普莱克斯控股公司 | 支持视觉受损的个体的扩增的现实全景 |
WO2012061549A2 (en) * | 2010-11-03 | 2012-05-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
US8977629B2 (en) * | 2011-05-24 | 2015-03-10 | Ebay Inc. | Image-based popularity prediction |
US20120314031A1 (en) * | 2011-06-07 | 2012-12-13 | Microsoft Corporation | Invariant features for computer vision |
US9400941B2 (en) | 2011-08-31 | 2016-07-26 | Metaio Gmbh | Method of matching image features with reference features |
TWI489859B (zh) * | 2011-11-01 | 2015-06-21 | Inst Information Industry | 影像形變方法及其電腦程式產品 |
US9536251B2 (en) * | 2011-11-15 | 2017-01-03 | Excalibur Ip, Llc | Providing advertisements in an augmented reality environment |
US9600744B2 (en) | 2012-04-24 | 2017-03-21 | Stmicroelectronics S.R.L. | Adaptive interest rate control for visual search |
CN102694963B (zh) * | 2012-04-27 | 2014-09-17 | 南京航空航天大学 | 一种获取无阴影目标图像的方法 |
JP5727969B2 (ja) * | 2012-06-15 | 2015-06-03 | 株式会社東芝 | 位置推定装置、方法、及びプログラム |
US9237340B2 (en) * | 2012-10-10 | 2016-01-12 | Texas Instruments Incorporated | Camera pose estimation |
CN102928201B (zh) * | 2012-10-24 | 2014-12-17 | 北京控制工程研究所 | 一种动态的月面成像敏感器的目标模拟系统 |
US20140140573A1 (en) * | 2012-11-21 | 2014-05-22 | Gravity Jack, Inc. | Pose Tracking through Analysis of an Image Pyramid |
US20140168264A1 (en) | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
JP5670416B2 (ja) * | 2012-12-28 | 2015-02-18 | ファナック株式会社 | ロボットシステム表示装置 |
EP2763077B1 (en) * | 2013-01-30 | 2023-11-15 | Nokia Technologies Oy | Method and apparatus for sensor aided extraction of spatio-temporal features |
US9058683B2 (en) | 2013-02-21 | 2015-06-16 | Qualcomm Incorporated | Automatic image rectification for visual search |
WO2014145722A2 (en) | 2013-03-15 | 2014-09-18 | Digimarc Corporation | Cooperative photography |
US9495389B2 (en) | 2013-03-15 | 2016-11-15 | Qualcomm Incorporated | Client-server based dynamic search |
DE102013009288B4 (de) | 2013-06-04 | 2016-02-04 | Testo Ag | 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung |
CN103327246B (zh) * | 2013-06-07 | 2016-08-24 | 腾讯科技(深圳)有限公司 | 一种多媒体拍摄处理方法、装置及智能终端 |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
WO2015012659A1 (en) * | 2013-07-26 | 2015-01-29 | Samsung Electronics Co., Ltd. | Two way local feature matching to improve visual search accuracy |
US8860818B1 (en) | 2013-07-31 | 2014-10-14 | Apple Inc. | Method for dynamically calibrating rotation offset in a camera system |
US9646384B2 (en) | 2013-09-11 | 2017-05-09 | Google Technology Holdings LLC | 3D feature descriptors with camera pose information |
US8958663B1 (en) * | 2013-09-24 | 2015-02-17 | Zazzle Inc. | Automated imaging of customizable products |
DE102013016247A1 (de) | 2013-10-01 | 2014-06-26 | Daimler Ag | Verfahren und Vorrichtung zur augmentierten Darstellung |
CN104854428B (zh) | 2013-12-10 | 2018-12-14 | 深圳市大疆创新科技有限公司 | 传感器融合 |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US9299194B2 (en) * | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9532714B2 (en) | 2014-01-21 | 2017-01-03 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US12093453B2 (en) | 2014-01-21 | 2024-09-17 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9523856B2 (en) | 2014-01-21 | 2016-12-20 | Osterhout Group, Inc. | See-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9740280B2 (en) | 2014-01-21 | 2017-08-22 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20150241964A1 (en) | 2014-02-11 | 2015-08-27 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US9400939B2 (en) | 2014-04-13 | 2016-07-26 | International Business Machines Corporation | System and method for relating corresponding points in images with different viewing angles |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9280832B2 (en) * | 2014-05-08 | 2016-03-08 | The Trustees Of The University Of Pennsylvania | Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform |
US9761008B2 (en) | 2014-05-08 | 2017-09-12 | The Trustees Of The University Of Pennsylvania | Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform |
DE102014008152A1 (de) | 2014-05-30 | 2014-10-23 | Daimler Ag | Verfahren und Vorrichtung zur augmentierten Darstellung mindstens einer Zusatzinformation in mindestens einem Bild einer Umgebung |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US10127667B2 (en) * | 2014-08-01 | 2018-11-13 | Locuslabs, Inc. | Image-based object location system and process |
CN109388150B (zh) | 2014-09-05 | 2022-04-29 | 深圳市大疆创新科技有限公司 | 多传感器环境地图构建 |
CN105980950B (zh) | 2014-09-05 | 2019-05-28 | 深圳市大疆创新科技有限公司 | 无人飞行器的速度控制 |
EP3008535B1 (en) | 2014-09-05 | 2018-05-16 | SZ DJI Technology Co., Ltd. | Context-based flight mode selection |
WO2016050290A1 (en) | 2014-10-01 | 2016-04-07 | Metaio Gmbh | Method and system for determining at least one property related to at least part of a real environment |
US9746913B2 (en) | 2014-10-31 | 2017-08-29 | The United States Of America As Represented By The Secretary Of The Navy | Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods |
EP4224424A1 (en) | 2014-11-21 | 2023-08-09 | Apple Inc. | Method and system for determining spatial coordinates of a 3d reconstruction of at least part of a real object at absolute spatial scale |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
WO2016107635A1 (en) | 2014-12-29 | 2016-07-07 | Metaio Gmbh | Method and system for generating at least one image of a real environment |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
US10878775B2 (en) | 2015-02-17 | 2020-12-29 | Mentor Acquisition One, Llc | See-through computer display systems |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US10142596B2 (en) | 2015-02-27 | 2018-11-27 | The United States Of America, As Represented By The Secretary Of The Navy | Method and apparatus of secured interactive remote maintenance assist |
JP6524713B2 (ja) * | 2015-03-02 | 2019-06-05 | セイコーエプソン株式会社 | 画像処理装置、表示装置、及び、画像処理装置の制御方法 |
US10481696B2 (en) * | 2015-03-03 | 2019-11-19 | Nvidia Corporation | Radar based user interface |
US9984301B2 (en) * | 2015-04-20 | 2018-05-29 | Qualcomm Incorporated | Non-matching feature-based visual motion estimation for pose determination |
CN104764452A (zh) * | 2015-04-23 | 2015-07-08 | 北京理工大学 | 一种基于惯性和光学跟踪系统的混合位姿跟踪方法 |
EP3109826B1 (en) * | 2015-06-26 | 2019-02-13 | Cognex Corporation | Using 3d vision for automated industrial inspection |
KR101835434B1 (ko) | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
US9928648B2 (en) | 2015-11-09 | 2018-03-27 | Microsoft Technology Licensing, Llc | Object path identification for navigating objects in scene-aware device environments |
JP6333871B2 (ja) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | 入力画像から検出した対象物を表示する画像処理装置 |
US10424072B2 (en) | 2016-03-01 | 2019-09-24 | Samsung Electronics Co., Ltd. | Leveraging multi cues for fine-grained object classification |
DE102016109628A1 (de) * | 2016-05-25 | 2017-11-30 | Deutsche Telekom Ag | Verfahren zum Bestimmen der Position und/oder Orientierung einer mobilen elektronischen Einrichtung mit Hilfe einer digitalen Wärmebildkamera |
US10579860B2 (en) | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
WO2017211802A1 (en) * | 2016-06-07 | 2017-12-14 | Koninklijke Kpn N.V. | Capturing and rendering information involving a virtual environment |
US10739142B2 (en) | 2016-09-02 | 2020-08-11 | Apple Inc. | System for determining position both indoor and outdoor |
CN107967710B (zh) * | 2016-10-20 | 2021-05-25 | 株式会社理光 | 一种三维物体描述方法及装置 |
US20180190033A1 (en) * | 2016-12-30 | 2018-07-05 | Facebook, Inc. | Systems and methods for providing augmented reality effects and three-dimensional mapping associated with interior spaces |
JP6760114B2 (ja) | 2017-01-31 | 2020-09-23 | 富士通株式会社 | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム |
CN107145525B (zh) * | 2017-04-14 | 2020-10-16 | 北京星选科技有限公司 | 用于确认搜索场景的数据处理方法、搜索方法及相应装置 |
US10740613B1 (en) | 2017-04-20 | 2020-08-11 | Digimarc Corporation | Hybrid feature point/watermark-based augmented reality |
CN106996777B (zh) * | 2017-04-21 | 2019-02-12 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
US9965960B1 (en) * | 2017-08-07 | 2018-05-08 | Lyft, Inc. | Facilitating transportation services by generating a directional indicator between a requester and a transportation vehicle |
WO2019031259A1 (ja) * | 2017-08-08 | 2019-02-14 | ソニー株式会社 | 画像処理装置および方法 |
WO2019089704A1 (en) | 2017-10-31 | 2019-05-09 | Outward, Inc. | Blended physical and virtual realities |
DE102017222534B3 (de) * | 2017-12-12 | 2019-06-13 | Volkswagen Aktiengesellschaft | Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille |
JP7149707B2 (ja) * | 2018-01-15 | 2022-10-07 | キヤノン株式会社 | 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム |
US10508913B2 (en) * | 2018-02-08 | 2019-12-17 | Raytheon Company | Environment recording system using virtual or augmented reality |
EP3749172B1 (en) | 2018-02-09 | 2022-03-30 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
US11194161B2 (en) | 2018-02-09 | 2021-12-07 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US11556741B2 (en) | 2018-02-09 | 2023-01-17 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters using a neural network |
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
CN109345589A (zh) * | 2018-09-11 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | 基于自动驾驶车辆的位置检测方法、装置、设备及介质 |
US10943401B2 (en) | 2019-02-01 | 2021-03-09 | International Business Machines Corporation | Active visual recognition in mobile augmented reality |
EP3973512A1 (en) | 2019-05-22 | 2022-03-30 | PCMS Holdings, Inc. | Method for rendering of augmented reality content in combination with external display |
CN110175579A (zh) * | 2019-05-29 | 2019-08-27 | 北京百度网讯科技有限公司 | 姿态确定方法、场景图像的展示方法、装置、设备及介质 |
WO2020244752A1 (en) | 2019-06-05 | 2020-12-10 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
US10828576B1 (en) | 2019-07-29 | 2020-11-10 | Universal City Studios Llc | Motion exaggerating virtual reality ride systems and methods |
GB2586831A (en) * | 2019-09-05 | 2021-03-10 | Wolf In Motion Ltd | Three-Dimensional Content Generation using real-time video compositing |
US11023730B1 (en) | 2020-01-02 | 2021-06-01 | International Business Machines Corporation | Fine-grained visual recognition in mobile augmented reality |
DE102020112300A1 (de) | 2020-05-06 | 2021-11-11 | Audi Aktiengesellschaft | 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD) |
CN111666434B (zh) * | 2020-05-26 | 2021-11-02 | 武汉大学 | 基于深度全局特征的街景图片检索方法 |
CN111583420B (zh) * | 2020-05-27 | 2021-11-12 | 上海松鼠课堂人工智能科技有限公司 | 基于增强现实模式的智能学习系统和方法 |
US11688142B2 (en) | 2020-11-23 | 2023-06-27 | International Business Machines Corporation | Automatic multi-dimensional model generation and tracking in an augmented reality environment |
DE102021205834A1 (de) * | 2021-06-09 | 2022-12-15 | Continental Automotive Technologies GmbH | Cloudgestütztes 3D Rendering für ein Egofahrzeug |
CN115493512B (zh) * | 2022-08-10 | 2023-06-13 | 思看科技(杭州)股份有限公司 | 数据处理方法、三维扫描系统、电子装置和存储介质 |
CN117102856B (zh) * | 2023-10-23 | 2024-02-13 | 浙江大学 | 一种大型舱体双平台五自由度位姿识别与调整方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1544795A1 (de) * | 2003-12-16 | 2005-06-22 | Siemens Aktiengesellschaft | Verfahren und Gerät zur Identifikation eines Objektes in einem Kamerabild |
CN101004748A (zh) * | 2006-10-27 | 2007-07-25 | 北京航空航天大学 | 基于二维草图的三维模型检索方法 |
CN101138007A (zh) * | 2005-01-07 | 2008-03-05 | 索尼株式会社 | 图像处理系统、学习设备及方法和程序 |
CN101162524A (zh) * | 2006-08-11 | 2008-04-16 | 佳能株式会社 | 图像处理设备及方法 |
US20080109184A1 (en) * | 2006-11-06 | 2008-05-08 | Canon Kabushiki Kaisha | Position and orientation measurement method and apparatus |
CN101285686A (zh) * | 2008-05-29 | 2008-10-15 | 中国农业大学 | 一种农业机械导航分级定位的方法和系统 |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4700307A (en) * | 1983-07-11 | 1987-10-13 | General Dynamics Corp./Convair Division | Feature navigation system and method |
JP2900737B2 (ja) * | 1993-02-01 | 1999-06-02 | トヨタ自動車株式会社 | 車間距離検出装置 |
JP3244850B2 (ja) * | 1993-03-22 | 2002-01-07 | 三菱重工業株式会社 | ナンバープレート読み取り装置 |
JP3486613B2 (ja) * | 2001-03-06 | 2004-01-13 | キヤノン株式会社 | 画像処理装置およびその方法並びにプログラム、記憶媒体 |
US6903752B2 (en) | 2001-07-16 | 2005-06-07 | Information Decision Technologies, Llc | Method to view unseen atmospheric phenomenon using augmented reality |
DE10145608B4 (de) * | 2001-09-15 | 2006-01-26 | Eads Deutschland Gmbh | Modellbasierte Objektklassifikation und Zielerkennung |
US7203384B2 (en) | 2003-02-24 | 2007-04-10 | Electronic Scripting Products, Inc. | Implement for optically inferring information from a planar jotting surface |
JP4743818B2 (ja) | 2003-04-04 | 2011-08-10 | キヤノン株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム |
AU2004273275A1 (en) * | 2003-08-29 | 2005-03-24 | Nec Corporation | Object posture estimation/correlation system using weight information |
US7110100B2 (en) | 2003-11-04 | 2006-09-19 | Electronic Scripting Products, Inc. | Apparatus and method for determining an inclination of an elongate object contacting a plane surface |
JP2005141655A (ja) * | 2003-11-10 | 2005-06-02 | Olympus Corp | 3次元モデリング装置及び3次元モデリング方法 |
US7268956B2 (en) | 2003-11-24 | 2007-09-11 | Electronic Scripting Products, Inc. | Solid catadioptric lens with two viewpoints |
US7038846B2 (en) | 2003-11-24 | 2006-05-02 | Electronic Scripting Products, Inc. | Solid catadioptric lens with a single viewpoint |
US7088440B2 (en) | 2003-12-22 | 2006-08-08 | Electronic Scripting Products, Inc. | Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features |
US7729515B2 (en) | 2006-03-08 | 2010-06-01 | Electronic Scripting Products, Inc. | Optical navigation apparatus using fixed beacons and a centroid sensing device |
US7826641B2 (en) | 2004-01-30 | 2010-11-02 | Electronic Scripting Products, Inc. | Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features |
US9229540B2 (en) | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
US8542219B2 (en) | 2004-01-30 | 2013-09-24 | Electronic Scripting Products, Inc. | Processing pose data derived from the pose of an elongate object |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
US7023536B2 (en) | 2004-03-08 | 2006-04-04 | Electronic Scripting Products, Inc. | Apparatus and method for determining orientation parameters of an elongate object |
US7161664B2 (en) | 2004-04-13 | 2007-01-09 | Electronic Scripting Products, Inc. | Apparatus and method for optical determination of intermediate distances |
US7129887B2 (en) | 2004-04-15 | 2006-10-31 | Lockheed Martin Ms2 | Augmented reality traffic control center |
JP2005326275A (ja) * | 2004-05-14 | 2005-11-24 | Canon Inc | 情報処理方法および装置 |
US7113270B2 (en) | 2004-06-18 | 2006-09-26 | Electronics Scripting Products, Inc. | Determination of an orientation parameter of an elongate object with a scan beam apparatus |
US20060120568A1 (en) * | 2004-12-06 | 2006-06-08 | Mcconville Patrick J | System and method for tracking individuals |
WO2007011306A2 (en) * | 2005-07-20 | 2007-01-25 | Bracco Imaging S.P.A. | A method of and apparatus for mapping a virtual model of an object to the object |
JP4914019B2 (ja) | 2005-04-06 | 2012-04-11 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US8160400B2 (en) * | 2005-11-17 | 2012-04-17 | Microsoft Corporation | Navigating images using image based geometric alignment and object based controls |
US8942483B2 (en) * | 2009-09-14 | 2015-01-27 | Trimble Navigation Limited | Image-based georeferencing |
DE102005061952B4 (de) * | 2005-12-23 | 2008-09-11 | Metaio Gmbh | Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System |
DE102006005044B4 (de) * | 2006-02-03 | 2011-01-27 | Metaio Gmbh | Verfahren und System zur Bestimmung eines Datenmodells zur Überlagerung mit einem realen Objekt in einem Verfahren zur Objektverfolgung |
DE202006020299U1 (de) * | 2006-05-16 | 2008-04-24 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | 3D-Vermessungsanordnung |
CN100587518C (zh) | 2006-07-20 | 2010-02-03 | 中国科学院自动化研究所 | 遥感影像高精度控制点自动选择方法 |
EP1906339B1 (en) * | 2006-09-01 | 2016-01-13 | Harman Becker Automotive Systems GmbH | Method for recognizing an object in an image and image recognition device |
US8174568B2 (en) * | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
DE102006062061B4 (de) * | 2006-12-29 | 2010-06-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera |
US9070207B2 (en) | 2007-09-06 | 2015-06-30 | Yeda Research & Development Co., Ltd. | Modelization of objects in images |
JP4636064B2 (ja) * | 2007-09-18 | 2011-02-23 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US20100259537A1 (en) * | 2007-10-12 | 2010-10-14 | Mvtec Software Gmbh | Computer vision cad models |
US20090185746A1 (en) * | 2008-01-22 | 2009-07-23 | The University Of Western Australia | Image recognition |
KR100951890B1 (ko) * | 2008-01-25 | 2010-04-12 | 성균관대학교산학협력단 | 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법 |
US8144947B2 (en) * | 2008-06-27 | 2012-03-27 | Palo Alto Research Center Incorporated | System and method for finding a picture image in an image collection using localized two-dimensional visual fingerprints |
US8180107B2 (en) | 2009-02-13 | 2012-05-15 | Sri International | Active coordinated tracking for multi-camera systems |
DE102009049849B4 (de) | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
GB2494312B (en) * | 2010-05-10 | 2016-08-17 | Park Assist Llc | Method and system for managing a parking lot based on intelligent imaging |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US9400941B2 (en) | 2011-08-31 | 2016-07-26 | Metaio Gmbh | Method of matching image features with reference features |
US9679384B2 (en) | 2011-08-31 | 2017-06-13 | Apple Inc. | Method of detecting and describing features from an intensity image |
KR101329111B1 (ko) | 2012-05-02 | 2013-11-14 | 한국과학기술연구원 | 실내 네비게이션 시스템 및 방법 |
US10477356B2 (en) | 2012-07-31 | 2019-11-12 | Ariel-University Research And Development Company Ltd. | Navigation method and device |
US8970709B2 (en) | 2013-03-13 | 2015-03-03 | Electronic Scripting Products, Inc. | Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty |
US9140555B1 (en) | 2014-03-14 | 2015-09-22 | Google Inc. | Navigation using sensor fusion |
US10395116B2 (en) | 2015-10-29 | 2019-08-27 | Hand Held Products, Inc. | Dynamically created and updated indoor positioning map |
-
2009
- 2009-10-19 DE DE102009049849.4A patent/DE102009049849B4/de active Active
-
2010
- 2010-05-28 WO PCT/EP2010/057461 patent/WO2011047888A1/en active Application Filing
- 2010-05-28 EP EP19175410.0A patent/EP3547256B1/en active Active
- 2010-05-28 JP JP2012533534A patent/JP2013508794A/ja active Pending
- 2010-05-28 EP EP10722691.2A patent/EP2491529B1/en active Active
- 2010-05-28 CN CN201080046762.5A patent/CN102612704B/zh active Active
- 2010-05-28 US US13/502,952 patent/US8942418B2/en active Active
- 2010-09-16 US US13/502,959 patent/US8837779B2/en active Active
- 2010-09-16 CN CN2010800574754A patent/CN102667855A/zh active Pending
- 2010-09-16 JP JP2012533553A patent/JP2013508795A/ja active Pending
- 2010-09-16 EP EP10752839.0A patent/EP2491530B1/de active Active
- 2010-09-16 CN CN201610898928.5A patent/CN106650723A/zh active Pending
- 2010-09-16 EP EP19175398.7A patent/EP3550516B1/de active Active
- 2010-09-16 WO PCT/EP2010/063589 patent/WO2011047924A1/de active Application Filing
-
2014
- 2014-07-11 US US14/329,547 patent/US9218665B2/en active Active
- 2014-08-07 JP JP2014161137A patent/JP5905540B2/ja active Active
- 2014-10-31 JP JP2014223180A patent/JP5980295B2/ja active Active
- 2014-12-11 US US14/567,668 patent/US10062169B2/en active Active
-
2015
- 2015-12-21 US US14/977,288 patent/US10229511B2/en active Active
-
2018
- 2018-07-26 US US16/046,715 patent/US10650546B2/en active Active
-
2019
- 2019-01-25 US US16/258,110 patent/US10580162B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1544795A1 (de) * | 2003-12-16 | 2005-06-22 | Siemens Aktiengesellschaft | Verfahren und Gerät zur Identifikation eines Objektes in einem Kamerabild |
CN101138007A (zh) * | 2005-01-07 | 2008-03-05 | 索尼株式会社 | 图像处理系统、学习设备及方法和程序 |
CN101162524A (zh) * | 2006-08-11 | 2008-04-16 | 佳能株式会社 | 图像处理设备及方法 |
CN101004748A (zh) * | 2006-10-27 | 2007-07-25 | 北京航空航天大学 | 基于二维草图的三维模型检索方法 |
US20080109184A1 (en) * | 2006-11-06 | 2008-05-08 | Canon Kabushiki Kaisha | Position and orientation measurement method and apparatus |
CN101285686A (zh) * | 2008-05-29 | 2008-10-15 | 中国农业大学 | 一种农业机械导航分级定位的方法和系统 |
Non-Patent Citations (8)
Title |
---|
A. AKBARZADEH ET AL.: "Towards Urban 3D Reconstruction From Video", 《PROCEEDINGS OF THE THIRD INTERNATIONAL SYMPOSIUM ON 3D DATA PROCESSING, VISUALIZATION, AND TRANSMISSION》 * |
BERNHARD REITINGER ET AL.: "Augmented Reality Scouting for Interactive 3D Reconstruction", 《IEEE VIRTUAL REALITY CONFERENCE》 * |
J. BATLLE ET AL.: "A review on strategies for recognizing natural objects in colour images of outdoor scenes", 《IMAGE AND VISION COMPUTING》 * |
LAMBERT WIXSON ET AL.: "Improved Illumination Assessment for Vision-based Traffic Monitoring", 《VS "98 PROCEEDINGS OF THE 1998 IEEE WORKSHOP ON VISUAL SURVEILLANCE》 * |
MARK R. STEVENS ET AL.: "Precise Matching of 3-D Target Models to Multisensor Data", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
SRINIVASA G. NARASIMHAN ET AL.: "All the Images of an Outdoor Scene", 《ECCV 2002》 * |
THIERRY CATHALA ET AL.: "Real time simulation tools in the CHORALE workshop", 《PROC. OF SPIE》 * |
ZHIYING ZHOU ET AL.: "Robust Pose Estimation for Outdoor Mixed Reality with Sensor Fusion", 《PROCEEDING OF UNIVERSAL ACCESS IN HUMAN-COMPUTER INTERACTION. APPLICATIONS AND SERVICES, 5TH INTERNATIONAL CONFERENCE》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103673990A (zh) * | 2012-09-13 | 2014-03-26 | 北京同步科技有限公司 | 获取摄像机姿态数据的装置及其方法 |
CN103673990B (zh) * | 2012-09-13 | 2016-04-06 | 北京同步科技有限公司 | 获取摄像机姿态数据的装置及其方法 |
CN103674011A (zh) * | 2012-09-19 | 2014-03-26 | 联想(北京)有限公司 | 即时定位与地图构建设备、系统与方法 |
CN103674011B (zh) * | 2012-09-19 | 2017-07-25 | 联想(北京)有限公司 | 即时定位与地图构建设备、系统与方法 |
CN105408937A (zh) * | 2013-05-02 | 2016-03-16 | 高通股份有限公司 | 用于便于计算机视觉应用程序初始化的方法 |
US11968479B2 (en) | 2013-12-19 | 2024-04-23 | Apple Inc. | Method of tracking a mobile device and method of generating a geometrical model of a real environment using a camera of a mobile device |
CN105849771A (zh) * | 2013-12-19 | 2016-08-10 | Metaio有限公司 | 移动设备上的同步定位与映射 |
US11336867B2 (en) | 2013-12-19 | 2022-05-17 | Apple Inc. | Method of tracking a mobile device and method of generating a geometrical model of a real environment using a camera of a mobile device |
CN110120072A (zh) * | 2013-12-19 | 2019-08-13 | 苹果公司 | 用于跟踪移动设备的方法和系统 |
CN105849771B (zh) * | 2013-12-19 | 2019-06-04 | 苹果公司 | 用于跟踪移动设备的方法和系统 |
CN104881860B (zh) * | 2014-02-28 | 2019-01-08 | 国际商业机器公司 | 基于照片进行定位的方法和装置 |
US10074180B2 (en) | 2014-02-28 | 2018-09-11 | International Business Machines Corporation | Photo-based positioning |
CN104881860A (zh) * | 2014-02-28 | 2015-09-02 | 国际商业机器公司 | 基于照片进行定位的方法和装置 |
CN113240732A (zh) * | 2014-05-29 | 2021-08-10 | 株式会社高迎科技 | 光学跟踪系统及光学跟踪系统的标记部姿势及位置算出方法 |
CN113240732B (zh) * | 2014-05-29 | 2024-04-19 | 株式会社高迎科技 | 光学跟踪系统及光学跟踪系统的标记部姿势及位置算出方法 |
CN111598974A (zh) * | 2014-06-03 | 2020-08-28 | 苹果公司 | 用于呈现与真实对象相关的数字信息的方法和系统 |
CN111598974B (zh) * | 2014-06-03 | 2023-12-22 | 苹果公司 | 用于呈现与真实对象相关的数字信息的方法和系统 |
US12039644B2 (en) | 2014-06-03 | 2024-07-16 | Apple Inc. | Method and sytem for presenting a digital information related to a real object |
CN107229329A (zh) * | 2016-03-24 | 2017-10-03 | 福特全球技术公司 | 用于具有深度地面实况注释的虚拟传感器数据生成的方法和系统 |
CN107229329B (zh) * | 2016-03-24 | 2022-06-07 | 福特全球技术公司 | 用于具有深度地面实况注释的虚拟传感器数据生成的方法和系统 |
CN106210450B (zh) * | 2016-07-20 | 2019-01-11 | 罗轶 | 一种多通道多视角大数据视频剪辑方法 |
CN106210450A (zh) * | 2016-07-20 | 2016-12-07 | 罗轶 | 基于slam的影视人工智能 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102667855A (zh) | 用于确定相机姿态以及用于识别真实环境的对象的方法 | |
EP2507768B1 (en) | Method and system of generating a three-dimensional view of a real scene for military planning and operations | |
US9934222B2 (en) | Providing a thumbnail image that follows a main image | |
EP3044726B1 (en) | Landmark identification from point cloud generated from geographic imagery data | |
EP3164811B1 (en) | Method for adding images for navigating through a set of images | |
CN108474666A (zh) | 用于在地图显示中定位用户的系统和方法 | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
US10868977B2 (en) | Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information | |
Fedorov et al. | A framework for outdoor mobile augmented reality and its application to mountain peak detection | |
CN112037314A (zh) | 图像显示方法、装置、显示设备及计算机可读存储介质 | |
US20140324843A1 (en) | Geo photo searching based on current conditions at a location | |
Höllerer et al. | “Anywhere augmentation”: Towards mobile augmented reality in unprepared environments | |
EP3486875B1 (en) | Apparatus and method for generating an augmented reality representation of an acquired image | |
Luley et al. | Mobile augmented reality for tourists–MARFT | |
US10878278B1 (en) | Geo-localization based on remotely sensed visual features | |
US10331733B2 (en) | System and method for presenting condition-specific geographic imagery | |
CN110617800A (zh) | 基于民航客机的应急遥感监测方法、系统及存储介质 | |
Sik et al. | Fusing geo-referenced images for urban scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20170531 |
|
AD01 | Patent right deemed abandoned |