CN109643368B - 检测视频数据中的对象 - Google Patents
检测视频数据中的对象 Download PDFInfo
- Publication number
- CN109643368B CN109643368B CN201780051781.9A CN201780051781A CN109643368B CN 109643368 B CN109643368 B CN 109643368B CN 201780051781 A CN201780051781 A CN 201780051781A CN 109643368 B CN109643368 B CN 109643368B
- Authority
- CN
- China
- Prior art keywords
- frame
- surface element
- video data
- representation
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000003550 marker Substances 0.000 claims abstract description 120
- 238000000034 method Methods 0.000 claims description 98
- 238000012545 processing Methods 0.000 claims description 56
- 238000009826 distribution Methods 0.000 claims description 30
- 238000013507 mapping Methods 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 17
- 239000003623 enhancer Substances 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 238000004088 simulation Methods 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 description 59
- 230000006870 function Effects 0.000 description 34
- 230000009466 transformation Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000012360 testing method Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000001994 activation Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000004807 localization Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000005375 photometry Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- BYHQTRFJOGIQAO-GOSISDBHSA-N 3-(4-bromophenyl)-8-[(2R)-2-hydroxypropyl]-1-[(3-methoxyphenyl)methyl]-1,3,8-triazaspiro[4.5]decan-2-one Chemical compound C[C@H](CN1CCC2(CC1)CN(C(=O)N2CC3=CC(=CC=C3)OC)C4=CC=C(C=C4)Br)O BYHQTRFJOGIQAO-GOSISDBHSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000976924 Inca Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241001310793 Podium Species 0.000 description 1
- 241000985694 Polypodiopsida Species 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009023 proprioceptive sensation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本文中描述的某些实例能够从视频数据生成三维(3D)空间的语义标记的表示。在所描述的实例中,3D表示是表面元素或“面元”表示,其中,使用在3D坐标系内定义的多个表面模拟空间的几何图形。可以使用二维图像分类器确定(605)视频数据的帧的空间元素的对象标记概率值。基于表面元素表示的投影使用帧的估计的位姿识别(610)对应于空间元素的表面元素。然后基于对应的空间元素的对象标记概率值更新(615)表面元素的对象标记概率值。这产生存在于视频数据中的对象的语义标记的3D表面元素表示。这个数据使计算机视觉和/或机器人应用程序能够更好地利用3D表示。
Description
技术领域
本发明涉及视频处理。具体地,本发明涉及处理视频数据的帧并且标记三维(3D)空间的表示内的表面元素。本发明具体地但不排他地涉及生成机器人和/或增强现实应用程序中使用的3D空间的语义标记的表示。
背景技术
在计算机视觉和机器人领域,通常需要构建3D空间的表示。构建3D空间的表示允许将真实世界的环境映射到虚拟或数字领域,在那里可以被电子装置使用和操纵。例如,可移动的机器人装置可能需要3D空间的表示,以允许同时定位和映射,并且因此导航其环境。可替换地,3D空间的表示可以使得能够识别和/或提取该空间内的对象的3D模型。
存在几种技术可用于构建3D空间的表示。例如,从运动求取结构和多视角立体视觉是两种此类技术。许多技术从3D空间的图像(例如,角落和/或边缘)提取特征,例如,使用尺度不变特征转换(SIFT)和/或加速鲁棒特征(SURF)算法。然后可以将这些提取的特征在图像之间关联,以建立3D表示。这个3D表示一般设置为3D点云,即,作为限定的3D容积内的一系列限定的X、Y和Z坐标。其他方法可将限定的3D容积分为多个单位容积或者“体素”。沿着一系列常用的Z坐标排列的一组3D点可以模拟地板或桌面。在某些情况下,点云可以在称为表面渲染的过程中转换为用于在显示器上渲染的多边形网格。
当构建3D空间的表示时,技术通常分为“稀疏”和“密集”类别。使用更少数量的点或特征来生成表示的技术被称为“稀疏”。例如,这些技术可以使用10到100个特征和/或点来生成表示。这些可能与生成具有数千或数百万个点的表示的“密集”技术形成对比。“稀疏”技术具有更容易实时实现的优点,例如,以每秒30帧左右的帧速率;使用有限数量的点或特征限制了构建3D表示所需的处理程度。相对而言,由于计算需求,所以更难以执行3D空间的实时“密集”映射和处理。例如,经常优选的是执行3D空间离线的“密集”映射,例如,可以采用10个小时从30分钟的提供的图像数据生成“密集”表示,再次加上相似的时间量以应用任何后续的表示处理。
一旦生成了空间的3D表示,则存在该表示的使用的另一个问题。例如,许多机器人应用程序不仅需要空间的几何图形的定义而且需要关于什么存在于空间中的有用信息。这在计算机视觉领域称为空间的“语义”知识。知道什么在空间内是在人脑中潜意识发生的过程;因而,易于低估利用相等能力构建机器的难度。例如,当人类观察3D空间中的对象(诸如,杯子)时,除了包括与本体感受(例如,朝向对象的移动)和语言处理有关的那些核心视觉处理网络之外激活脑部的许多不同区域。然而,许多计算机视觉系统对空间具有非常幼稚的了解,这些系统仅“知道”空间的几何图形。
在计算机视觉和机器人领域,在空间的表示内包含丰富的语义信息将能够具有比只有几何图形更大的功能范围。例如,在家用机器人中,简单的拿取任务需要了解这是什么东西以及它在哪儿这两个信息。类似地,查询表示内的语义信息的能力可用于人类例如直接提供用于回答关于预先生成的表示的语义的口头查询的数据库:“我们在会议室有几把椅子?讲台与最靠近的椅子之间的距离是多少?”
对生成3D表示的语义信息的研究处于初期。在过去,主要将精力分布在二维(2D)图像分类(例如,“这个场景的图像是否包含一只猫?”)和3D场景映射的相对分开的领域。在后者种类中,许多现有系统被配置为离线操作大数据集(例如,整夜或连续几天)。实时提供3D场景映射是真实世界应用程序的期望目的。
A.Hermans,G.Floros和B.Leibe在2014年的IEEE国际机器人与自动化会议(ICRA)的进程中公布的文章“Dense 3D Semantic Mapping of Indoor Scenes from RGB-DImages”中描述了提供周围场景的语义注释的3D重建的方法,其中,每个3D点被分配一个语义标记。该文章讨论不存在将2D标记转换为全局一致的3D重建的明确方法。所描述的方法建造场景的点云重建并且将语义标记分配给每个3D点。使用随机决策森林计算用于2D图像的图像标记,然后经由贝斯更新和密集成对地条件随机场模型(CRFs)转换至点云。使用零速卡尔曼滤波器在全局的3D空间内跟踪点。尽管提出的方法是鼓舞的,但是运行时间性能为4.6Hz,这将禁止处理直播视频馈送。
R.F.Salas-Moreno、R.A.Newcombe、H.Strasdat、P.H.J.Kelly和A.J.Davison在2013年的IEEE国际计算机视觉与模式识别(CVPR)的进程中公布的文章“SLAM++:Simultaneous Localisation and Mapping at the Level of Objects”中描述了室内场景内的实时3D对象识别的方法。这些方法使用空间的位姿图表示,其中,图中的每个节点以给定的时间步长存储识别的对象的估计位姿或者相机的历史位姿。这个位姿图表示随后优选提供一致表示。通过匹配位姿图部分管理环路闭合。尽管在该领域提供了改进,但是所描述的方法局限于映射存在于预定义的数据库中的对象,并且需要用手生成用于匹配模板模型的特征。它们还不提供整个场景(例如,墙壁、门和窗户)的密集标记,这种标记可用于内部导航。
假定现有技术,仍然存在处理视频数据的可用方法的希望以能够检测和标记视为存在于场景中的对象。例如,增强现实和机器人应用程序希望了解基于实时或接近实时(例如,以大于15Hz的帧处理率)提供的场景中可见的东西。与相机的简单有限的旋转相比,这种应用程序通常还利用大视点变化产生场景观察,例如,从多个不同位置和/或方位观看场景部分的延伸的“不断改变方向的”或“一圈圈的”运动的视频数据。例如,非均匀的地形或手持拍摄装置可以导致在其中反复观察并且重新观察场景的区域的拍摄装置位置和方位中的频繁变化。希望的是能够利用这些可变的场景观察来检测和标记对象。
发明内容
根据本发明的第一方面,提供了用于检测视频数据中的对象的方法,包括:使用二维图像分类器确定视频数据的帧的空间元素的对象标记概率值;识别在对应于空间元素的视频数据的帧中观察到的空间的三维表面元素表示中的表面元素,其中,空间元素和表面元素之间的对应是基于表面元素表示的投影使用帧的估计的位姿来确定;并且基于对应的空间元素的对象标记概率值更新表面元素的对象标记概率值以便提供存在于视频数据中的对象的语义标记的三维表面元素表示。
在某些实例中,在所述视频数据的处理期间,该方法可包括:检测环路闭合事件并且将空间变形应用于表面元素表示,该空间变形修改表面元素在表面元素表示中的三维位置,其中,空间变形修改表面元素表示的空间元素和表面元素之间的对应,使得在空间变形之后,使用先前对应于第二表面元素的空间元素的对象标记概率值更新第一表面元素的对象标记概率值。
可以在没有位姿的情况下执行处理视频数据的帧以生成三维表面元素表示。这可包括逐帧地:将使用三维表面元素表示生成的渲染帧与来自视频数据的帧的视频数据帧进行比较,以确定用于视频数据帧的拍摄装置的位姿;并且使用来自视频数据帧的位姿和图像数据更新三维表面元素表示。
在某些情况下,用于生成三维表面元素表示的视频数据的帧的子集被输入至二维图像分类器。
视频数据帧可包括颜色数据、深度数据和法线数据中的至少一个。在这种情况下,二维图像分类器被配置为基于用于帧的颜色数据、深度数据和法线数据中的至少一个计算对象标记概率值。在某些情况下,用于帧的颜色数据、深度数据和法线数据中的两个或更多个可以提供用于图像分类器的输入信道。
二维图像分类器可包括卷积神经网络。在这种情况下,卷积神经网络可被配置为输出对象标记概率值作为用于每个视频数据的帧的一组像素映射,该组中的每个像素映射对应于一组可用的对象标记中的不同的对象标记。反卷积神经网络可以通信耦接至卷积神经网络的输出。
在一种情况下,在更新表面元素的对象标记概率值之后,该方法包括正则化表面元素的对象标记概率值。这可涉及将条件随机场应用于表面元素表示中的表面元素的对象标记概率值和/或可基于表面元素位置、表面元素颜色和表面元素法线中的一个或多个。
在某些实例中,一组一个或多个表面元素可以基于分配给所述表面元素的对象标记概率值利用三维对象定义替换。
在一个实例中,该方法可包括:利用对象标记注释空间的三维表面元素表示的表面元素以提供带注释的表示;基于带注释的表示的投影从带注释的表示生成带注释的视频数据的帧,投影使用用于每个带注释的帧的估计的位姿,每个带注释的帧包括具有分配的对象标记的空间元素;并且使用带注释的视频数据的帧训练二维图像分类器。
在另一实例中,该方法可包括以下步骤:获得对应于对象的第一部分的观察的视频数据的第一帧;使用二维图像分类器生成用于视频数据的第一帧的图像映射,所述图像映射指示在第一帧的区域中出现对象的第一部分;并且确定表面元素没有投射在第一帧的区域上并且因而没有更新所述区域中的基于表面元素的图像映射值的对象标记概率值。在这个实例中,在检测环路闭合事件之后,该方法可包括:修改表面元素的三维位置,获得对应于对象的第一部分的重复观察的视频数据的第二帧;使用二维图像分类器生成用于视频数据的第二帧的图像映射,所述图像映射指示在第一帧的区域中出现对象的第一部分;在环路闭合事件之后确定所修改的第一表面元素没有投射在第二帧的区域上;并且基于用于视频数据的第二帧的图像映射更新表面元素的对象标记概率值,其中,表面元素的对象标记概率值包括来自多个视点的表面元素的熔合对象投影。
根据本发明的第二方面,提供了用于检测视频数据中的对象的设备,包括:图像分类器界面,接收视频数据的单个帧的二维对象标记概率分布;对应界面,针对视频数据的给定帧,接收指示给定帧内的空间元素和三维表面元素表示中的表面元素之间的对应,所述对应基于表面元素表示的投影使用用于给定帧的估计的位姿来确定;以及语义增强器,反复更新分配给三维表面元素表示中的单独的表面元素的对象标记概率值,其中,针对视频数据的给定帧,语义增强器被配置为使用通过对应界面接收的数据将通过图像分类器界面接收的二维对象标记概率分布应用于分配给对应的表面元素的对象标记概率值。
在某些实例,对应界面被配置为在表面元素表示的空间变形之后提供更新的对应,该空间变形在视频数据内实施环路闭合。在这些实例中,语义增强器可以使用所更新的对应使用先前对应于第二表面元素的空间元素的对象标记概率值更新第一表面元素的对象标记概率值。
在一种情况下,图像分类器界面被配置为在视频数据的给定帧接收对应于相应多个对象标记的多个图像映射,每个图像映射具有指示相关联的对象标记的概率值的像素值。
该设备可包括执行如上所述的正则化的正则化器。语义增强器还可以被配置为基于分配给所述表面元素的对象标记概率值利用三维对象定义替换一组一个或多个表面元素。
在本实例中,表面元素表示中的每个表面元素至少包括定义表面元素在三维中的位置的数据和定义表面元素在三维中的法线量的数据。在这种情况下,每个表面元素表示三维空间中的二维区域。
根据本发明的第三方面,提供了用于检测存在于视频数据中的对象的视频处理系统,该系统包括:如上所述的设备;视频获取界面,从拍摄装置获得视频数据帧,所述视频数据帧导致拍摄装置和三维空间之间随着时间相对移动;以及同步定位和映射(SLAM)系统,通信耦接至设备的对应界面以基于所获得的视频数据的帧生成三维空间的表面元素表示,其中,SLAM系统被配置为将空间变形应用于表面元素表示以关闭视频数据的帧内的观察环路,所述空间变形导致用于表面元素表示中的至少一个修改的表面元素的新的三维位置。
在这个方面中,SLAM系统可包括:分割器,被配置为基于至少一个表示属性将三维表面元素表示分割成至少有效和无效部分,其中,SLAM系统被配置为基于来自表面元素表示的有效部分的投影计算有效渲染帧以便随着时间更新所述表示;并且配准引擎,被配置为将三维表面元素表示的有效部分与三维表面元素表示的无效部分随着时间对准。在这种情况下,配准引擎可以被配置为:基于来自三维表面元素表示的无效部分的投影来计算无效渲染帧;确定使有效渲染帧与无效渲染帧对准的空间变形;并且通过应用空间变形更新三维表面元素表示。SLAM系统还可以包括帧到模型跟踪部件,该帧到模型跟踪部件被配置为将有效渲染帧与从所述视频数据提供的帧进行比较,以确定三维表面元素表示的有效部分与视频数据的对准。配准引擎可以被配置为使用变形图使三维表面元素表示的有效部分与三维表面元素表示的无效部分对准,变形图是基于用于表面元素的初始化时间来计算,变形图指示用于在对准期间修改给定的表面元素的给定的表面元素的一组表面-元素邻居。
在某些实例中,视频处理系统包括二维图像分类器,该二维图像分类器通信耦接至图像分类器界面以计算用于从视频获取界面获得的视频数据的帧的对象标记概率分布。二维图像分类器可以应用如关于第一方面描述的处理。
根据本发明的第四方面,提供了机器人装置,包括:至少一个拍摄装置,提供包括深度数据和颜色数据中的一个或多个的视频数据的帧,所述深度数据指示多个图像元素与拍摄装置相距的距离;如上所述的第二方面的设备、或者第三方面的视频处理系统;一个或多个运动致动器,利用三维空间移动机器人装置;以及导航引擎,控制一个或多个运动致动器,其中,导航引擎被配置为访问分配给三维表面元素表示中的单独的表面元素的对象标记概率值以在三维空间内导航机器人装置。
导航引擎可以被配置为基于分配给三维表面元素表示中的表面元素的对象标记概率值识别房间或者房间的入口点和出口点。
根据本发明的第五方面,提供了移动计算装置,包括:至少一个拍摄装置,被设置为记录包括深度数据和颜色数据中的一个或多个的视频数据的帧,所述深度数据指示多个图像元素距拍摄装置的距离,以及如上所述的第二方面的设备、或者第三方面的视频处理系统。
根据本发明的第五方面,提供了包括计算机可执行指令的非易失性计算机可读存储介质,当由处理器执行时,该指令使得计算装置执行以上描述的视频处理方法。
本发明的进一步的特征和优点将从参考附图进行的仅以实例的方式给出的本发明的优选实施方式的以下描述中变得显而易见。
附图说明
图1A是示出了三维空间的实例的示意图;
图1B是示出了示例性拍摄装置的可用自由度的示意图;
图1C是示出了通过示例性拍摄装置生成的视频数据的示意图;
图2是根据实例的用于检测视频数据中的对象的设备的示意图;
图3A是示出了用于3D表面元素模型的示例性数据的示意图;
图3B是示出了根据实例的表面元素的属性的示意图;
图4是根据实例的用于检测存在于视频数据中的对象的视频处理系统的示意图;
图5是示出了基于视频数据的帧的用于语义标记表面元素表示的示例性管线的示意图;
图6是示出了根据实例的用于检测视频数据中的对象的方法的流程图;
图7是示出了用于配准表面元素表示的部分并且应用变形图的示例性过程流的示意图;
图8是示出了用于处理视频数据帧以更新三维空间的表示的示例性过程的流程图;
图9A至图9C是示出了更新表面元素表示的样例的示意图;并且
图10A和图10B是示出了示例性场景和语义标记的输出的示图。
具体实施方式
本文中描述的某些实例能够从视频数据生成3D空间的语义标记的3D表示。这称为场景中看得见的“检测对象”:“检测”可指的是确定用于一组可适用的类别标记的概率的过程,并且“对象”可指的是例如可以与机器人交互的任何可见的具有材料存在的东西或实体。术语“对象”和“类别”被同义使用,它们指的是用于真实世界实体的标记或标识符。在所描述的实例中,还可以称为映射或模型的3D表示是表面元素或“面元”表示,其中使用在3D坐标系内定义的多个表面或区域模拟空间的几何图形。3D表示被语义标记在于该表示内的给定面元具有识别与元件相关联的对象的关联的标号数据(例如,字串或密钥),即,检测到对象。在此对象被认为是广义的并且包括实体,诸如,墙壁、门、地板和人以及家中、办公室和/或外部空间中的家具、其他装置和常规对象等。以此方式,面元具有将含义提供至超出器几何图形或视觉特性(例如,颜色)的面元的附加数据。这个数据使计算机视觉和/或机器人应用程序能够更好地利用3D表示。例如,如果家用机器人的映射包括识别空间内的对象的数据,则机器人可以区分“门”与“墙壁”。因此,从几何图形视点来看相似的映射特征(例如,门和墙壁都是垂直平面)可以区分并且用于移动,例如,这个信息然后可以由机器人用于进入或退出该空间。标记可以按概率分配,能够在导航期间以贝斯方式更新看法。
本文中描述的某些实例特别适于以等于或大于15Hz的帧速率处理实时视频馈送。这通过使用不依赖位姿图的计算的空间的表示是可行的;帧到表示跟踪和融合逐帧地出现,其中,该表示在检测环路闭合事件之后被空间变形。在某些实例中,表示被分成有效和无效部分,其中,只有有效部分用于更新该表示,其中,无效部分不用于更新该表示。这个更新可包括利用表示融合视频数据的帧,例如,确定新的面元,修改现有面元或者删除旧的面元。这有助于减少计算需求,因为任何时候只有空间表示的子集可以用于在对空间的新观察之后更新表示。除了更新表示之外,有效部分还可以用在追踪操作中,该追踪操作试图确定拍摄装置相对于表示的位置和方位的精确的当前表示。再次,与基于空间的完整表示的跟踪相比,仅使用空间表示的子集,使得计算需求减少。
本文中描述的某些实例为包括观察环路的视频数据提供增加的检测精确度,例如,其中,对象经过两次或更多次和/或从不同的角度观看。在实例中,基于新的数据帧持续更新与面元相关联的类别或对象标记概率。当重新观察表示的现有部分时,检测到环路闭合事件并且面元被非刚性变形以提供空间的一致的全局映射;然而,维持分配的概率。因而,在面元表示上的概率更新操作中,可以在变形之后使用新的概率的集合。在测试中,这导致了检测精确度的改进性能。实质上,“一圈圈的”运动能够多次单独观察给定对象。这些单独观察都提供2D对象分类的集合。然后变形过程意味着来自单独帧的2D分类概率被一致应用于面元的相同集合。在某些情况下,这种变形可能是非刚性的,并且可使用变形图来对面元进行转换。变形图可以是稀疏的和/或可以嵌入例如与面元相关联的空间中。这些技术不同于那些需要位姿图的技术,例如,相机装置的位置和方位的概率表示,其用于刚性地转换图像数据的独立关键帧。实际上,通过在适当的情况下对准表示和变形的不同部分,不需要位姿图,例如,因为可通过对准和变形校正偏移和误差,因此不需要在任何时候跟踪正确的位姿。这个再次辅助实时操作并且简化处理。
图1A和图1B示意性地示出了3D空间的实例以及与该空间相关联的视频数据的拍摄。然后图1C示出了被配置为当观看空间时生成视频数据的拍摄装置。提供这些实例,以更好地说明本文中描述的某些特征,并且不应被认为是限制性的;为便于说明,省略和简化了某些特征。
图1A示出了三维空间110的实例100。三维空间110可以是内部和/或外部物理空间,例如,房间或地理位置的至少一部分。在这个实例100中,三维空间110包括位于三维空间的多个物理对象115。这些对象115可包括以下中的一个或多个:人、电子装置、家具、动物、建筑物部分和设备等。尽管图1A中的3D空间110被示出为具有较低的表面,但是不一定在所有的实现方式中都是这种情况,例如,环境可以是空中的或者在地球外空间内。
实例100还示出了可用于拍摄与3D空间相关联的视频数据的各种示例性拍摄装置120。拍摄装置120可包括相机,该相机被布置为以数字或模拟形式记录观察3D空间110产生的数据。在某些情况下,拍摄装置120是可移动的,例如,可以被设置为拍摄对应于3D空间110的不同观察部分的不同帧。拍摄装置120相对于静态安装可移动,例如,可包括致动器,以相对于三维空间110改变相机的位置和/或方位。在另一种情况下,拍摄装置120可以是由人类用户操作和移动的手持装置。
在图1A中,多个拍摄装置120还示出为耦接至机器人装置130,该机器人装置被布置为在3D空间110内移动。机器人装置135可包括自主的空中和/或陆地移动装置。在本实例100中,机器人装置130包括使装置能够导航3D空间110的致动器135。这些致动器135包括示图中的轮子;在其他情况下,它们可包括轨道、挖掘机构、转子等。一个或多个拍摄装置120-A、120-B可以静态地或者移动地安装在此类装置上。每个拍摄装置120-A、120-B可以拍摄不同类型的视频数据和/或可包括立体图像源。在一种情况下,拍摄装置120-A可以拍摄深度数据,例如,使用诸如红外线、超声波和/或雷达(包括光检测和测距-LIDAR技术)等遥感技术,而拍摄装置120-B拍摄测光数据,例如,彩色或灰度图像(反之亦然)。在一种情况下,拍摄装置120-A、120-B中的一个或多个可以独立于机器人装置130移动。在一种情况下,拍摄装置120-A、120-B中的一个或多个可以安装在旋转机构上,例如,该旋转机构以成角度的弧旋转和/或旋转360度,和/或与适配的光学器件一起被布置为拍摄场景的全景(例如,直到完整的360度全景)。
图1B示出了可用以拍摄装置120和/或机器人装置130的自由度的实例140。在诸如拍摄装置120-A的情况下,装置150的方向可以与镜头或者其他成像设备的轴共线。作为围绕三个轴中的一个轴旋转的实例,图中示出了法线轴155。类似地,在机器人装置130的情况下,可以定义移动装置145的对准方向。这可以指示移动装置的朝向和/或行进的方向。还示出了法线轴155。尽管参考拍摄装置120或机器人装置130仅示出了单个法线轴,但是这些装置可以围绕如下所述的示意性地示出为140的任何一个或多个轴旋转。
一般地,拍摄装置的方位和位置可以参考六个自由度在三维中定义:可以在三个维度中的每个维度内定义位置,例如,由[x,y,z]坐标表示,并且可以由表示围绕三个轴,例如,[θx,θy,θz]中的每个轴旋转的角度矢量来定义方位。在某些实现方式中,拍摄装置可以参考这六个自由度的受限组来定义,例如,对于地面车辆上的拍摄装置,z维度可以是恒定的。在某些实现方式中,例如,机器人装置130的实现方式,可以参考其他装置的方位和位置来定义耦接至另一装置的拍摄装置的方位和位置,例如,可以参考机器人装置130的方位和位置来定义。在本文中描述的实例中,拍摄装置的方位和位置被定义为拍摄装置的位姿。拍摄装置的位姿可以随时间变化,使得拍摄装置在时间t+1时可以具有与在时间t时不同的位姿。在手持式移动计算装置包括拍摄装置的情况下,位姿可以随着手持装置被3D空间110内的用户移动而改变。
图1C示意性地示出了拍摄装置配置的实例。在图1C的实例160中,拍摄装置165被配置为生成视频数据170。视频数据包括随时间改变的图像数据。如果拍摄装置165是数字相机,则这可以直接执行,例如,视频数据170可包括来自电荷耦合器件或互补金属氧化物半导体(CMOS)传感器的经处理的数据。也可以间接生成视频数据170,例如,通过处理其他图像源,诸如,转换模拟信号源。
在图1C中,图像数据170包括多个帧175。每个帧175可以涉及在拍摄3D空间(诸如,图1A、图1B中的110)的图像的时间段中的特定时间t(即,Ft)。帧175通常包括测量数据的2D表示。例如,帧175可包括在时间t时记录的像素值的2D阵列或矩阵。在图1C的实例中,视频数据内的所有帧175是相同大小的,尽管在所有实例中的情况不一定都如此。帧175内的像素值表示3D空间的特定部分的测量值。在图1C的实例中,每个帧175包括用于两种不同形式的图像数据的值。第一组值涉及深度数据180(例如,Dt)。深度数据可包括距拍摄装置的距离的指示,例如,每个像素或图像元素值可表示3D空间的一部分距拍摄装置165的距离。第二组值涉及测光数据185(例如,颜色数据Ct)。这些值可包括给定分辨率的红色、绿色、蓝色像素值。在其他实例中,可以使用其他颜色空间和/或测光数据185可包括单色或灰度像素值。在一种情况下,视频数据170可包括压缩的视频流或文件。在这种情况下,可以从流或文件重建视频数据帧,例如,作为视频解码器的输出。在对视频流或文件进行预处理之后,可以从存储器位置检索视频数据。
图1C的拍摄装置165可包括布置为拍摄RGB数据185和深度(“D”)数据180的所谓的RGB-D相机。在一种情况下,RGB-D相机被布置为随时间拍摄视频数据。深度数据180和RGB数据中的一个或多个可以在任何时间使用。在某些情况下,RGB-D数据可以与四个或更多个信道结合在单个帧中。深度数据180可以通过本领域已知的一种或多种技术生成,诸如,结构化光方法,其中,红外激光投影仪在三维空间的被观察部分上投射红外光的图案,该图案然后由单色CMOS图像传感器成像。这些相机的实例包括由微软公司制造的相机系列、由华硕电脑公司制造的/>相机系列、以及苹果公司的子公司PrimeSense制造的相机系列。在某些实例中,RGB-D相机可以被合并到诸如平板电脑、膝上型电脑或移动电话等移动计算装置中。在其他实例中,RGB-D相机可以用作静态计算装置的外围设备,或者可以嵌入具有专用处理能力的独立装置中。在一种情况下,拍摄装置165可以被布置为将视频数据170存储在耦合的数据存储装置中。在另一种情况下,拍摄装置165可以将视频数据170传输至耦合的计算装置,例如,作为数据流或逐帧地。耦合的计算装置可以直接耦合,例如,经由通用串行总线(USB)连接,或者间接耦合,例如,可以通过一个或多个计算机网络传输视频数据170。在又一种情况下,拍摄装置165可以被配置为通过一个或多个计算机网络传输视频数据170,以用于存储在网络附接的存储装置中。视频数据170可以逐帧地或批量地存储和/或传输,例如,多个帧可以捆绑在一起。深度数据180不需要与测光数据185具有相同的分辨率或帧速率。例如,深度数据180可以以比测光数据185更低的分辨率来测量。也可以在之后描述的实例中使用之前对视频数据170进行一个或多个预处理操作。在一种情况下,可以应用预处理,使得两个帧组具有相同的大小和分辨率。在某些情况下,单独的拍摄装置可以分别生成深度和测光数据。本文中没有描述的其他配置也是可能的。
在某些情况下,拍摄装置可以被布置为执行预处理,以生成深度数据。例如,硬件感测装置可以生成视差数据或具有多个立体图像的形式的数据,其中,软件和硬件中的一个或多个用于处理该数据,以计算深度信息。类似地,深度数据可以替代地由输出可以用于重建深度信息的相位图像的飞行相机的时间产生。因而,可以使用任何合适的技术生成形成图像数据220的一部分的深度数据。
图1C作为实例提供,并且如将理解的,与附图中示出的那些不同的配置可以用于生成视频数据170,以在如下所述的方法和系统中使用。视频数据170可以进一步包括任何测量的感测输入,其被布置为二维形式,表示利用拍摄装置拍摄或记录的3D空间的视图。例如,这可以包括深度数据或测光数据、电磁成像、超声成像和雷达输出等中的仅一个。在这些情况下,可能仅需要与特定形式的数据相关联的成像装置,例如,没有深度数据的RGB装置。在上面的实例中,深度数据Dt的帧可包括深度值的二维矩阵。这可以表示为灰度图像,例如,其中,具有xR1×yR1的分辨率的帧中的每个[x,y]像素值包括表示三维空间中的表面与拍摄装置相距的距离的深度值d。测光数据Ct的帧可包括彩色图像,其中,具有分辨率为xR2×yR2的帧中的每个[x,y]像素值包括RGB矢量[R,G,B]。作为实例,两组数据的分辨率可以是640×480个像素。
给定的视频数据表示3D空间或场景的观察,图2示出了根据实例200的用于检测这个视频数据中的对象的设备210。设备210包括图像分类器界面220和对应界面230。这两个界面220、230通信耦接至语义增强器240。
图像分类器界面220被配置为接收用于单独的视频数据帧的2D对象标记概率分布250。例如,至于视频数据的特定帧,图像分类器界面220可以被配置为接收一个或多个图像的对应组,其中,图像中的像素值表示对象标记概率值。在这个背景下的对象或类别包括识别特定实体的给定标记、标记或字串。对象或类别标记可包括人类可读的字串,诸如,“椅子”或“地板”、或者用于数据的标识符,诸如,用于定义“椅子”或“地板”的数据的统一资源标识符(URI)(例如,“12345”)。在具有四个对象标记:“[“门”、“地板”、“墙壁”、“家具”]”的单个系统中,一组四个图像可以由图像分类器界面220接收,其中,每个图像的像素值表示相应的对象标记的概率值;例如,用于“地板”的图像可具有能够映射至0至1范围的像素值,其中,每个值表示视频数据的给定帧中的对应像素是房间的地板的观察的概率。在另一种情况下,可以接收一个图像,其中,每个像素具有多个关联的概率值(例如,具有关联的阵列),该组概率值(例如,阵列的长度)表示该组可用的对象标记。在其他实例中,在图像分类器界面220处接收的数据可以与不同于像素(例如,像素组或者在简单情况下,用于每个可用对象标记的单个概率值)的视频数据的给定帧的区域相关联。
对应界面230被配置为接收为视频数据的给定帧指示3D表面元素(“面元”)表示270中的给定帧内的空间元素和表面元素之间的对应的数据260。例如,在一种情况下,数据260可包括图像,其中,如果存在对应,则图像中的像素指示面元表示270中的特定面元。在另一种情况下,对应界面230可以被配置为发送请求以获得与视频数据的帧的给定空间元素相关联的面元,例如,以像素或像素组的形式的空间元素。在这种情况下,数据260可包括包含标识符的响应或者连接至面元表示270中的特定面元。在图2中,用于给定帧的空间元素和面元之间的对应是基于面元表示的投影使用用于帧的估计的相机位姿来确定。在某些情况下,没有面元可以与空间元素相关联,例如,如果在表示中,则对应空间是空白的或者空的,而不存在面元。
图2的语义增强器240被配置为针对视频数据的给定帧使用来自对应界面230的数据260和来自图像分类器界面的对象标记概率分布250更新分配给3D面元表示中的单独面元的对象标记概率值280。具体地,语义增强器240被配置为针对视频数据的给定帧使用通过对应界面230接收的数据260以将通过图像分类器界面220接收的二维对象标记概率分布250应用于分配给对应的面元的对象标记概率值280。
例如,在一个实现方式中,2D对象标记概率分布250和对应数据260可包括相等大小的2D阵列(例如,X×Y个像素的图像,其中,X×Y可以是共用的分辨率,诸如,视频图形阵列(VGA)、高级VGA(SVGA)或更高的)。这些阵列可以被配置为相同的大小伙子可以适当地重新制定大小或映射。假设前者用于这个实例,则首先选择对象标记概率分布250内的对应图像用于每个对象标记。然后,使用数据260检索对应的面元用于每个像素。例如,数据260中的像素[128,56]可识别特定的3D位置(例如,[34,135,99])处的面元或者利用特定的标识符(例如,“SF1234”)。然后检索当前对象标记的现有概率值用于所识别的面元。这可包括为具有特定标识符的面元定位数据定义并且更新数据定义。然后可使用对应于给定对象标记的对象标记概率分布250中的图像中的像素[128,56]处的当前概率值更新现有的概率值。然后重复用于每个像素和每个对象标记图像。
在某些实例中,对应界面230被配置为在面元表示270的空间变形之后提供更新的对应。这可以是使用变形图的非刚性空间变形,其中,面元表示中的面元形成所述图的节点。空间变形在视频数据内实施环路闭合。例如,这可以涉及拍摄装置“重新观察”场景或空间的特定部分,例如,第二次或者从不同角度观看在面元表示中模拟的对象。在本实例中,语义增强器240使用所更新的对应使用先前对应于第二面元的用于空间元素的对象标记概率值更新用于第一面元的对象标记概率值。换言之,在环路闭合事件之后,空间变形修改面元的3D位置,意味着在用于后续帧的更新操作中,拍摄装置没有移动,对应数据260是不同的,并且因而即使由于缺乏移动导致对象标记概率分布250剩余相同的数据,也更新不同组的面元概率值。实际上,在表示变形期间,对象标记概率值“遵从”面元。这意味着精确且一致地结合在不同时间或不同角度观看与共用对象相关联的投影。这还改进对象检测精确性。这不会出现面元表示或概率值的繁重处理,并且因此允许快速的实时操作。
图3A示出了可用于提供如上所述的面元表示的数据结构310的示意图。数据结构310仅仅是示例性的并且不应被视为限制性的;根据实现方式,可以使用用于存储数据的其他方法和格式。在这种情况下,面元模型包括用于多个面元(即,表面元素)的数据定义,其中,每个面元表示3D空间中的2D区域(即,表面)。在某些情况下,面元表示可包括面元数据定义的无序列表。在这种情况下,每个面元至少包括定义面元在三维中的位置的数据(即,位置元素或部件)以及定义表面元素在三维中的法线量的数据(即,与元素相关联的表面的“朝向”方向)。这在图3B中示意性地示出。可在2000年7月的ACM Press/Addison-WesleyPublishing Co.在第27届计算机图形与交互技术年会的进程中公布的Pfister、Hanspeter等的文章“Surfels:Surface elements as rendering primitives”中找到一个“面元”的描述。
图3B示出了表面元素或“面元”320的示意图。面元320包括三维中的表面s。面元具有三维中的位置p。在图3A中,使用三维坐标来定义这个位置,例如,定义x、y和z坐标的数据“位置:px,py,pz;”。在其他实例中,可以使用其他坐标系。在图3B中,面元还具有在三维内定义的法线量n。在图3A中,使用三维矢量来定义该位置,例如,数据“法线:nx,ny,nz;”。可以使用矢量定义内的有符号值来指示方向。
图3A中的实例310还示出了分配给每个面元的对象标记概率值。在本实例中,概率(“概率:{{PO1,PO2,…,POn}”,其中,On表示第n个对象的对象标记)与面元定义一起存储。在其他情况下,概率可以经由面元标识符或外键存储在与面元相关联的单独的查询表或者数据库记录中。在具有四个对象标记([“门”、“地板”、“墙壁”、“家具”])的上述简单情况下,这些概率值可以是[0.1、0.2、0.2、0.5],表示面元与房间中的家具可能相关联的面元。
图3A中的实例310还具有在某些实例中可以用来描述面元的其他数据。在目前情况下,面元的表面在3D空间中是圆形或圆盘形。因而,图3A和图3B中的表面由半径r定义,如数据“半径:r”所示。每个面元的半径旨在表示在给定点周围的局部表面积,同时使可见孔最小化。在其他实例中,可以使用不同的数据来定义表面,例如,使用不同的几何图形的定义和/或变量,指示三维内表面的范围。图3A在本实例中示出了面元定义还包括定义以下内容的数据:表面的颜色(“颜色:R、G、B;”-在这种情况下,使用RGB颜色空间,但是任何已知的颜色空间是可行的);面元的重量(“重量:w;”-这可能是在融合新的测量与面元时使用的真实数字);初始化时间(“Init_Time:t0;”),指示首次生成面元的时间;以及最后的修改时间(“Last_Modified:t;),指示最后更新或修改面元时的时间。应理解的是,根据实现方式,可以添加、修改或省略定义面元的属性的数据。如图3A所示,可以在列表中定义多个面元(例如,在该实例中,在“{...}”之间)。
图4示出了可以使用图2中示出的设备210的视频处理系统的实例。在图4中,实体410至480对应于参考图2描述的实体210至280。图4进一步示出了视频获取界面405。视频获取界面405被配置为从拍摄装置获取视频数据415的帧。这可以是通过拍摄装置(诸如,图1C中的拍摄装置165)主动或者先前生成的视频数据。视频数据415的帧是在拍摄装置和3D空间或场景之间随着时间出现的相对移动的特征。
图4中的视频获取界面405通信耦接至图像分类器455和同步定位和映射(SLAM)系统465。图像分类器455和SLAM系统465都被配置为接收视频数据415的帧。在某些情况下,图像分类器455和SLAM系统465可以接收视频数据的相同帧。在其他情况下,图像分类器455可以接收由SLAM系统465接收的视频数据帧的子集。在这种情况下,SLAM系统465提供帧460之间的对应以及融合的面元470的全局一致的映射。语义增强器440如参考图2所描述的操作,因为它将从图像分类器界面420接收的概率450与现有的面元概率分布融合以在3D表示470中生成用于每个面元的一组对象或类别概率480。在这种情况下,根据经由对应界面430接收的对应数据460选择适当的面元。
图像分类器455包括二维图像分类器,该二维图像分类器通信耦接至图像分类器界面420以计算对象标记概率分布450以用于从视频获取界面405获得的视频数据415的帧。在某些情况下,视频数据415的帧可以重新正则化为图像分类器455的原始分辨率。例如,视频数据415的帧可以使用RGB像素值的双线性内插重新正则化为224×224分辨率。在某些情况下,图像分类器455的输出还可以重新正则化为匹配对应数据460的分辨率。例如,图像分类器455的输出可以使用最近邻粗化算法重新正则化为640×480图像分辨率。
图像分类器455可以实现各种机器学习方法中的至少一个。可以使用支持向量机(SVM)、贝斯网络、随机森林、最近邻群集和/或神经网络等。在某些实例中,图像分类器455可包括卷积神经网络(CNN)。CNN可具有多个卷积层(例如,在一个实例中是16个),有时非正式地称为“深度学习”方法。在一种情况下,CNN被配置为输出对象标记概率值作为用于视频数据的每个帧的一组像素映射(例如,图像)。这可以通过将反卷积神经网络通信耦接至CNN的输出来实现。具有反卷积层的特征的示例性CNN的进一步详情可以在H.Noh、S.Hong、B.Han关于学习用于语义分割的反卷积网络的文章(参见arXiv预印arXiv:1505.04366-2015)中找到。因此图像分类器455可以被配置为在适当训练之后输出密集的像素间的语义概率图。用于CNN图像分类器455的示例性测试操作参数包括0.01的学习率、0.9的动量以及5x10-4的权重衰减。在这种情况下,在10,000次重复之后,学习率简化为1x10-3,其中,训练进行20,000次重复。在这个测试实例中,原始的CNN权重首先在与普遍的图像分类任务相关联的图像的数据集上进行预训练。然后微调与本3D语义标记相关联的场景分割任务的权重。可以使用一个或多个图形处理单元以训练和/或实现图像分类器455。
在一种情况下,图像分类器455以连续的测光(例如,RGB)图像的形式接收视频数据415的帧,诸如,图1C中的测光数据185。在某些实例中,图像分类器455适用于接收深度数据以及测光数据或者代替测光数据,例如,深度图像,诸如图1C中的180。因而,图像分类器455可包括对应于RGB-D数据中的每一个的四个输入信道。在一种情况下,图像分类器455的深度信道利用三个测光信道的平均强度初始化。在这种情况下,0-255值色域可以通过增加图像分类器455使用的权重(例如,通过大约32次)转换为0-8m深度范围。在另一种情况下,以及或者代替RGB-D数据中的任一个,图像分类器455可以适用于使用面元法线值用作输入数据。例如,输入图像可包括3D面元表示使用用于拍摄装置的当前估计的位姿到2D图像平面上的投影,其中,图像中的每个像素值包括投射面元的法线值。在这种情况下,对应数据460可包括法线数据并且可被配置为用于图像分类器455的输入。
图像分类器455可以使用一个或多个标记的数据集(即,视频数据的帧)训练,其中,已经预分配了对象标记。例如,一个此类数据集包括如N.Silberman等在2012年的ECCV中公布的Indoor Segmentation and Support Inference from RGBD Images中讨论的NYU深度数据集V2。对象或类别标记的数量可以取决于该应用。一个测试案例具有13个类别标记的特征。
如果使用CNN,则网络可包括学习的图像滤波器或内核的层。在最低层中,这些滤波器可以对应于简单的边缘和斑点检测器(例如,3x3矩阵),如果图像块包含就方位而言的“匹配”边缘或者颜色的匹配斑点,当利用小块输入图像卷积时,这导致大激活。在这种情况下,卷积称为元素间的相乘和求和。在某些情况下,可以使用互相关计算近似卷积运算。卷积之后,激活被输入到非线性激活函数中。在一个实例中,可以使用修正线性单元或ReLU(例如,输出=最大(输入,0))。继此之后,将构造更高层的抽象的每个后续层应用于滤波器的更多层,诸如,边缘的组合以构造复杂形状或纹理。还可以应用称为“最大池化”的程序,其中,选择小邻域内的最高激活并且传递至下一层。这个CNN处理的结果是降低采样的图像。然后可存储池化激活的位置。在进一步卷积运算之后,可以利用设置为原始存储位置的“非池化的”激活以及将激活“涂抹”回到高级的多信道特征图的反卷积滤波器“反过来”执行类似过程。最终,以与原始的输入图像相同的比例,计算原始图像中的每个像素的每个类别的一组分数。该分数通过将softmax函数应用于每个像素的类型转换为概率映射。这整个神经网络可以在训练图像的大集合上端到端地训练以使所有像素上的正确类别的总消极记录概率最小化。
返回至图4,SLAM系统465可包括诸如在国际性专利申请PCT/GB2016/051423中描述的SLAM系统。SLAM系统465被配置为基于视频数据415的帧生成面元表示470。SLAM系统465可以被配置为将空间变形应用于面元表示470以关闭视频数据415的帧内的观察环路。这个空间变形产生面元表示中的至少一个面元的新的三维位置。如上所述,并且以下更详细地,可以使用变形图应用非刚性空间变形。在这种情况下,SLAM系统465不需要位姿图以构建全局一致的面元表示。这个SLAM系统465特别适于使用语义增强器440,因为在一般的交互使用期间频繁出现的一个或多个小的或大的环路闭合之后,生成的面元表示470自动变形以保持一致。因为表面表示在操作期间变形和校正,因此单独的面元保持与真实世界实体持续相关联,并且这使得能够在视点的广泛变化上长期融合每个帧的语义投影。
图5示出了可以应用于视频数据的帧的示例性过程流或管线500。这个过程流示出了诸如SLAM系统465的SLAM系统的部件如何与用于检测对象的设备(诸如,210或410)同步工作,以便生成观察的3D空间的语义标记的3D表示或映射。
在图5的实例中,为了每个到达帧Ft,跟踪诸如相机等拍摄装置的位姿。这可以使用迭代最近点(ICP)算法和测光(例如,RGB)对准的结合执行。这个跟踪可为每个帧产生新的位姿Pt,该位姿参考“世界”帧和“拍摄装置”帧进行定义。然后新的面元使用位姿被添加到面元表示,并且现有的面元信息结合新的证据细化面元定义,例如,位置、法线和颜色信息。环路闭合事件的额外检查同时运行并且根据环路闭合检测优选面元表示。
更详细地,在图5中,SLAM系统和语义增强器这两者的部件通信耦接至视频获取界面505。这可包括图4中的视频获取界面405。在附图中,视频获取界面505供应视频数据的帧Ft(其中,t可包括时标)。
图5中示出的SLAM系统部件包括帧到模型跟踪部件515、有效帧发生器520、模型融合部件525、模型分割器535、无效帧发生器550和配准引擎560。这些部件被配置为一起工作来生成3D面元表示530,它可具有图3A和图3B中示出的形式。图5还示出了图像分类器565、面元到像素映射器575、贝斯更新引擎585和正则化器590。在这种情况下,贝斯更新引擎585形成用于检测对象的设备的核心。用于检测对象的设备被布置为语义标记面元表示530,例如以便将对象标记概率分配给如图3A所示的面元。在本实例中,这些被假定为利用面元表示530存储;在其他实现方式中,它们可以存储在单独的面元连接的数据存储器中。
帧到模型跟踪部件515、模型融合部件525和图像分类器565各自被布置为从视频获取界面505接收视频数据帧Ft。该数据可以从表示拍摄的或先前记录的视频数据的时间索引数据结构中检索和/或可以作为实时视频馈送的一部分提供,在每种情况下,该数据涉及当前由至少一个拍摄装置提供的帧。如上所述,在一个实现方式中,图像分类器565可以接收从视频获取界面505接收的每n个帧中的一个,即,由帧到模型跟踪部件515和模型融合部件525接收的帧的子集。在一种情况下,这可以是每2n个帧中的一个。
在一种情况下,如国际性专利申请PCT/GB2016/051423中所描述的,分割器535被配置为基于至少一个表示属性将面元表示530至少分为有效和无效部分。至少一个表示特性可包括以下项中的一个或多个:给定面元的生成时间、给定面元的最后一次修改时间以及面元和拍摄装置之间确定的距离。例如,当自上次更新或修改的面元以来的时间(例如,为了数据融合而具有与其相关联的原始图像数据值)大于预定义的δt时,面元可以被声明为无效。当接收新的视频数据帧时,面元表示530的有效部分用于更新表示。例如,如图5所示,帧到模型跟踪部件515通信耦接至有效模型帧发生器520。有效模型帧发生器520被配置为从面元表示530的有效部分540计算有效模型帧。然后,帧到模型跟踪部件515被配置为将从有效模型帧生成器520接收的有效模型帧与从视频获取界面505接收的图像数据帧进行比较。模型融合部件525被配置为基于从图像获取界面505接收的图像数据帧和从有效模型帧发生器520接收的数据更新面元表示530。无效部分545不被有效模型帧生成器520和模型融合部件525使用。在其中面元表示530包括面元的无序列表的情况下,部分540和545可包括无序列表的过滤版本。
有效模型帧发生器520可以被配置为基于从面元表示的有效部分540的投影生成有效模型帧。在图5中,由有效模型帧生成器520在时间t-1生成的有效模型帧AMFt-1以及在时间t的视频数据的帧Ft由帧到模型跟踪部件515接收,并且该有效模型帧AMFt-1用于生成在时间t被认为生成视频数据的帧的拍摄装置的位姿估计Pt。如先前所讨论的,这可以表示拍摄装置的或拍摄装置静态地安装到的装置的实际位置和方位,或者可以呈现被视为虚拟的拍摄装置。位姿估计可包括图1B中示出的六个自由度的变量值。有效模型帧AMFt-1可包括时间t-1时的深度数据和测光数据/>的预测帧。
时间t时的位姿估计Pt从帧到模型跟踪部件515传达到有效模型帧生成器520。有效模型帧生成器520被配置为使用时间t时的位姿估计Pt来确定在时间t时的有效模型帧AMFt。这可包括使用位姿估计的变量值确定使用有效面元340的投影几何图形。
在一种情况下,帧到模型跟踪部件515可以被配置为将时间t-1时的深度数据和颜色数据/>的预测帧中的每一个与时间t时的视频数据帧/>和/>进行比较。该比较可包括针对每对帧(即,针对深度数据对和颜色数据对)确定使每对中的帧之间的误差函数最小化的运动参数。然后,跟踪误差可以被定义为深度数据误差和测光数据误差的总和。这个总和可能是加权总和。在一种情况下,测光数据误差可以乘以加权因子,例如,参考深度数据误差来减少其贡献。在一种情况下,这个因子可能是0.1。可以使用最小二乘函数来生成自由度的变量值的估计。该估计可以用来确定将时间t-1时的位姿估计Pt-1映射到当前位姿估计Pt的转换。该当前位姿估计可以用于将视频数据Ft与有效部分540对准。它可以被模型融合部件525用来将视频数据帧Ft与有效部分540融合。
除了有效模型帧生成器520之外,图5的实例500进一步包括无效模型帧生成器550。无效模型帧生成器550类似于有效模型帧生成器520,但是被配置为从面元表示530的无效部分545生成无效模型帧IMFt。例如,无效模型帧可以由无效模型帧生成器550基于来自无效部分545的几何投影来计算。在一种情况下,有效模型帧生成器520和无效模型帧生成器550可以通过公共帧生成器实现,该公共帧生成器被配置为接收模型的有效和无效部分,作为差分输入,以便分别生成有效和无效模型帧。如参考有效模型帧描述的,每个无效模型帧可包括深度数据的预测帧以及测光数据的预测帧/>
图5中的配准引擎560被配置为将3D面元表示的有效部分540与3D面元表示的无效部分随着时间对准。在图5中,配准引擎560被布置为从有效模型帧生成器520接收有效模型帧AMFt,并且从无效模型帧生成器550接收无效模型帧IMFt。在本实例中,配准引擎560被配置为比较这两个帧,以确定将有效模型帧与无效模型帧对准的转换。如图5中的箭头所示,然后可以使用该转换来更新面元表示530,以使模型的有效部分和无效部分对准。这种转换可以用于对有效部分和无效部分应用面元的非刚性空间变形。在一种情况下,可以使用变形图来应用变形。这参考图7更详细地描述。变形或对准可以利用当前位姿估计Pt。在某些情况下,有效和无效模型帧的配准可以使用与帧到模型部件515的过程类似的过程。例如,不是尝试将先前预测帧与新接收的图像数据的帧对准,配准引擎560被配置为确定使有效帧和无效帧对准的转换Ht。如果执行对准,则配准引擎560可以将所有可见的无效面元,例如,在无效的模型帧中可见的面元,设置为有效。
平行于部件515至560的操作,图像分类器565被配置为接收视频数据帧Ft,并且计算一组对象标记概率分布570。在这种情况下,如上所述,对象标记概率分布570被设置为图像集,每个图像对应于不同的对象标记,其中,图像中的空间元素值,在这种情况下的像素值表示具有标记的对象在空间元素中可见的概率。在图5中,对象标记概率分布570的集合由面元到像素映射器575接收。在这个实例中,面元到像素映射器575被配置为确定图像570中的空间元素(例如,像素)和面元表示530中的面元之间的对应。这个对应是基于跟踪的位姿Pt,该位姿可以利用面元表示530存储或者通过帧到模型跟踪部件515供应。使用跟踪的位姿Pt,在面元表示530中的给定3D位置wx(s)处的每个面元可以与经由相机投影u(s,t)=π(CWPtwx(s))与帧Ft相关联的像素坐标u相关联,其中,cwPt是拍摄装置(“C”)相对于3D表示的“世界”(“W”)的位姿,该3D表示是采用齐次变换矩阵CWPt=WCPt -1(其中,WCPt是“世界”相对于拍摄装置的位姿Pt)和使用齐次3D坐标来计算。在一个实现方式中,这个投影的结果可以提供为对应的图像,其中,每个像素值具有从面元表示530关联的识别的面元。然后面元到像素映射器575能够基于像素对应利用面元映射从数据570输入的概率值,例如,基于该投影确定来自视频数据帧Ft的像素[256,34]与面元“SF1234”相关联,并且因此与来自图像分类器565的相同像素相关联的概率值与面元“SF1234”相关联。在简单的情况下,像素对应可以是一对一的,例如,视频数据帧Ft、包括概率值570的图像、以及指示面元对应的图像全部以共用分辨率设置(例如,640×480)。在其他情况下,图像可具有已知比例的不同的分辨率;因而像素对应可以基于已知比例映射。在一种情况下,如果没有先验证据是可用的,则利用可用的对象标记上的均匀分布初始化新生成的面元。
在图5中,一旦一组对象标记概率值580被分配给认为在视频数据帧中可见的面元,则它们被发送至贝斯更新引擎585。例如,面元到像素映射器575可以被配置为输出一组面元概率对,从图像分类器565识别给定面元(例如,“SF1234”)和对应的概率值。贝斯更新引擎585被配置为检索现有的对象标记概率值SPt-1,以用于在数据580中识别的面元,并且使用数据580中的新的概率值更新这些现有值。例如,贝斯更新引擎585可以被配置为利用对应的概率分布借助于递归的贝斯更新从面元表示530更新可见组中的所有面元。贝斯更新可包括:
其中,Ls是用于面元s的对象标记,li是该组可能的对象标记中的给定的对象标记,Ou(s,t)是来自图像分类器的概率值,F识别视频数据帧,并且Z是产生正常分布的归一化常数。这个更新可应用于每个面元的所有标记概率。
在简单的实现方式中,贝斯更新引擎585可以进行如下配置。针对表示投射的面元标识符的图像中的每个像素,首先检索用于对应面元的前一组概率(SPt-1)。然后加载来自图像分类器565的对应预测570。如果图像分类器565将不同大小输出至投射的面元图像,则就高度和宽度而言像素位置可以重新映射至0和1之间的归一化实际值,其中,乘以分类器输出大小的值的最低数值可用于选择适当组的概率。针对每个类别(例如,对象名称),为该类别存储的概率乘以该类别的新的预测概率,并且整个组的类别上的这些相乘值的总数被累积。在更新了所有类别之后,总数(即,累积的概率)可用于归一化每个概率(例如,通过除以总数)。
在某些情况下,贝斯更新引擎585可以使用至少一个图形处理单元(GPU)实现。在这些情况下,可以使处理并行化。在这种情况下,可以应用排序方案用于在数据580中具有多个对应像素的面元。
由于通过面元到像素映射器575计算面元对应,因此通过贝斯更新引擎585应用的更新是可行的。这使来自多个视频数据帧的对象标记假定能够以贝斯的方式结合。在某些情况下,更新图像分类器565的概率值和/或应用可以延迟预定数量的帧,以便留出使系统适当地初始化并且在面元表示530内生成面元的适当集合。贝斯更新引擎585的输出是面元概率值SPt的更新集合,该概率值表示给定面元应该分配最接近帧Ft(即,最新证据)之后的一组可用的对象标记中的一个的概率。
在一个实现方式中,该组更新的面元概率值SPt可以用于更新面元表示530。在某些实现方式中,如图5所示,正则化器590可以应用于更新的面元概率值SPt,以便在更新面元表示530之前,生成一组正则化的面元概率值RSPt。在某些情况下,正则化可以用于传播面元表示内的空间的语义信息。然而,可以不必在所有情况下要求如此。正则化器590可以基于面元位置、面元颜色和面元法线中的一个或多个应用正则化。
在一个实现方式中,正则化器590可以将条件随机场(CRF)应用于对象标记概率值SPt。在一种情况下,充分连接的CRF可以应用高斯边缘位势。在这种情况下,每个面元可以当作CRF图中的节点。不是使用CRF得出每个面元的最终预测,它可以简单地用于从贝斯更新引擎585逐渐地改进预测。
图5中示出的示例性管线500被配置为逐帧地实时操作(例如,640×480分辨率的帧)。因而,因为接收新的视频数据(例如,用于每一帧或每n个帧),因此更新对象标记和面元表示以提供全局一致的且语义标记的表示。SLAM系统、基于面元的表示和语义增强协同工作,允许在环路闭合期间利用面元“携带”概率分布,并且还融合新的深度阅读以更新用于给定面元的深度和法线信息,而不破坏面元,或者它的根本概率分布。贝斯更新方案追踪每个面元的对象标记概率分布,并且使用由SLAM系统提供的对应,以便基于图像分类器预测更新这些概率。因为管线以帧速率实时操作,因此在人类和机器人应用程序的交互中使用它。此外,管线特别适于处理可变的场景观察;实际上,在测试中,惊人地看到这些观察形式以增加对象检测的精确性。
图6示出了根据实例的用于检测视频数据中的对象的方法600。可以使用参考图2、图4和图5描述的实例200、400和500实现该方法600。
在框605中,使用二维图像分类器确定用于视频数据帧的空间元素的对象标记概率值。例如,二维图像分类器可以是如上所述的CNN,该CNN被配置为接收视频数据帧作为2D图像并且输出用于2D图像的至少一个区域的概率值。在这种情况下,概率值涉及多个可用的对象或类别标记,例如,表示用于对象数据定义的单词和/或标识符的字串标记。在一种情况下,可以输出用于输入2D图像的每个像素的概率值并且这个输出可以构造为一个或多个图像,其中,在某些情况下,每个图像包括特定的对象标记的概率分布。这些输出图像可以称为“像素映射”。这可以是其中二维图像分类器包括通信耦接至CNN的输出的反卷积神经网络的情况。二维图像分类器可以被配置为至少基于帧的颜色数据和深度数据计算对象标记概率值。
在框610中,识别空间的3D面元表示或模型中的对应于空间元件的面元。在这种情况下,空间元素和面元之间的对应是基于面元表示的投影使用帧的估计位姿来确定,例如,面元模型从帧的当前估计的位姿的视点投射到2D平面上。如参考图4和图5所描述的,可以逐帧地通过处理视频数据帧生成面元表示,包括:将使用3D面元表示生成的渲染帧与来自视频数据的帧的视频数据帧进行比较以确定用于视频数据帧的拍摄装置的位姿并且使用来自视频数据帧的位姿和图像数据更新3D面元表示。在一种情况下,用于生成三维表面元素表示的视频数据的帧的子集被输入至二维图像分类器。
在图6中的框615中,基于用于对应的空间元素的对象标记概率值更新3D面元表示中的面元的对象标记概率值。这产生存在于视频数据中的对象的语义标记的3D面元表示。例如,可以通过采用每个面元的对象标记概率值的集合中的最高的概率值(例如,使用最大似然方法)生成表示存在于视频数据中的对象的估计。
因为(例如,从直播视频馈送或记录)接收新的视频数据,因此框605、610和615例如逐帧地反复重复。因而,持续更新对象标记概率值。因此可以开始对象标记概率分布的初始化统一值,然后集中于场景的地面实况。此外,该方法能够适合于空间或场景的结构变化,例如,对象到达或离开场景或者与场景交互。
返回至图6,在框605、610和615的重复期间,即,在视频数据的处理期间,该方法可以进一步包括检测环路闭合事件。当从新接收的视频数据生成的面元被确定为与对应于三维空间的相同区域的面元未对准时,出现环路闭合事件,该面元基于先前处理的视频数据先前生成和/或修改。例如,当拍摄装置完成运动环路时,例如,返回以查看之前观察到的空间区域,面元表示的先前部分可能与面元表示的较新部分不对准。由于表示的生成使用了估计并试图使误差函数最小化,所以发生面元表示中的这种不对准或“漂移”,例如,非确定性地操作,使得可以在生成模型时累积位姿估计和表示中的小误差。另外,不需要位姿图而构造面元表示,其中,一般持续优化位姿图以减少误差。随后参考图7描述用于检测和实施环路闭合事件的示例性管线。在一种情况下,例如针对每个帧,进行连续尝试,以便将当前估计的拍摄装置(即,有效模型)内的面元表示的有效部分与相同帧内的面元表示的无效部分配准。
如果检测到环路闭合事件并且例如基于所需的对准度量或变形水平对准是可行的,则空间变形可应用于面元表示,其中,空间变形修改表示中的面元的三维位置。在某些情况下,这个空间变形进行将面元表示的较新的有效部分与较旧的无效部分对准,其中,整个3D面元表示可以是可非刚性地变形为适当的位置以反射该配准。通过包含许多小的局部模型到模型环路闭合以及更大规模的全局环路闭合,可以保持接近面元表示的概率分布的模式,并且实时地产生全局一致的重构,而无需使用位姿图优化或后处理步骤。使用频繁的非刚性模型变形,例如,逐帧地改进了拍摄装置的轨迹估计和表面重构质量。这种方法在长范围的“走廊式”相机运动和更多的一圈圈综合的空间扫描轨迹上也是有效的。
当面元变形时,在框605、610和615的后续重复中使用新变形的面元表示。在所有其他参数保持不变的情况下,这具有修改分类的视频帧和面元的空间元素之间的对应的效果。例如,如果拍摄装置保持静态并且观看场景的区域,使得在表示这个观看的环路闭合事件像素将与面元表示中的面元的第一集合相关联之前,但是在环路闭合事件相同像素将与面元的第二个不同的集合相关联之后,位姿保持不变。因为每个面元具有对象标记概率值的分配的集合,这意味着输出那些像素的图像分类器将用于在环路闭合事件之后更新对象标记概率值的不同的集合。环路闭合事件进行“快照”先前一起偏移开的面元,使得在实际的观察空间中的模型面元和表面之间存在一致关系。在本方法中,环路闭合事件还一起进行“快照”用于那些面元的对象标记概率,例如,使得与“椅子”有关的像素分类一致用于更新具有形成椅子的一部分的表面的面元。这导致精确的分类。令人惊讶地,然而对象分类的比较方法在有环路闭合事件参与的情况下退化(因为资源密集的启发式需要处理疏远的概率值的不同集合),本方法实际改善精确性,因为“不断改变方向的”或“一圈圈的”视频序列包括其分类在面元模型内一致合并的对象的多个视图。例如,围绕诸如床或桌子等对象行走将导致视频数据从多个角度具有对象的视图。由于计算机视觉的非确定性本质,利用相对的点云方法,这利用关联的对象标记概率值产生多个单独的3D点。然后存在如何将这些点利用语义标记结合到全局一致的模型中的问题。利用本方法,变形、面元和重复的基于帧的更新导致表示来自一致应用于相同面元的不同视图的对象和概率的有限的面元。
在某些情况下,该方法可包括基于分配给面元的对象标记概率值利用3D对象定义替换一个或多个面元的集合的另一个框。例如,如果彼此的预定距离内的一组面元具有70%以上的“桌子”对象标记概率,这些面元可以利用桌子的3D表示替换,该桌子的尺寸通过将预定义的对象形状适合于面元的位置设置。
在某些情况下,在框615之后,该方法可包括正则化用于表面元素的对象标记概率值。这可以涉及应用如上所述的CRF和/或基于位置数据、颜色数据和法线数据中的一个或多个正则化分配给面元的对象标记概率值。
在一种情况下,可以通过注释面元表示,例如先前通过SLAM系统产生的一个面元表示生成用于图像分类器的图像的训练集。在这种情况下,现有表示中的面元可以利用对象标记注释以提供带注释的表示。然后可以针对先前用于生成表示的视频数据的每个帧进行表示的投影,其中,该投影将带注释的标记投射在2D图像上,使得每个像素具有对象标记。然后可以使用2D图像训练图像分类器。
现在将参考图7描述关于示例性环路闭合方法的更多详情。
图7示出了可以提供除了图5中示出的那些之外的部件的实例700。在图7中,配准引擎710(其可以具有与先前描述的配准引擎560相同的功能)通信地耦合至数据存储装置720。数据存储装置720随着时间存储面元模型(例如,530)的编码730(“ε”)。这些编码730可以表示它们生成的有效模型帧AMFt的编码;例如,可包括深度数据和测光数据/>的编码。在一种情况下,该编码可以是有效模型帧的压缩的和/或下采样的版本。在某些情况下,可以使用来自视频数据的当前帧,来填充没有任何映射表面的有效模型帧中的预测视图的部分。在某些情况下,该编码可包括有效模型帧的蕨(fern)编码。在B.Glocker、J.Shotton、A.Criminisi以及S.Izadi,TVCG于2014年9月的论文Realtime RGB-D camerarelocalization via randomized ferns for keyframe encoding中描述了蕨编码。蕨将RGB-D图像编码成由一组固定像素位置中的每个RGB-D通道上的二进制测试的值组成的代码串。本实例与论文的不同之处在于存储与图像数据相反的预测视图。每个编码可包括与以下项中的一个或多个相关联的数据:蕨编码串;深度数据的下采样的预测帧;测光数据的下采样的预测帧;当前位姿估计;以及编码的初始化时间。可以使用下采样帧大小,例如,80×60。
在图7的实例中,配准引擎710接收有效模型帧AMFt。然后尝试将有效模型帧AMFt与数据存储装置720中的一个编码730进行匹配。例如,可以从所接收的有效模型帧AMFt中生成新的编码并且将其与存储在数据存储装置720中的编码730进行比较,例如,可以使用蕨编码来执行匹配。匹配可以通过比较功能的输出来指示,例如,错误或匹配成像度量可以指示比较的帧或编码之间的相似度。例如,可以在蕨编码之间进行比较。在这种情况下,蕨编码可包括二进制码,其中,两个图像可以通过对两个二进制码之间的“距离”求和来进行比较。最小距离被认为是“最佳”匹配,其中,距离可以与阈值进行比较,以确定匹配是否“好”。有效模型帧AMFt可以下采样,以执行匹配,例如,可以对采样帧进行蕨编码。在这种情况下,可以使用指示最佳匹配的度量值(例如,指示差异或误差的成像度量的最低值)来指示匹配的存储编码εj。存储的编码以及具有用于匹配的数据的编码(例如,蕨编码)还可以包括模型帧的编码,例如,和/>在一种情况下,用于最佳匹配的成像度量值可以进一步与预定义的阈值进行比较,以确定匹配是否有效。例如,甚至“最佳”匹配可能是不良的实际匹配,例如,具有高匹配误差;阈值比较从而避免了使用这些不良匹配。配准引擎710可以使用下采样,就好像找到了相对“粗略”的匹配并且是正确的,后续的有效和无效模型帧将足够接近,以使得能够进行如图5中所执行的对准,例如,将在“全局”环路闭合之后足够对准,使得可以实现更精确的“本地”环路闭合。
在一种情况下,如果找不到匹配,例如,如果匹配的成像度量高于给定的误差阈值,则执行有效模型帧AMFt和无效模型帧的配准,例如,如图5所示。另一方面,如果找到“最佳”匹配,例如,如果匹配的成像度量也低于给定的误差阈值,则从数据存储装置720中检索匹配编码εj,并且由配准引擎710访问。配准引擎710然后被配置为指示与关于图5描述的对准操作相似的对准操作;然而,在当前情况下,在有效模型帧AMFt和匹配编码εi之间执行对准。例如,有效模型帧的部件例如和/>可以与匹配编码εj的部件例如/>和/>对准。在一种情况下,可以评估对准度量并将其与阈值进行比较,以确定是否要执行对准,例如,需要与预定义的阈值相比较低的未对准的低水平以继续该对准。如果不执行对准,则配准引擎710可以尝试执行如参考图5所描述的有效和无效模型帧的对准。如果要执行对准,则配准引擎710可以被布置为指示模型变形器740使现有的三维模型750变形,例如,确定用于将有效模型帧的部件与匹配编码的部件对准的三维变形。在某些情况下,在可以被认为是“全局环路闭合”的这种对准之后,3D面元模型的有效和无效部分不更新。这可能是因为对准使得有效部分和无效部分进入更大的对准,使得可以执行图5所示的配准(例如,使得可以对下一个帧成功执行“本地环路闭合”)。不更新这些部分也使得可能在随后的配准操作中校正或恢复不准确的对准。在该对准之后,还可以通过将转换应用于与编码(例如,/>)相关联的位姿估计来更新(例如,以/>的形式)当前的位姿估计Pt。
在本实例中,模型变形器740被布置为访问现有3D面元模型750并且使用变形图760来变形该模型,以生成对准的3D面元模型770。变形图760包括与在模型750中分布的面元相关联的一组节点和矢线。在一种情况下,每个节点可包括:时间戳;与面元相关联的三维中的位置;转换定义;以及一组邻居。每个节点的邻居,即,相邻的面元组成可以引导的图的矢线。以这种方式,当执行模型的变形时,变形图连接3D面元模型的彼此影响的部分。邻居的数量可能例如在一个实现方式中限于四个邻居。转换定义可以包括仿射(affine)转换的定义,例如,如由3×3矩阵(初始化为单位矩阵)和3×1矢量(初始化为0)或者由双四元组表示的。当执行变形时,可以根据一组表面约束来优化每个节点的转换定义。当应用变形时,识别图中用于3D面元模型的特定面元的一组影响节点。基于此,面元的位置可基于经转换的影响节点的加权和(例如,根据那些节点的位置与当前位置元素相距的距离,应用于每个影响节点的转换定义的加权和)来变形。可以以这种方式变形面元的位置和法线。例如,变形图中的节点可以基于其初始化时间与面元相关联。这些节点的列表然后可以通过这个时间戳排序。当指示面元的变形时,可以通过节点的这个列表执行二分查找,以便填充一组时间邻近的节点(在此该节点与其他面元相关联)。从这个组中,基于距离度量为面元确定一组k个最近的节点。这些节点然后用来使面元变形。这个过程很快并且有助于实现实时或接近实时的性能。
在一个实例中,可以逐帧地构建变形图。在一个特定情况下,可以针对图像数据的每个帧(即,Ft)构建用于三维模型的新变形图。这可包括确定变形图的连通性,例如,每个图节点的一组邻居。在一种情况下,使用3D面元模型750初始化变形图。因为从面元表示构建变形并且用于修改相同的表示,这可被称为“映射中的”或“模型中的”环路闭合。例如,可以从面元的位置(例如,图3B中的p)确定帧的节点位置并且节点时间戳可被设为面元时间戳(例如,图3A的“Init_Time”)。在一种情况下,可以基于面元的采样(诸如,系统采样)生成变形图的节点。这种采样可以均匀地分布在整个群体上,使得变形图的空间密度反应3D面元模型的空间密度。这组采样节点可以基于节点时间戳来排序。在此之后,可以使用时间信息来确定变形图的连通性。在一种情况下,可以选择在时间上相邻的节点组,例如,基于节点时间戳。例如,如果具有四个邻居并且正在考虑给定的节点,则可以选择具有前两个时间戳(在时间排序的列表中)的节点以及具有随后的两个时间戳(在列表中)的节点作为给定节点的邻居。这具有在计算上有效并且防止3D面元模型的时间未校正的区域相互影响(例如,防止有效区域影响无效区域)的优点。例如,在空间上考虑时,与共用三维空间的多次通过相关联的变形图可能是复杂的并且在其自身内部缠绕;然而,排序并且考虑图在时间上允许多次通过不相交并自由对准。这可以与基于位姿时间确定图形连通性的比较方法形成对比,例如,在使用位姿图的情况下。
现在将更详细地描述可由模型变形器740应用以使用变形图760来变形现有三维模型750以生成变形模型770的示例性过程。模型变形器740通过访问给定面元定义开始。作为第一操作,模型变形器740定位变形图760的节点,例如,在时间上离给定面元最近的另一个面元。时间分离被存储为变量。接下来,模型变形器740在时间上定位邻近的节点,例如,远离预定义数量的节点的时间分离而移动,以探索。这些附近的节点然后可以由距离度量来排序,诸如,参考给定面元的位置的欧几里得距离。然后,可以选择给定数量的“邻居”节点(例如,使用以上讨论的邻居限制)作为最接近的k个节点。然后可以基于节点和给定面元之间的归一化距离来生成这些邻居中的每一个的一组权重。还可以确定权重的总和。然后作为最后的操作,可以应用邻居的转换定义,如通过每个邻居的单独计算的权重来加权并且通过权重的总和来归一化。这可以包括应用以上参考给定面元讨论的仿射转换的变量,以使面元的位置和法线量变形。给定面元的其他方面保持相同(例如,可以复制到变形模型770)。然后这个使概率值能够从旧的面元复制到新的变形面元,而无需繁重的处理。这再次能够实时实现。
在一个实例中,使用模型变形器740来执行通过配准引擎560或710的方式执行的对准。在这个实例中,这是通过优化变形图760的参数来实现的。给定基于配准引擎560或710的输出设置的一组表面对应,优化可以反映在面元表示中的表面配准。这些表面对应可以指示第一时间的特定的源位置将到达或与第二时间的特定的目的地位置一致。每个单独的表面对应可以是绝对的(使变形位置与三维空间中的绝对位置相关)或相对的(使变形位置与不同变形位置相关)。当对准有效帧和无效帧(例如,如参考图5所描述的)时,源点可以表示有效模型帧中的点,并且目的地点可以表示无效模型帧中的点,其用于对准模型的有效和无效部分。例如,第一时间可包括用于生成给定的无效模型帧的无效面元的初始化时间;第二时间可以是当前帧时间;如基于当前位姿估计Pt观看到的,源点可以是用于生成有效模型帧(例如,用于计算)的采样的面元;并且如基于三维中的当前位姿估计Pt加上所定义的转换H观看到的,目的地点可以是用于生成有效模型帧(例如,用于计算/>)的采样的面元。在这种情况下,当正在应用所定义的转换(H)时,目的地点等于无效模型帧中的点,计算所述转换(H),以将模型的有效部分映射到无效部分,例如,该转换至少是由图5中的配准引擎560执行的对准的一部分。这些表面对应可以用于应用“本地环路闭合”。类似地,当使有效帧与所存储的表示对准时(例如,如参考图7所描述的):第一时间可包括用于所存储的表示的初始化时间;第二时间可以是当前帧时间;如基于当前位姿估计Pt观看到的,源点可以是用于生成有效模型帧(例如,用于计算/>)的采样的面元;并且如基于三维中的用于编码的位姿估计加上所定义的转换H观看到的,目的地点可以是用于生成有效模型帧(例如,用于计算/>)的采样的面元。再次,当所定义的转换被应用于有效模型部分时,目的地点表示有效模型和无效模型的对准。这些表面对应可以用于应用“全局环路闭合”。表面对应可以针对一组采样的像素来计算,例如,针对使用的帧。在这些情况下,对准或配准可以包括针对这组表面对应解析在三维中所定义的转换。
在以上实例中,可以在一个或多个成本函数中使用表面对应来优化变形图的参数。例如,一个成本函数可包括等于变形的源点(例如,当应用变形图时)与目的地点之间的距离误差的总和的误差函数,源点和目的地点是在表面对应中使用的点。如本文中所描述的面元表示的时间参数化允许三维空间的相同部分的多次通过非刚性地变形为对准,从而允许建模继续并且新的数据融合到3D面元表示的重新访问的区域中。另一成本函数也可用于将面元表示的无效部分“固定”到位,即,将模型的有效部分变形成无效部分。该成本函数可包括等于变形的源点(例如,当应用变形图时)与未变形的目的地点之间的距离误差的总和的误差函数,该目的地点是在表面对应中使用的点。还可以使用另一成本函数来将面元表示的先前配准的区域保持在原位,即,当使映射的不同区域变形时,先前配准的区域的相对位置可能需要被约束,以保持相同。该成本函数可包括等于变形的源点(例如,当应用变形图时)与变形的目的地点之间的距离误差的总和的误差函数。该成本函数防止环路闭合及其相关的变形拉开面元表示的先前配准的区域。误差函数还可以被定义为最大化变形图的所定义的转换中的刚度(例如,通过最小化在乘以其转置的转换与单位矩阵之间的距离度量),并确保平滑变形(例如,基于包含邻居转换的距离度量)。这些所描述的误差函数中的一个或多个可以被最小化(例如,在加权和中),以确定变形图的转换定义。例如,可以使用迭代的高斯-牛顿方法以及稀疏的Cholesky因子分解,来在处理单元上求解方程组。如果在实现方式中可用的话,则图形处理单元可用于将变形图应用于面元表示。这可以在图形处理单元上并行执行。在某些情况下,可以使用一个或多个成本函数来生成度量,以确定是否应该执行对准。例如,如果一个或多个成本函数输出低于预定阈值的误差值(例如,比较变形源点和目的地点的成本函数),则接受对准;如果误差值高于预定阈值,则拒绝对准(适当地分配相等情况)。
如上所述,可以使用基于预测的表面状况的位置识别操作解析“全局环路闭合”。这使得能够在不使用位姿图的情况下(例如,在不使用用于将拍摄装置相对于图像数据的关键帧的位姿建模的单独图形结构的情况下),来生成全局一致的密集的面元表示或模型。因此,包含这些部件的设备能够执行实时或接近实时的密集的同时定位和映射,操作实际上是同时的,而不是作为两个单独的操作来执行。在某些测试情况下,发现本地环路配准比全局环路配准更频繁地执行(例如,以10或20-1的比率)。在某些情况下,可能不会执行全局环路配准(例如,可能不需要或可能找不到匹配)。本地和全局环路配准的应用可能取决于正在处理的视频数据,例如,可能取决于使用拍摄装置的观察的轨迹。在某些测试情况下:帧的数量大约为103;面元的数量大约为106;并且变形节点的数量和存储的表示的数量大约为102。根据当前在三维模型中的位置元素的数量,用于这些测试情况的帧处理在20到40毫秒之间。这大约为30Hz或者没有语义标记的面元表示的生成的帧每秒的处理速度。在这些测试情况下,测试平台采用了具有32GB内存的3.4GHz的Core i7-4930K处理器以及具有3GB内存的/>GTX 780Ti图形处理单元。
图8示出了可以与图6的方法600同时运行的更新3D面元表示的方法800。在框805中,从拍摄装置接收深度和颜色帧。在框810中,生成基于3D面元表示的有效部分的预测帧。这可包括处理面元定义并且仅使用在特定时间窗内具有最后修改的时间戳的面元,例如,相对于当前时间。这可以进一步包括在时间t-1使用拍摄装置的位姿估计,例如,其中,被分类为“有效”的面元投射到指示拍摄装置在时间t-1可观看的区域的位置和方位的平面上。在框815中,执行帧到模型跟踪。这可包括通过比较从框805和810接收到的数据来确定当前时间的位姿估计。在框820中,可以使用当前时间的确定的位姿估计来更新预测的深度和颜色帧,例如,将被分类为“有效”的面元投影(或“飞溅”)到指示当前位姿估计所指示的在时间t时由拍摄装置可查看的区域的位置和方位的2D平面上。
在825中,确定更新的预测的深度和颜色帧是否匹配任何存储的编码。这可包括参考图7描述的比较。如果发现与特定的存储表示匹配,则在框830中,确定更新的预测的深度和颜色帧以及与特定存储的编码对应的数据的配准是不是可能的。这可包括应用参考图7中的模型变形器740描述的变形。如果一个或多个成本函数的输出指示使用变形图的变形导致高于给定阈值的误差,考虑到在一个或多个更新的预测帧中的约束点与所存储的编码的表面对应,则所述确定可以是否定的;否则,确定可以是肯定的。如果框830中的确定是否定的,例如,认为在存储的表示和更新的预测帧之间不存在可能的配准,则该方法移动至框835,其中,生成深度和颜色数据的无效模型帧。如果框835中的确定是肯定的,例如,认为在存储的编码和更新的预测帧之间存在可能的配准,则在框840中,3D面元表示被变形。这可包括应用优化的变形图,其中,优化被前述表面对应约束,并且其中,该优化使一个或多个误差函数最小化,以确定由变形图的节点应用的转换定义。
在框835中,生成深度和颜色数据的无效模型帧。在框845中,确定框820中的更新的预测帧是否可以与在框835中生成的无效模型帧配准。框845基于表示从与当前位姿估计相关联的两个部分中的每个生成的预测视图的数据,有效地确定有效模型部分与无效模型部分的配准是否可能。框845中的确定可以基于使用框815中作为帧到模型跟踪的一部分应用的技术对这两组预测视图的比较,例如,通过确定几何图形的和/或测光误差。在一种情况下,除了其他度量,可以使用包括几何图形的和/或测光误差的加权误差函数的输出,以在框845中进行确定,例如,如果误差低于给定阈值,则认为可以进行配准。也可以评估误差函数的协方差度量的特征值,例如,与阈值进行比较,以进行确定。框845还可包括确定一转换,该转换将预测的帧映射到彼此,例如,用类似的方式确定用于估计位姿的转换。该转换可以用于类似于在框830中进行的确定,即,可以形成用于限制优化的表面对应的一部分,其中,可以有助于用于确定有效和无效部分的配准是否可能的度量。
如果在框845中存在肯定的确定,则在框840中执行面元表示的有效和无效部分的变形。这可包括应用作为框845的评估的一部分而确定的转换。再次,框840可包括确定一组变形参数,例如,作为优化的结果,其中,参数可以形成变形图的一部分。框840可包括应用使用图的参数以使面元变形。框840的输出可以将所有可见的无效面元,例如,在无效模型帧中可见的那些面元,设置为有效。
最后,在框850中,在框805中接收到的深度和颜色帧与从框840得到的任何变形的面元表示融合。如果框845中的确定是否定的,则可以不执行变形,并且图像数据可以与未变形的表示融合。
在框850之后,可以为视频数据的后续帧重复该方法,例如,返回到框805,其中,接收深度和颜色数据的下一帧。然后可以在框810中使用在框850中输出的融合的面元表示,来生成修正的有效模型深度和颜色帧,例如,以便跟踪下一帧。在框810的重复之后,可存储编码,以供稍后在框825的匹配中使用。
上述某些方法将面元表示的有效区域与表示的无效区域强对准,以实现紧密的本地环路闭合。这可以关于面元表示的表面。在表示的有效部分偏离无效部分太远以使局部对准收敛的情况下,可以使用基于外观的全局环路闭合方法来引导使表示的有效部分与下面的无效部分重新对准的变形,用于紧密的全局环路闭合和表示一致性,例如,参照模拟的表面。
现在将参考图9A至图9C描述表明可以如何更新面元表示的简化的样例900。
图9A示出了包括放置在地板915上的圆柱体对象905的场景910的示图。图中的场景910表示“地面实况”,即,场景的实际内容。图中还示出的是3D面元表示920。实际上,3D面元表示920可以实现为参考图3A和图3B描述的列表;然而,为了便于说明,图中示出了面元在3D模型空间内的范围(尽管附图是2D,但是假设920是3D模型的视图)。在3D面元表示920中,存在四个面元:S1至S4。如可以理解的,为了便于说明,已经大大简化了,一般的面元表示可包括一百万个左右面元。面元表示920表示SLAM系统运行给定的持续时间之后(或者可替换地,在加载了现有表示之后)的模型状态,因为可以看出面元S1近似对应于垂直的地板平面并且S2至S4近似模拟圆柱体对象的不同表面。图中还示出了面元S1至S4的法线量。
图9A另外示出了两个示例性对象标记概率分布902。在这个简单的情况下,存在假设两个对象标记可以通过图像分类器分配:“地板”和“圆柱体”。在这种情况下,对象标记概率分布包括两个图像930和940。如从附图中可以看出,每个图像具有指示具有对象标记的对象存在于像素中的概率的像素值。例如,第一图像930具有一组像素935,该像素具有指示图像分类器指示“圆柱体”对象看起来存在于那些像素中的像素值(例如,根据值比例,在0.5和1或者128和255之间)。例如,第二图像940具有一组像素945,该像素具有指示图像分类器指示“地板”对象看起来存在于那些像素中的像素值(例如,根据值比例,在0.5和1或者128和255之间)。尽管在附图中示出为二值图像,实际上这种图像一般可看作灰度图像。
在图9A中,还示出了用于帧的示例性对应数据904。在这种情况下,对应数据904还以对应图像950的形式,该对应图像具有与图像930和940相同的分辨率。对应图像950具有基于当前相机位置将3D面元投射到2D图像平面上的特征。在图9A中,相机位姿涉及如方框910中示出的场景的视图,即,其中,圆柱体对象在房间的左上角中。对应图像950包括具有四个值中的一个的像素:[1、2、3、4]识别四个面元S1至S4中的一个,其中,第一组像素p-S1具有表示面元S1的对应的值1,第二组像素p-S2具有表示面元S2的对应的值2,第三组像素p-S3具有表示面元S3的对应的值3,并且第四组像素p-S4具有表示面元S4的对应的值4。在其他情况下,以与图像分类器数据相似的方式,对应图像950可包括四个二值图像。对应值用于基于图像930和940中的概率值更新与每个面元相关联的概率值906。在图9A中,示出了该组面元的四个数据定义:d-S1至d-S4,其中,每个面元的每个数据定义具有两个类别的对象标记概率值(“PF”指示标记“地板”的概率并且“PC”指示标记“圆柱体”的概率)。如果PF和PC利用均匀分布(即,每个值0.5)初始化,然后更新操作包括将初始值乘以用于与给定面元相关联的像素的类别相关联的所有概率值。例如,面元2的PC值0.5可以乘以覆盖图像930中的区域p-S2的像素的所有概率值(加上正常化)。在某些并行化处理管线中,如果面元具有多个对应的像素,则可以使用这些对应像素的子集更新面元的概率。例如,为了更快速地操作,可以使用图像950中给定的面元标识符的第一出现(例如,按行优先次序)更新优先于相同的面元标识符的其他出现的面元概率。概率更新还可以包括应用于面元状态的正常化过程。图9A示出了一个更新之后的面元的数据定义。
图9B示出了与图9A相同的元素,但是此时从不同的角度(即,不同的相机位姿)观看该场景。这可反映视频数据的第二(即,后续的)帧的操作。如方框910所示,现在相对于图9A的后面观看圆柱体对象。尽管面元表示920保持相同(如在3D中定义的),但是这个然后从图像分类器和不同组的投影的像素产生不同的数据902。在图9B中,在图像930和940中体现的对象标记概率值再次用于基于对应数据904更新面元数据定义中的现有概率。
图9C示出了在图9B中示出的视图变化之后,回到图9A中示出的相似的视图。在该实例中,如在面元表示920中可以看出的,这个返回至相似的视图触发使面元S4变形的环路闭合事件。这可以涉及视频数据的第三(即,另一个后续的)帧。在这种情况下,尽管更精确的模型具有与圆柱体对象905的表面有关的面元S2至S4的事实,但是虚假数据或优化偏移可能最初意味着面元S4从面元S2和S3偏移。可以在图9C中看出,因为从与图9A相似的角度观看场景,因此来自图9C中的图像分类器的数据902与图9A中示出的相似。然而,因为面元S4已经变形,因此图9C中的对应数据904现在与图9A中提供的不同。这意味着来自数据902的相似的概率值现在导致不同的面元数据定义更新:具体地,因为投影的像素p-S4在对应数据904中上移,因此现在主要通过像素值935加权以及较少通过像素值945加权面元S4的概率值。然后这导致面元S1的更精确的分类,因为像素945中更多的概率值用于更新(之前这些值中的一些应用于面元S4而不是S1,因为像素p-S4覆盖图9A中的950中的p-S1)。由于这个区域与修正的p-S4重叠,还导致面元S4的更精确的分类,因为它现在受到像素值935的影响。图9C中的更新的数据定义908中示出的面元对象标记概率值现在比图9A和图9B中的前面的定义更加精确。在更新的数据定义908的情况下,如果对象模型替换的阈值被设置为70%以上,则面元S1将由“地板”对象模型替换并且面元S2、S3和S4将由“圆柱体”对象替换(如基于面元尺寸制定的比例)。
图10A和图10B示出了从以上描述的方法和设备输出的示例性测试。图10A示出了通过将SLAM系统应用于NYU深度数据集V2(如参考上述)创建的卧室的面元表示1010。图10B然后还示出了相同场景的语义标记的面元表示1020。在这种情况下,选择面元的对象标记作为具有用于该面元的最高的概率值的对象标记。不同的标记具有不同的阴影。在图10B中指示标记“窗户”、“墙壁”、“家具”、“床”和“地板”及其对应的阴影。应注意,已经基于输入视频数据自动完全生成表示1010和1020-不存在物品的手动标记。
图10B示出了来自NYU深度数据集V2的其他场景。每行涉及不同的场景。图像1050的第一列示出了视频数据的输入帧。第二列1060示出了“地面实况”,即,类别标记的人类注释。第三列1070示出了在单个帧的分类之后分配的对象标记。第四列1080示出了使用本文中描述的方法和设备的实现的示例性输出。可以从比较区域1075和1085看出,本方法和设备提供更接近“地面实况”的更加一致和精确的输出。
图10A和图10B表明了使用SLAM系统提供帧之间的像素间的对应,允许每个帧2D的融合分割为连贯的3D语义映射。此外,实时生成该连贯的3D语义映射,能够环路闭合的方法适用于交互式的房间扫描并且结果示出了对应的2D分割精确性中的明显改善。这个然后为低速存储器和电源移动装置(例如,智能电话或家用机器人装置)上的实时语义分割提供机会。在生成的测试组上,使用除了NYU深度数据集V2外的所描述的方法和设备看到标记精确度的大改善,这一般具有较少变化的轨迹。这个表明视频数据中存在视点变化时的本方法的精确度优势。这对实地的自主代理具有特定的优势,其中,使用明显更长且更多的变化轨迹。本文中描述的某些实例适用于实时交互使用,例如,人类或机器人利用标记质量的实时测量(即,与面元相关联的对象标记概率)决定如何移动拍摄装置获得全部标记的覆盖范围并且接近模糊点。此外,对象标记可以反馈到任何SLAM系统以改善3D表示的精确度。例如,环路闭合操作可使用对象对应以提供对准和/或对象-或者特定类别的顺畅。
在某些情况下,利用来自数据库的完整且几何图形精确的模型替换已经识别为特定对象的面元的组合可能具有几个益处。例如,对象替换可改善映射表示的精密度(例如,允许台式计算机键盘上的精确键的表示)。还可以利用先前的语义含义的场景正则化以前的嘈杂深度估计(例如,允许表示中的完全平坦的墙壁或地板)。此外,还可以填充在具有可能存在的合理的近似值的视频数据中尚未观察到的映射区域(例如,如果利用单个圆柱体替换面元,则可以表示看不见的杯子的其他侧面)。具有对象替换的映射表示还可以具有减少存储需求的其他益处,因为与成千上万个单独的面元相比,需要很少参数来描述单个对象实例。
如在本文中参考图2、图4、图5和图7所描述的功能部件的实例可包括专用的处理电子设备和/或可以通过至少一个计算装置的处理器执行的计算机程序代码实现。在某些情况下,可以使用一个或多个嵌入的计算装置。这可包括与存储器关联操作的至少一个处理器,以执行加载到计算机可读介质上的计算机程序代码。该介质可包括诸如可擦除可编程只读存储器等固态存储器,并且计算机程序代码可以包括固件。在其他情况下,这些部件可包括适当配置的片上系统、专用集成电路和/或一个或多个适当编程的现场可编程门阵列。在一种情况下,这些部件可以通过移动计算装置和/或台式计算装置中的计算机程序代码和/或专用处理电子设备来实现。在一种情况下,这些部件可以通过执行计算机程序代码的一个或多个图形处理单元来实现,以及或者替代先前的情况。在某些情况下,这些部件可以通过并行实现的一个或多个功能来实现,例如,在图形处理单元的多个处理器和/或内核上。
在本文中描述的某些情况下,面元表示(例如,270、570、530)是3D空间的“密集”模型。在这种情况下,存在大量形成模型的面元,例如,数十万甚至数百万的元素。这可以与基于特征的或“稀疏”的模型进行比较,其中,可能只有数十或数百个定义的模型点。类似地,面元表示可以被认为是“密集的”,因为视频数据帧内的像素值被处理并且有助于模拟和标记三维空间。例如,在“密集”表示中,帧中的每个像素可以为跟踪、映射和标记过程贡献尽可能多的信息。这使面元3D模型能够投影回到合成的拍摄装置或相机中以重建“密集的”图像,即,以拍摄装置的分辨率的图像,其中,该合成的图像中的大多数像素具有基于存储有模型的信息合成的数据。相反,“稀疏”系统,例如,利用关键点或提取的特征的系统,仅使用图像数据中的像素值的小子集来生成模型。在“稀疏”情况下,由于模型内没有足够的信息,因此无法以拍摄装置分辨率创建合成图像。以这种方式,“密集”系统用来高精度地估计三维空间内的一个或多个表面,例如,在一个真实环境的给定容限内。
在某些情况下,以上描述的设备、系统或方法可以利用自动机器人装置实现。在这种情况下,可以通过该装置使用语义标记的表示以导航三维空间。例如,机器人装置可包括拍摄装置、面元模型生成器、被配置为存储3D面元模型的数据存储装置、语义增强器、导航引擎和一个或多个移动致动器。在这种情况下,机器人装置可以被配置为拍摄视频数据,因为机器人装置导航特定环境。当这发生时,机器人装置可以被布置为如本文中描述的语义标记的面元模型并且将其存储在数据存储装置中。导航引擎然后可以被配置为访问面元模型以在该环境内导航机器人装置。在一种情况下,机器人装置可以被设置为执行一个或多个功能。例如,机器人装置可以被设置为执行映射功能,定位特定的人和/或对象(例如,在紧急情况下),运输对象,执行清洁或维护等。为了执行一个或多个功能,机器人装置可包括另外的部件,例如,另外的传感装置、真空系统和/或致动器,以与环境互动。然后可以基于对象标记或对象标记概率应用这些功能。例如,家用机器人可以被配置为将一组功能应用于具有“地毯地板”标记的空间的部分以及将另一组功能应用于具有“亚麻地板”标记的空间的部分。类似的,导航引擎可以被配置为使用标记为“门”的空间的区域作为出口和/或入口点。在一个实例中,家用机器人可以使用对象分类或概率,例如,如在上述实例中计算的,以便预测房间类型或位置。例如,如果在空间中检测到指示“沙发”和“咖啡桌”的标记的面元的群集,则该空间可以分类为房间类型为“客厅”的房间。类似地,如果面元具有指示“床”的存在的标记,则房间可分类为“卧室”类型,或者标记为“烤箱”的面元可以是被分类为“厨房”的房间。房间预测可以是面元概率和/或替换的对象定义的功能。使用面元概率使房间预测能够是概率函数,例如,基于检测到的对象概率分配的对应概率的房间类别。
上述实例应被理解为说明性的。设想了更多实例。应当理解,关于任何一个实例描述的任何特征可以单独地或者与所描述的其他特征组合使用,并且也可以与任何其他实例的一个或多个特征或者任何其他实例的任何组合来组合使用。此外,在不背离发明的范围的情况下,还可以采用上面未描述的等同物及修改,所附权利要求中限定了发明的范围。
Claims (34)
1.一种用于检测视频数据中的对象的方法,包括:
使用二维图像分类器确定视频数据的帧的空间元素的对象标记概率值,其中,每个空间元素表示二维平面中的一个二维区域,并且所述每个空间元素的所述对象标记概率值指示相应的空间元素是观察的特定的对象的概率;识别在对应于所述空间元素的所述视频数据的帧中观察到的空间的三维表面元素表示中的表面元素,其中,每个表面元素表示三维空间中的一个二维表面,并且所述空间元素和所述表面元素之间的对应性是使用估计的帧的位姿基于所述表面元素表示的投影来确定的;并且
基于对应的空间元素的所述对象标记概率值来更新所述表面元素的对象标记概率值以便提供存在于所述视频数据中的对象的语义标记的三维表面元素表示,其中,所述每个表面元素的所述对象标记概率值指示相应的表面元素表示特定的对象的概率。
2.根据权利要求1所述的方法,其中,在处理所述视频数据期间,所述方法包括:
检测环路闭合事件并且将空间变形应用于所述表面元素表示,所述空间变形修改所述表面元素表示中的表面元素的三维位置,
其中,所述空间变形修改所述表面元素表示的所述空间元素和所述表面元素之间的所述对应性,使得在所述空间变形之后,使用先前对应于第二表面元素的空间元素的对象标记概率值来更新第一表面元素的对象标记概率值。
3.根据权利要求1或权利要求2所述的方法,包括:
在没有位姿图的情况下处理所述视频数据的帧以生成所述三维表面元素表示,所述方法包括在逐帧的基础上:
将使用所述三维表面元素表示生成的渲染帧与来自所述视频数据的帧的一个视频数据帧进行比较,以确定用于所述视频数据帧的拍摄装置的位姿;并且
使用来自所述视频数据帧的所述位姿和图像数据来更新所述三维表面元素表示。
4.根据权利要求3所述的方法,其中:
用于生成所述三维表面元素表示的所述视频数据的帧的子集被输入至所述二维图像分类器。
5.根据权利要求1或权利要求2所述的方法,其中,所述视频数据的帧包括颜色数据、深度数据和法线数据中的至少一个;并且
其中,所述二维图像分类器被配置为基于用于帧的所述颜色数据、所述深度数据和所述法线数据中的至少一个来计算所述对象标记概率值。
6.根据权利要求1或权利要求2所述的方法,其中,所述二维图像分类器包括卷积神经网络。
7.根据权利要求6所述的方法,其中,所述卷积神经网络被配置为输出所述对象标记概率值作为用于所述视频数据的每个帧的像素映射的集合,所述集合中的每个所述像素映射对应于可用的对象标记的集合中的不同的对象标记。
8.根据权利要求6所述的方法,其中,所述二维图像分类器包括通信地耦接至所述卷积神经网络的输出端的反卷积神经网络。
9.根据权利要求1或权利要求2所述的方法,在更新所述表面元素的所述对象标记概率值之后,所述方法包括:
将所述表面元素的所述对象标记概率值正则化。
10.根据权利要求9所述的方法,其中,所述正则化包括:
将条件随机场应用于所述表面元素表示中的表面元素的所述对象标记概率值。
11.根据权利要求9所述的方法,其中,将所述对象标记概率值正则化包括:
基于以下中的一个或多个来将分配给所述表面元素的所述对象标记概率值正则化:表面元素位置、表面元素颜色和表面元素法线。
12.根据权利要求1或权利要求2所述的方法,包括:
利用基于分配给所述表面元素的所述对象标记概率值的三维对象定义来替换一个或多个表面元素的集合。
13.根据权利要求1或权利要求2所述的方法,包括:
注释具有对象标记的一个空间的三维表面元素表示的表面元素以提供带注释的表示;
基于所述带注释的表示的投影从所述带注释的表示生成带注释的视频数据的帧,所述投影使用估计的每个带注释的帧的位姿,所述每个带注释的帧包括具有分配的对象标记的空间元素;并且
使用所述带注释的视频数据的帧来训练所述二维图像分类器。
14.根据权利要求1或权利要求2所述的方法,包括:
获得对应于所述对象的第一部分的观察的视频数据的第一帧;
使用所述二维图像分类器生成用于所述视频数据的第一帧的图像映射,所述图像映射指示在所述第一帧的区域中存在所述对象的第一部分;并且
确定表面元素没有投射在所述第一帧中的区域上并且因此没有更新所述区域中的基于图像映射值的所述表面元素的对象标记概率值;
其中,在检测到环路闭合事件之后,所述方法包括:
修改所述表面元素的三维位置;
获得对应于所述对象的第一部分的重复观察的视频数据的第二帧;
使用所述二维图像分类器生成用于所述视频数据的第二帧的图像映射,所述图像映射指示在所述第二帧的区域中存在所述对象的第一部分;
在所述环路闭合事件之后确定所修改的表面元素没有投射在所述第二帧的区域上;并且
基于用于所述视频数据的第二帧的所述图像映射来更新所述表面元素的对象标记概率值,
其中,所述表面元素的所述对象标记概率值包括来自多个视点的用于所述表面元素的融合的对象预测。
15.一种用于检测视频数据中的对象的设备,包括:
图像分类器界面,接收用于视频数据的单个帧的空间元素的二维对象标记概率分布,其中,每个空间元素表示二维平面中的一个二维区域,并且所述每个空间元素的所述对象标记概率分布包括对象标记概率值的集合,其中,每个所述对象标记概率分布指示相应的空间元素是观察的相应的不同对象的概率;
对应界面,针对视频数据的给定帧接收指示所述给定帧内的空间元素和三维表面元素表示中的表面元素之间的对应性的数据,所述对应性是使用估计的所述给定帧的位姿基于所述表面元素表示的投影来确定的,其中,每个表面元素表示三维空间中的二维平面;以及
语义增强器,反复更新分配给所述三维表面元素表示中的单个表面元素的对象标记概率值,
其中,所述语义增强器被配置为针对所述视频数据的给定帧,使用通过所述对应界面接收的所述数据来将由所述图像分类器界面接收的所述二维对象标记概率分布应用于分配给对应的表面元素的对象标记概率值的集合,其中,所述每个表面元素的所述对象标记概率的集合指示相应的表面元素表示相应的不同对象的概率。
16.根据权利要求15所述的设备,其中:
所述对应界面被配置为在所述表面元素表示的空间变形之后提供更新的对应性,所述空间变形实施所述视频数据内的环路闭合,并且
所述语义增强器利用所更新的对应性使用先前对应于第二表面元素的空间元素的对象标记概率值来更新第一表面元素的对象标记概率值。
17.根据权利要求15或权利要求16所述的设备,其中,所述图像分类器界面被配置为针对视频数据的给定帧来接收对应于相应多个对象标记的多个图像映射,每个所述图像映射具有指示相关联的对象标记的概率值的像素值。
18.根据权利要求15或权利要求16所述的设备,包括:
正则化器,将分配给所述表面元素表示的所述表面元素的所述对象标记概率值正则化。
19.根据权利要求18所述的设备,其中,所述正则化器被配置为将条件随机场应用于所述表面元素表示中的表面元素的所述对象标记概率值。
20.根据权利要求18所述的设备,其中,所述正则化器被配置为基于以下中的一个或多个将分配给所述表面元素的对象标记概率值正则化:表面元素位置、表面元素颜色和表面元素法线。
21.根据权利要求15或权利要求16所述的设备,其中,所述语义增强器被配置为基于分配给所述表面元素的所述对象标记概率值利用三维对象定义替换一个或多个所述表面元素的集合。
22.根据权利要求15或权利要求16所述的设备,其中,所述表面元素表示中的每个所述表面元素至少包括定义所述表面元素在三维中的位置的数据以及定义所述表面元素在三维中的法线向量的数据。
23.一种用于检测存在于视频数据中的对象的视频处理系统,包括:
根据权利要求15或权利要求16所述的设备;
视频获取界面,从拍摄装置获得视频数据的帧,所述视频数据的帧是由于所述拍摄装置和三维空间之间随着时间的相对移动;以及
同步定位和映射SLAM系统,通信地耦接至所述设备的对应性界面以基于所获得的视频数据的帧生成所述三维空间的表面元素表示,
其中,所述SLAM系统被配置为将空间变形应用于所述表面元素表示以关闭所述视频数据的帧内的观察环路,所述空间变形导致所述表面元素表示中的至少一个修改的表面元素的一个新的三维位置。
24.根据权利要求23所述的视频处理系统,其中,所述SLAM系统包括:
分割器,被配置为基于至少一个表示属性将所述三维表面元素表示至少分割成有效部分和无效部分,
其中,所述SLAM系统被配置为基于来自所述表面元素表示的所述有效部分的投影来计算有效渲染帧以便随着时间更新所述表示;以及
配准引擎,被配置为将所述三维表面元素表示的有效部分与所述三维表面元素表示的无效部分随着时间对准,所述配准引擎被配置为:
基于来自所述三维表面元素表示的所述无效部分的投影来计算无效渲染帧;
确定使所述有效渲染帧与所述无效渲染帧对准的空间变形;并且
通过应用所述空间变形来更新所述三维表面元素表示。
25.根据权利要求24所述的视频处理系统,其中,所述SLAM系统包括:
帧到模型跟踪部件,被配置为将所述有效渲染帧与从所述视频数据提供的帧进行比较,以确定所述三维表面元素表示的所述有效部分与所述视频数据的对准。
26.根据权利要求24所述的视频处理系统,其中,所述配准引擎被配置为使用变形图使所述三维表面元素表示的有效部分与所述三维表面元素表示的无效部分对准,所述变形图是基于用于表面元素的初始化时间来计算的,所述变形图指示在对准期间用于修改所述给定的表面元素的给定的表面元素的表面-元素邻居的集合。
27.根据权利要求23所述的视频处理系统,包括:
二维图像分类器,通信地耦接至所述图像分类器界面以计算用于从所述视频获取界面获得的所述视频数据的帧的对象标记概率分布。
28.根据权利要求27所述的视频处理系统,其中,所述二维图像分类器包括卷积神经网络。
29.根据权利要求28所述的视频处理系统,其中,所述卷积神经网络被配置为将所述对象标记概率值输出为用于每个视频数据的帧的像素映射的集合。
30.根据权利要求28所述的视频处理系统,其中,所述二维图像分类器包括通信地耦接至所述卷积神经网络的输出端的反卷积神经网络。
31.一种机器人装置,包括:
至少一个拍摄装置,提供包括深度数据和颜色数据中的一个或多个的视频数据的帧,所述深度数据指示多个图像元素距所述拍摄装置的距离;
根据权利要求15或权利要求16所述的设备或者根据权利要求23所述的视频处理系统;
一个或多个运动致动器,利用所述三维空间移动所述机器人装置;以及
导航引擎,控制所述一个或多个运动致动器,
其中,所述导航引擎被配置为访问分配给所述三维表面元素表示中的单个表面元素的对象标记概率值以在所述三维空间内导航所述机器人装置。
32.根据权利要求31所述的机器人装置,其中,所述导航引擎被配置为基于分配给所述三维表面元素表示中的表面元素的所述对象标记概率值来识别房间的入口点和出口点。
33.一种移动计算装置,包括:
至少一个拍摄装置,被设置为记录包括深度数据和颜色数据中的一个或多个的视频数据的帧,所述深度数据指示多个图像元素距所述拍摄装置的距离,以及
根据权利要求15或权利要求16所述的设备或者根据权利要求23所述的视频处理系统。
34.一种包括计算机可执行指令的非易失性计算机可读存储介质,当由处理器执行时,所述指令使得计算装置执行根据权利要求1或权利要求2所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1611033.0 | 2016-06-24 | ||
GB1611033.0A GB2554633B (en) | 2016-06-24 | 2016-06-24 | Detecting objects in video data |
PCT/GB2017/051679 WO2017220966A1 (en) | 2016-06-24 | 2017-06-09 | Detecting objects in video data |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109643368A CN109643368A (zh) | 2019-04-16 |
CN109643368B true CN109643368B (zh) | 2023-09-22 |
Family
ID=56891621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780051781.9A Active CN109643368B (zh) | 2016-06-24 | 2017-06-09 | 检测视频数据中的对象 |
Country Status (11)
Country | Link |
---|---|
US (1) | US10915731B2 (zh) |
EP (1) | EP3475875A1 (zh) |
JP (1) | JP7009399B2 (zh) |
KR (1) | KR20190038808A (zh) |
CN (1) | CN109643368B (zh) |
AU (1) | AU2017281822A1 (zh) |
BR (1) | BR112018076556A2 (zh) |
GB (1) | GB2554633B (zh) |
RU (1) | RU2019101759A (zh) |
SG (1) | SG11201811330WA (zh) |
WO (1) | WO2017220966A1 (zh) |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10078908B2 (en) * | 2016-08-12 | 2018-09-18 | Elite Robotics | Determination of relative positions |
US11017269B2 (en) * | 2016-09-30 | 2021-05-25 | General Electric Company | System and method for optimization of deep learning architecture |
EP3537867B1 (en) * | 2016-11-08 | 2023-08-02 | Dogtooth Technologies Limited | A robotic fruit picking system |
US10048753B1 (en) * | 2017-04-20 | 2018-08-14 | Robert C. Brooks | Perspective or gaze based visual identification and location system |
US11158036B2 (en) * | 2017-08-31 | 2021-10-26 | Sony Group Corporation | Methods, devices, and computer program products for checking environment acceptability for 3D scanning |
US10872228B1 (en) * | 2017-09-27 | 2020-12-22 | Apple Inc. | Three-dimensional object detection |
LU100465B1 (en) * | 2017-10-05 | 2019-04-09 | Applications Mobiles Overview Inc | System and method for object recognition |
US10970553B2 (en) * | 2017-11-15 | 2021-04-06 | Uatc, Llc | Semantic segmentation of three-dimensional data |
US10572775B2 (en) * | 2017-12-05 | 2020-02-25 | X Development Llc | Learning and applying empirical knowledge of environments by robots |
JP7047849B2 (ja) * | 2017-12-14 | 2022-04-05 | 日本電気株式会社 | 識別装置、識別方法、および識別プログラム |
US11430069B1 (en) | 2018-01-15 | 2022-08-30 | Corelogic Solutions, Llc | Damage prediction system using artificial intelligence |
CN118890482A (zh) * | 2018-01-19 | 2024-11-01 | 交互数字Vc控股公司 | 处理点云的方法、程序产品、计算机可读介质和装置 |
WO2019162241A1 (en) * | 2018-02-21 | 2019-08-29 | Robert Bosch Gmbh | Real-time object detection using depth sensors |
US10671835B2 (en) * | 2018-03-05 | 2020-06-02 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Object recognition |
US10410354B1 (en) | 2018-03-06 | 2019-09-10 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation |
US11062469B2 (en) | 2018-03-09 | 2021-07-13 | Microsoft Technology Licensing, Llc | 4D tracking utilizing depth data from multiple 3D cameras |
US10762662B2 (en) * | 2018-03-14 | 2020-09-01 | Tata Consultancy Services Limited | Context based position estimation of target of interest in videos |
WO2019185170A1 (en) * | 2018-03-30 | 2019-10-03 | Toyota Motor Europe | Electronic device, robotic system and method for localizing a robotic system |
US10812711B2 (en) * | 2018-05-18 | 2020-10-20 | Samsung Electronics Co., Ltd. | Semantic mapping for low-power augmented reality using dynamic vision sensor |
US11475551B2 (en) | 2018-08-08 | 2022-10-18 | Abyssal S.A. | System and method of operation for remotely operated vehicles for automatic detection of structure integrity threats |
US11455740B2 (en) | 2018-08-08 | 2022-09-27 | Abyssal S.A. | System and method of operation for remotely operated vehicles for simultaneous localization and mapping |
AU2018435825B2 (en) | 2018-08-08 | 2024-10-31 | Ocean Infinity (Portugal), S.A. | System and method of operation for remotely operated vehicles leveraging synthetic data to train machine learning models |
BR112021001795A2 (pt) | 2018-08-08 | 2021-04-27 | Abyssal S.A | sistema e método de operação para veículos operados remotamente com estimativa de posição melhorada |
US11113823B2 (en) * | 2018-10-01 | 2021-09-07 | Seiko Epson Corporation | Three-dimensional detection and tracking pipline recommendation using performance prediction |
US10983217B2 (en) * | 2018-11-30 | 2021-04-20 | Huawei Technologes Co. Ltd. | Method and system for semantic label generation using sparse 3D data |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
US10832392B2 (en) * | 2018-12-19 | 2020-11-10 | Siemens Healthcare Gmbh | Method, learning apparatus, and medical imaging apparatus for registration of images |
CN109711365A (zh) * | 2018-12-29 | 2019-05-03 | 佛山科学技术学院 | 一种融合语义信息的视觉slam回环检测方法及装置 |
EP3680812A1 (en) * | 2019-01-11 | 2020-07-15 | Aptiv Technologies Limited | Method for classifying an image taken by a sensor |
US10990950B2 (en) * | 2019-02-25 | 2021-04-27 | Walmart Apollo, Llc | Systems and methods of product recognition through multi-model image processing |
US10891744B1 (en) * | 2019-03-13 | 2021-01-12 | Argo AI, LLC | Determining the kinetic state of a body using LiDAR point cloud registration with importance sampling |
US11315328B2 (en) | 2019-03-18 | 2022-04-26 | Facebook Technologies, Llc | Systems and methods of rendering real world objects using depth information |
CN109919989B (zh) * | 2019-03-27 | 2023-11-14 | 广东工业大学 | 一种雷达电力巡检的点云数据配准方法、装置及设备 |
US11288857B2 (en) * | 2019-04-04 | 2022-03-29 | Google Llc | Neural rerendering from 3D models |
US11176374B2 (en) * | 2019-05-01 | 2021-11-16 | Microsoft Technology Licensing, Llc | Deriving information from images |
US11875252B2 (en) | 2019-05-17 | 2024-01-16 | Robert Bosch Gmbh | Neural network including a neural network projection layer configured for a summing parameter |
US11610142B2 (en) | 2019-05-28 | 2023-03-21 | Ati Technologies Ulc | Safety monitor for image misclassification |
CN112015938B (zh) * | 2019-05-28 | 2024-06-14 | 杭州海康威视数字技术股份有限公司 | 点云标签传递方法、装置及系统 |
US11210199B2 (en) | 2019-05-31 | 2021-12-28 | Ati Technologies Ulc | Safety monitor for invalid image transform |
JP6618162B1 (ja) * | 2019-06-06 | 2019-12-11 | クリスタルメソッド株式会社 | 評価装置、及び評価システム |
CN110428394B (zh) * | 2019-06-14 | 2022-04-26 | 北京迈格威科技有限公司 | 用于目标移动侦测的方法、装置及计算机存储介质 |
CN110110727B (zh) * | 2019-06-18 | 2023-04-18 | 南京景三医疗科技有限公司 | 基于条件随机场和贝叶斯后处理的图像分割方法 |
AU2020302909A1 (en) * | 2019-06-28 | 2022-02-17 | Digital Diagnostics Inc. | Monitoring surface cleaning of medical surfaces using video streaming |
US12067085B2 (en) * | 2019-08-14 | 2024-08-20 | Abb Schweiz Ag | Method and apparatus for determining lock type |
KR20210029586A (ko) * | 2019-09-06 | 2021-03-16 | 엘지전자 주식회사 | 이미지 내의 특징적 객체에 기반하여 슬램을 수행하는 방법 및 이를 구현하는 로봇과 클라우드 서버 |
US20220319176A1 (en) * | 2019-09-29 | 2022-10-06 | Zackdang Company | Method and device for recognizing object in image by means of machine learning |
US11455531B2 (en) * | 2019-10-15 | 2022-09-27 | Siemens Aktiengesellschaft | Trustworthy predictions using deep neural networks based on adversarial calibration |
CN110781262B (zh) * | 2019-10-21 | 2023-06-02 | 中国科学院计算技术研究所 | 基于视觉slam的语义地图的构建方法 |
US11222238B2 (en) * | 2019-11-14 | 2022-01-11 | Nec Corporation | Object detection with training from multiple datasets |
US20210150799A1 (en) * | 2019-11-15 | 2021-05-20 | Waymo Llc | Generating Environmental Data |
US11407431B2 (en) | 2019-11-22 | 2022-08-09 | Samsung Electronics Co., Ltd. | System and method for object trajectory prediction in an autonomous scenario |
CN111222543B (zh) * | 2019-12-19 | 2024-03-22 | 津海威视技术(天津)有限公司 | 物质识别方法和设备及计算机可读存储介质 |
CN111192299A (zh) * | 2019-12-20 | 2020-05-22 | 中冶天工集团有限公司 | 一种基于综合管廊视频监控系统的人员轨迹定位方法 |
CN111428551B (zh) * | 2019-12-30 | 2023-06-16 | 杭州海康威视数字技术股份有限公司 | 密度检测方法、密度检测模型训练方法和装置 |
SG10201913754XA (en) * | 2019-12-30 | 2020-12-30 | Sensetime Int Pte Ltd | Image processing method and apparatus, electronic device, and storage medium |
CN111260774B (zh) * | 2020-01-20 | 2023-06-23 | 北京百度网讯科技有限公司 | 生成3d关节点回归模型的方法和装置 |
CN111310643B (zh) * | 2020-02-12 | 2023-08-29 | 北京师范大学 | 一种基于点云数据的车辆计数方法、装置及电子设备 |
KR102297103B1 (ko) * | 2020-02-19 | 2021-09-03 | 한국과학기술원 | 3차원 장면 그래프 생성 방법 및 장치 |
US11443141B2 (en) | 2020-02-27 | 2022-09-13 | International Business Machines Corporation | Using video tracking technology to create machine learning datasets for tasks |
EP4115395A4 (en) | 2020-03-06 | 2024-02-14 | Yembo, Inc. | IDENTIFYING FLOOD DAMAGE TO AN INDOOR ENVIRONMENT USING VIRTUAL REPRESENTATION |
US11574443B2 (en) * | 2020-03-30 | 2023-02-07 | Tetavi Ltd. | Techniques for improving mesh accuracy using labeled inputs |
US20210329306A1 (en) * | 2020-04-15 | 2021-10-21 | Nvidia Corporation | Video compression using neural networks |
CN111582447B (zh) * | 2020-04-30 | 2023-04-07 | 电子科技大学 | 基于多种网络特征的闭环检测方法 |
US11709917B2 (en) * | 2020-05-05 | 2023-07-25 | Nanjing University | Point-set kernel clustering |
US11275970B2 (en) * | 2020-05-08 | 2022-03-15 | Xailient | Systems and methods for distributed data analytics |
WO2021234623A1 (en) * | 2020-05-22 | 2021-11-25 | Cron Systems Pvt. Ltd. | System and method for transposition of a detected object and its tracking to a different device |
US11436812B2 (en) * | 2020-05-29 | 2022-09-06 | Open Space Labs, Inc. | Machine learning based object identification using scaled diagram and three-dimensional model |
US11676392B2 (en) * | 2020-06-03 | 2023-06-13 | Waymo Llc | Localization using surfel data |
US11541903B2 (en) * | 2020-06-03 | 2023-01-03 | Waymo Llc | Autonomous driving with surfel maps |
US11222232B1 (en) * | 2020-06-19 | 2022-01-11 | Nvidia Corporation | Using temporal filters for automated real-time classification |
CN113963281A (zh) * | 2020-07-01 | 2022-01-21 | 中兴通讯股份有限公司 | 一种视频结构化算法的测试方法及装置 |
US20220063662A1 (en) * | 2020-08-26 | 2022-03-03 | Waymo Llc | Autonomous driving with surfel maps |
CN112131958B (zh) * | 2020-08-28 | 2022-05-20 | 成都信息工程大学 | 一种自动识别西南低涡的方法 |
CN111985578A (zh) * | 2020-09-02 | 2020-11-24 | 深圳壹账通智能科技有限公司 | 多源数据融合方法、装置、计算机设备及存储介质 |
US11417110B2 (en) * | 2020-09-09 | 2022-08-16 | Waymo Llc | Annotated surfel maps |
US11561552B2 (en) * | 2020-09-15 | 2023-01-24 | Waymo Llc | Detecting environment changes using surfel data |
US11699274B2 (en) | 2020-10-06 | 2023-07-11 | Waymo Llc | Long range localization with surfel maps |
KR102399460B1 (ko) * | 2020-10-15 | 2022-05-17 | 건국대학교 산학협력단 | 의미론적 분할 기반의 3차원 포인트 클라우드 분류 장치 및 방법 |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
US11145076B1 (en) * | 2020-10-27 | 2021-10-12 | R-Go Robotics Ltd | Incorporation of semantic information in simultaneous localization and mapping |
CN112312113B (zh) * | 2020-10-29 | 2022-07-15 | 贝壳技术有限公司 | 用于生成三维模型的方法、装置和系统 |
US11734880B2 (en) * | 2020-12-31 | 2023-08-22 | Waymo Llc | Sensor calibration with environment map |
CN112699263B (zh) * | 2021-01-08 | 2023-05-23 | 郑州科技学院 | 基于ai的二维美术图像动态展示方法及装置 |
CN114782655A (zh) * | 2021-01-22 | 2022-07-22 | 韩国科学技术研究院 | 基于独立的特征数据的实体追踪方法及装置 |
KR102489927B1 (ko) * | 2021-01-22 | 2023-01-18 | 한국과학기술연구원 | 증강현실 엔진에 독립적인 피처 데이터 기반의 엔터티 추적 방법 및 장치 |
CN112785643A (zh) * | 2021-02-02 | 2021-05-11 | 武汉科技大学 | 一种基于机器人平台的室内墙角二维语义地图构建方法 |
CN113094551B (zh) * | 2021-02-19 | 2023-09-19 | 深圳市麦谷科技有限公司 | 行车记录仪视频的检索方法、装置、服务端及检索系统 |
US12106528B2 (en) * | 2021-03-01 | 2024-10-01 | Waymo Llc | Generating scene flow labels for point clouds using object labels |
CN113313742A (zh) * | 2021-05-06 | 2021-08-27 | Oppo广东移动通信有限公司 | 图像深度估计方法、装置、电子设备及计算机存储介质 |
US11640698B2 (en) | 2021-05-27 | 2023-05-02 | International Business Machines Corporation | Mapping physical locations to fit virtualized AR and VR environments |
CN113593053A (zh) * | 2021-07-12 | 2021-11-02 | 北京市商汤科技开发有限公司 | 视频帧修正方法及相关产品 |
CN114280566B (zh) * | 2021-11-30 | 2023-05-23 | 电子科技大学 | 一种类标签关联一维距离像识别方法 |
KR102709388B1 (ko) | 2021-12-30 | 2024-09-24 | 주식회사 버넥트 | 맵 타겟 생성을 위한 사용자 인터페이스 제공 방법 및 그 시스템 |
WO2023132817A1 (en) * | 2022-01-04 | 2023-07-13 | Hewlett-Packard Development Company, L.P. | Temperature profile deformation predictions |
CN115965673B (zh) * | 2022-11-23 | 2023-09-12 | 中国建筑一局(集团)有限公司 | 基于双目视觉的集中式多机器人定位方法 |
CN116071694B (zh) * | 2023-03-07 | 2023-06-23 | 浙江华是科技股份有限公司 | 船舶检测方法、装置及计算机可读存储介质 |
GB2628671A (en) * | 2023-03-31 | 2024-10-02 | Bertrand Lucas | Method, system and device for analysing placement of digital assets in a user interface |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101622652A (zh) * | 2007-02-08 | 2010-01-06 | 行为识别系统公司 | 行为识别系统 |
CN101763636A (zh) * | 2009-09-23 | 2010-06-30 | 中国科学院自动化研究所 | 视频序列中的三维人脸位置和姿态跟踪的方法 |
CN101896936A (zh) * | 2007-10-09 | 2010-11-24 | 皮尔茨公司 | 用于对象模型与三维点云相匹配的方法 |
CN102216957A (zh) * | 2008-10-09 | 2011-10-12 | 埃西斯创新有限公司 | 图像中对象的视觉跟踪以及图像分割 |
WO2012150147A1 (de) * | 2011-05-04 | 2012-11-08 | Eberhard Karls Universität Tübingen | Verfahren zur bestimmung der relativen lage eines objekts im raum sowie optisches eingabesystem |
CN102804206A (zh) * | 2009-05-04 | 2012-11-28 | 奥布隆工业有限公司 | 包括数据表示、操作和交换的基于姿势的控制系统 |
CN102955572A (zh) * | 2011-08-17 | 2013-03-06 | 纬创资通股份有限公司 | 计算机键盘及其控制方法 |
CN105701857A (zh) * | 2014-12-10 | 2016-06-22 | 达索系统公司 | 3d建模的对象的纹理化 |
CN112602116A (zh) * | 2018-08-13 | 2021-04-02 | 帝国理工学院创新有限公司 | 使用视频数据映射对象实例 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7609860B2 (en) * | 2005-06-14 | 2009-10-27 | Mitsubishi Electric Research Laboratories, Inc. | Bilinear illumination model for robust face recognition |
CN101930284B (zh) | 2009-06-23 | 2014-04-09 | 腾讯科技(深圳)有限公司 | 一种实现视频和虚拟网络场景交互的方法、装置和系统 |
US8786625B2 (en) | 2010-09-30 | 2014-07-22 | Apple Inc. | System and method for processing image data using an image signal processor having back-end processing logic |
US8494285B2 (en) * | 2010-12-09 | 2013-07-23 | The Hong Kong University Of Science And Technology | Joint semantic segmentation of images and scan data |
US8879828B2 (en) * | 2011-06-29 | 2014-11-04 | Matterport, Inc. | Capturing and aligning multiple 3-dimensional scenes |
US10033979B2 (en) * | 2012-03-23 | 2018-07-24 | Avigilon Fortress Corporation | Video surveillance systems, devices and methods with improved 3D human pose and shape modeling |
US9939529B2 (en) * | 2012-08-27 | 2018-04-10 | Aktiebolaget Electrolux | Robot positioning system |
US9542626B2 (en) * | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
US20150332464A1 (en) * | 2014-05-19 | 2015-11-19 | Occipital, Inc. | Methods for automatic registration of 3d image data |
GB2538751A (en) | 2015-05-27 | 2016-11-30 | Imp College Of Science Tech And Medicine | Modelling a three-dimensional space |
-
2016
- 2016-06-24 GB GB1611033.0A patent/GB2554633B/en active Active
-
2017
- 2017-06-09 SG SG11201811330WA patent/SG11201811330WA/en unknown
- 2017-06-09 AU AU2017281822A patent/AU2017281822A1/en not_active Abandoned
- 2017-06-09 EP EP17740064.5A patent/EP3475875A1/en not_active Withdrawn
- 2017-06-09 KR KR1020197002338A patent/KR20190038808A/ko active IP Right Grant
- 2017-06-09 CN CN201780051781.9A patent/CN109643368B/zh active Active
- 2017-06-09 BR BR112018076556-2A patent/BR112018076556A2/pt not_active Application Discontinuation
- 2017-06-09 JP JP2018567057A patent/JP7009399B2/ja active Active
- 2017-06-09 WO PCT/GB2017/051679 patent/WO2017220966A1/en active Search and Examination
- 2017-06-09 RU RU2019101759A patent/RU2019101759A/ru not_active Application Discontinuation
-
2018
- 2018-12-20 US US16/228,517 patent/US10915731B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101622652A (zh) * | 2007-02-08 | 2010-01-06 | 行为识别系统公司 | 行为识别系统 |
CN101896936A (zh) * | 2007-10-09 | 2010-11-24 | 皮尔茨公司 | 用于对象模型与三维点云相匹配的方法 |
JP2010541112A (ja) * | 2007-10-09 | 2010-12-24 | ピルツ ゲーエムベーハー アンド コー.カーゲー | オブジェクトモデルを三次元ポイントクラウドに対応させる方法 |
CN102216957A (zh) * | 2008-10-09 | 2011-10-12 | 埃西斯创新有限公司 | 图像中对象的视觉跟踪以及图像分割 |
CN102804206A (zh) * | 2009-05-04 | 2012-11-28 | 奥布隆工业有限公司 | 包括数据表示、操作和交换的基于姿势的控制系统 |
CN101763636A (zh) * | 2009-09-23 | 2010-06-30 | 中国科学院自动化研究所 | 视频序列中的三维人脸位置和姿态跟踪的方法 |
WO2012150147A1 (de) * | 2011-05-04 | 2012-11-08 | Eberhard Karls Universität Tübingen | Verfahren zur bestimmung der relativen lage eines objekts im raum sowie optisches eingabesystem |
CN102955572A (zh) * | 2011-08-17 | 2013-03-06 | 纬创资通股份有限公司 | 计算机键盘及其控制方法 |
CN105701857A (zh) * | 2014-12-10 | 2016-06-22 | 达索系统公司 | 3d建模的对象的纹理化 |
CN112602116A (zh) * | 2018-08-13 | 2021-04-02 | 帝国理工学院创新有限公司 | 使用视频数据映射对象实例 |
Non-Patent Citations (8)
Title |
---|
CVPR2021 二维、三维语义、视频、实例分割相关文章列表;杨先生;《https://zhuanlan.zhihu.com/p/380726365》;20210615;第1页 * |
ElasticFusion: Dense SLAM Without A Pose Graph;Thomas Whelan等;《Robotics: Science and Systems》;20151231;第11卷;第1-9页 * |
ImageNet classification with deep convolutional neural networks;Alex Krizhevsky等;《Communications of the ACM》;20170524;第60卷(第6期);第84-90页 * |
Learning to Detect Mobile Objects from LiDAR Scans Without Labels;Yurong You等;《2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20220927;第1120-1130页 * |
Semantic Labeling of 3D Point Clouds for Indoor Scenes;H. Koppula等;《NIPS》;20111212;第1-9页 * |
光栅投影图像的3D表面重建;孙晓刚等;《信息与电子工程》;20030930(第3期);第19-22页 * |
基于GeoSOT-3D的空间对象快速可视化与实验分析;李志强等;《地球信息科学学报》;20150701;第17卷(第7期);第810-815页 * |
视频投影(二维视频投影到三维模型上);随遇而安;《https://zhuanlan.zhihu.com/p/427571340》;20211030;第1页 * |
Also Published As
Publication number | Publication date |
---|---|
US10915731B2 (en) | 2021-02-09 |
GB2554633A (en) | 2018-04-11 |
RU2019101759A (ru) | 2020-07-24 |
RU2019101759A3 (zh) | 2020-09-30 |
CN109643368A (zh) | 2019-04-16 |
US20190147220A1 (en) | 2019-05-16 |
GB2554633B (en) | 2020-01-22 |
SG11201811330WA (en) | 2019-01-30 |
GB201611033D0 (en) | 2016-08-10 |
KR20190038808A (ko) | 2019-04-09 |
AU2017281822A1 (en) | 2019-01-03 |
WO2017220966A1 (en) | 2017-12-28 |
JP2019520654A (ja) | 2019-07-18 |
BR112018076556A2 (pt) | 2019-04-02 |
JP7009399B2 (ja) | 2022-01-25 |
EP3475875A1 (en) | 2019-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109643368B (zh) | 检测视频数据中的对象 | |
Labbé et al. | Cosypose: Consistent multi-view multi-object 6d pose estimation | |
US12062200B2 (en) | Mapping object instances using video data | |
US10460463B2 (en) | Modelling a three-dimensional space | |
Guerry et al. | Snapnet-r: Consistent 3d multi-view semantic labeling for robotics | |
Simo-Serra et al. | Single image 3D human pose estimation from noisy observations | |
US20210382497A1 (en) | Scene representation using image processing | |
Košecka | Detecting changes in images of street scenes | |
Ugrinovic et al. | Body size and depth disambiguation in multi-person reconstruction from single images | |
Wan et al. | Boosting image-based localization via randomly geometric data augmentation | |
Rother et al. | Seeing 3D objects in a single 2D image | |
Tangkuampien et al. | Real-Time Human Pose Inference using Kernel Principal Component Pre-image Approximations. | |
Felsberg et al. | Online learning of correspondences between images | |
Judd | Unifying motion segmentation, estimation, and tracking for complex dynamic scenes | |
Vila-Chã | Localization of Mobile Robots Using Optical Flow Sensors and Sensor Fusion | |
Mancusi et al. | First Steps Towards 3D Pedestrian Detection and Tracking from Single Image | |
Weerasekera | Deeply Learned Priors for Geometric Reconstruction | |
Kumpánová | Dlouhodobá vizuální lokalizace mobilního robotu v proměnném prostředí | |
Shah et al. | ATR Using Multi-view Morphing | |
Tian | Theory and Practice of Globally Optimal Deformation Estimation | |
Odobez et al. | Motion likelihood and proposal modeling in Model-Based Stochastic Tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20201210 Address after: England Atsushi Applicant after: Imperial Institute of Technology Innovation Co.,Ltd. Address before: England Atsushi Applicant before: IMPERIAL College OF SCIENCE TECHNOLOGY AND MEDICINE |
|
GR01 | Patent grant | ||
GR01 | Patent grant |