CN110160502A - 地图要素提取方法、装置及服务器 - Google Patents
地图要素提取方法、装置及服务器 Download PDFInfo
- Publication number
- CN110160502A CN110160502A CN201811186664.6A CN201811186664A CN110160502A CN 110160502 A CN110160502 A CN 110160502A CN 201811186664 A CN201811186664 A CN 201811186664A CN 110160502 A CN110160502 A CN 110160502A
- Authority
- CN
- China
- Prior art keywords
- map
- image
- described image
- map elements
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000003709 image segmentation Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 38
- 230000004927 fusion Effects 0.000 claims description 31
- 230000009466 transformation Effects 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 230000011218 segmentation Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 17
- 238000013178 mathematical model Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 10
- 238000011282 treatment Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 abstract description 14
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
- G01C21/3822—Road feature data, e.g. slope data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种地图要素提取方法、装置及服务器,所述地图要素提取方法包括:获取目标场景的激光点云和图像,所述目标场景包括至少一要素实体对应于地图要素;进行所述激光点云与所述图像之间的配准,得到所述图像的深度图;对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像;根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维位置。采用本发明所提供的地图要素提取方法、装置及服务器解决了现有技术中高精度地图的生产效率不高的问题。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种地图要素提取方法、装置及服务器。
背景技术
高精度地图,是用于辅助驾驶、半自动驾驶或者无人驾驶的地图,由一系列地图要素构成,此地图要素包括:车道线、地面标志、路牙、栅栏、交通标志牌等要素。
通常,高精度地图的生成过程中,首先从激光点云中提取地图要素,再通过人工方式对提取得到的地图要素进行手动编辑,以生成高精度地图。可以理解,如果地图要素提取的准确性不高,将导致人工手动编辑地图要素的耗时长、工序复杂、效率低,并最终影响高精度地图的生产效率。
因此,如何提高高精度地图的生产效率仍亟待解决。
发明内容
为了解决相关技术中存在的高精度地图的生产效率不高的问题,本发明各实施例提供一种地图要素提取方法、装置及服务器。
其中,本发明所采用的技术方案为:
第一方面,一种地图要素提取方法,包括:获取目标场景的激光点云和图像,所述目标场景包括至少一要素实体对应于地图要素;进行所述激光点云与所述图像之间的配准,得到所述图像的深度图;对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像;根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维。
第二方面,一种地图要素提取装置,包括:图像获取模块,用于获取目标场景的激光点云和图像,所述目标场景包括至少一要素实体对应于地图要素;深度图构建模块,用于进行所述激光点云与所述图像之间的配准,得到所述图像的深度图;图像分割模块,用于对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像;位置转换模块,用于根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维。
第三方面,一种服务器,包括处理器及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如上所述的地图要素提取方法。
第四方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的地图要素提取方法。
在上述技术方案中,对所获取的目标场景的激光点云与图像进行配准,构建图像的深度图,以对该深度图进行图像分割,得到地图要素在深度图的分割图像,进而根据激光点云与图像之间的配准关系,将分割图像在深度图中的二维位置,转换为地图要素在目标场景中的三维位置,由于深度图反映了激光点云和图像之间的配准关系,也即是,深度图不仅描述了地图要素的色彩纹理轮廓,而且描述了地图要素的空间结构,进而使得地图要素在深度图中的图像分割更加地准确,从而保证了地图要素提取的准确性,有利于提高人工手动编辑地图要素的效率,以此解决了现有技术中存在的高精度地图生产效率不高的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1是根据本发明所涉及的实施环境的示意图。
图2是根据一示例性实施例示出的一种服务器的硬件结构框图。
图3是根据一示例性实施例示出的一种地图要素提取方法的流程图。
图4是图3对应实施例所涉及的配准前目标场景的激光点云与图像的示意图。
图5是图3对应实施例所涉及的配准后目标场景的激光点云与图像的示意图。
图6是根据一示例性实施例示出的对所述激光点云与所述图像进行配准,得到所述图像中像素点对应的深度信息步骤的流程图。
图7是图3对应实施例中步骤350在一个实施例的流程图。
图8是根据一示例性实施例示出的语义分割网络的构建过程的流程图。
图9是图7对应实施例所涉及的地图要素在深度图中的分割图像的示意图。
图10是图7对应实施例中步骤351在一个实施例的流程图。
图11是图10对应实施例所涉及的残差神经网络的结构示意图。
图12是根据一示例性实施例示出的另一种地图要素提取方法的流程图。
图13是图12对应实施例所涉及的目标场景匹配地图中显示车道线要素的示意图。
图14是图12对应实施例所涉及的目标场景匹配地图中显示地面标志要素的示意图。
图15是根据一示例性实施例示出的一种地图要素提取装置的框图。
图16是根据一示例性实施例示出的一种服务器的框图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1为一种地图要素提取方法所涉及的实施环境的示意图。该实施环境包括用户端110和服务器端130。
其中,用户端110部署于车辆、飞机、机器人中,可以是台式电脑、笔记本电脑、平板电脑、智能手机、掌上电脑、个人数字助理、导航仪、智能计算机等,在此不进行限定。
用户端110与服务器端130通过无线或者有线网络等方式预先建立网络连接,并通过此网络连接实现用户端110与服务器端130之间的数据传输。例如,传输的数据包括:目标场景的高精度地图等。
在此说明的是,服务器端130可以是一台服务器,也可以是由多台服务器构成的服务器集群,如图1所示,还可以是由多台服务器构成的云计算中心。其中,服务器是为用户提供后台服务的电子设备,例如,后台服务包括:地图要素提取服务、高精度地图生成服务等。
服务器端130在获取到目标场景的激光点云和图像之后,便可通过目标场景的激光点云和图像进行地图要素提取,以获取地图要素在目标场景中的三维位置。
在获得地图要素在目标场景中的三维位置之后,便可通过服务器端130所配置的显示屏幕,按照此三维位置在目标场景地图中显示地图要素,以在编辑人员的控制下生成目标场景的高精度地图。
当然,根据实际营运的需要,地图要素提取和地图要素编辑既可以部署于同一服务器中,也可以分别部署于不同服务器中,例如,地图要素提取部署于服务器131、132,地图要素编辑部署于服务器133、134。
然后,目标场景的高精度地图,便可作进一步存储,例如,存储至服务器端130,也可以存储至其他缓存空间,在此并未加以限定。
那么,对于使用高精度地图的用户端110而言,例如,当无人驾驶车辆欲经过目标场景时,其所承载的用户端110将相应地获得目标场景的高精度地图,以便于辅助无人驾驶车辆安全经过目标场景。
值得一提的是,关于目标场景的激光点云和图像,可以是由另外的采集设备预先采集并存储至服务器端130,也可以是在承载用户端110的车辆、飞机、机器人经过目标场景时,由用户端110实时采集并上传至服务器端130,在此并未加以限定。
图2是根据一示例性实施例示出的一种服务器的硬件结构框图。该种服务器适用于图1所示实施环境中的服务器。
需要说明的是,该种服务器只是一个适配于本发明的示例,不能认为是提供了对本发明的使用范围的任何限制。该种服务器也不能解释为需要依赖于或者必须具有图2中示出的示例性的服务器200中的一个或者多个组件。
服务器200的硬件结构可因配置或者性能的不同而产生较大的差异,如图2所示,服务器200包括:电源210、接口230、至少一存储器250、以及至少一中央处理器(CPU,Central Processing Units)270。
具体地,电源210用于为服务器200上的各组件提供工作电压。
接口230包括至少一有线或无线网络接口231、至少一串并转换接口233、至少一输入输出接口235以及至少一USB接口237等,用于与外部设备通信。例如,与图1所示出实施环境中的服务端130交互。
存储器250作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统251、应用程序253及数据255等,存储方式可以是短暂存储或者永久存储。
其中,操作系统251用于管理与控制服务器200上的各组件以及应用程序253,以实现中央处理器270对海量数据255的计算与处理,其可以是Windows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM等。
应用程序253是基于操作系统251之上完成至少一项特定工作的计算机程序,其可以包括至少一模块(图2中未示出),每个模块都可以分别包含有对服务器200的一系列计算机可读指令。例如,地图要素提取装置可视为部署于服务器200的应用程序253,以实现地图要素提取方法。
数据255可以是照片、图片,还可以是目标场景的激光点云和图像,存储于存储器250中。
中央处理器270可以包括一个或多个以上的处理器,并设置为通过通信总线与存储器250通信,以读取存储器250中存储的计算机可读指令,进而实现对存储器250中海量数据255的运算与处理。例如,通过中央处理器270读取存储器250中存储的一系列计算机可读指令的形式来完成地图要素提取方法。
显示屏幕280可以是液晶显示屏或者电子墨水显示屏等,此显示屏幕280在电子设备200与用户之间提供一个输出界面,以通过该输出界面将文字、图片或者视频任意一种形式或者组合所形成的输出内容向用户显示输出。例如,将可供编辑的地图要素显示在目标场景匹配的地图中。
输入组件290,可以是显示屏幕280上覆盖的触摸层,也可以是电子设备200外壳上设置的按键、轨迹球或者触控板,还可以是外接的键盘、鼠标、触控板等,用于接收用户输入的各种控制指令,以便于在编辑人员的控制下生成目标场景的高精度地图。例如,针对地图中地图要素的编辑指令。
此外,通过硬件电路或者硬件电路结合软件也能同样实现本发明,因此,实现本发明并不限于任何特定硬件电路、软件以及两者的组合。
请参阅图3,在一示例性实施例中,一种地图要素提取方法适用于图1所示实施环境的服务器,该服务器的结构可以如图2所示。
该种地图要素提取方法可以由服务器执行,也可以理解为由服务器中部署的地图要素提取装置执行。在下述方法实施例中,为了便于描述,以各步骤的执行主体为地图要素提取装置加以说明,但是并不对此构成限定。
该种地图要素提取方法可以包括以下步骤:
步骤310,获取目标场景的激光点云和图像。
其中,目标场景可以是可供车辆行驶的道路及其周边环境,还可以是可供机器人行进的建筑物内部,又或者是可供无人机低空飞行的航道及其周边环境,本实施例并未对此加以限定。
相应地,本实施例所提供的地图要素提取方法可根据目标场景的不同而适用于不同的应用场景,例如,道路及其周边环境适用于辅助车辆行驶场景,建筑物内部适用于辅助机器人行进场景,航道及其周边环境适用于辅助无人机低空飞行场景。
可选地,目标场景包括至少一要素实体对应于地图要素。其中,要素实体是真实存在于目标场景中的实体,而要素实体所对应的地图要素则是呈现于目标场景所匹配地图中的要素。
具体而言,地图要素及其对应的要素实体根据应用场景的不同将有所区别,例如,在辅助车辆行驶场景中,地图要素包括:车道线、地面标志、路牙、栅栏、交通标志牌等要素,相应地,要素实体,指的是车道线、地面标志、路牙、栅栏、交通标志牌等真实存在于目标场景的实体。又或者,在辅助无人机低空飞行场景中,地图要素包括:路灯、植被、建筑物、交通标志牌等要素,相应地,要素实体,则是指路灯、植被、建筑物、交通标志牌等真实存在于目标场景的实体。
如前所述,为了生成高精度地图,需要从激光点云中提取地图要素。可以理解,激光点云,是通过激光扫描目标场景中实体所生成的,实质是点阵图像,即是由对应目标场景中实体的若干采样点构成。故而,激光点云仅反映了实体在目标场景中的空间结构,而无法体现实体在目标场景中的色彩纹理轮廓,这就可能因对应要素实体的采样点缺失而使得地图要素在激光点云中的轮廓缺失,进而影响地图要素提取的准确性。
基于此,本实施例,获取目标场景的激光点云时,还将获取目标场景的图像,以此来反映实体在目标场景中的色彩纹理轮廓。
针对目标场景,激光点云和图像,可以来源于预先存储的激光点云和图像,还可以来源于实时采集的激光点云和图像,进而通过本地读取或者网络下载的方式获取。
换句话说,对于地图要素提取装置而言,可以获取实时采集的目标场景的激光点云和图像,以便于实时进行地图要素提取,还可以获取一历史时间段内采集的目标场景的激光点云和图像,以便于在处理任务较少的时候进行地图要素提取,或者,在编辑人员的指示下进行地图要素提取,本实施例并未对此作出具体限定。
应当说明的是,激光点云是由激光器发射的激光扫描生成,图像则是通过摄像设备(例如摄像机)采集,在采集过程中,激光器和摄像设备可预先部署于采集设备中,以便于采集设备针对目标场景进行激光点云和图像的采集。例如,采集设备为车辆,激光器和摄像设备作为车载组件预先部署于该车辆,当该车辆行驶经过目标场景时,便相应地采集得到该目标场景的激光点云和图像。
步骤330,进行所述激光点云与所述图像之间的配准,得到所述图像的深度图。
在获取到目标场景的激光点云和图像之后,便可根据激光点云所描述的空间结构,为图像构建深度图。
换句话说,本实施例中,深度图的构建过程,既利用了激光点云所反映的目标场景中要素实体的空间结构,还结合了图像所反映的目标场景中要素实体的色彩纹理轮廓,使得深度图不仅描述了地图要素的色彩纹理轮廓,而且描述了地图要素的空间结构,极大地丰富了图像分割的数据依据,从而充分地保证了后续地图要素在深度图中进行图像分割的准确性。
具体而言,根据图像中像素点对应的深度信息构建图像的深度图,也即是,图像的深度图,实质上是携带了图像中像素点所对应深度信息的二维图像。其中,深度信息用于表示激光点云(三维)与图像(二维)之间的几何变换形式,亦即配准关系。
配准,目的在于保证针对同一目标场景却来源不同的激光点云与图像之间保持相匹配的地理位置,实质是确定激光点云与图像之间几何变换形式的过程。其中,激光点云来源于激光器,而图像来源于摄像设备。
针对同一目标场景,例如,配准前,如图4所示,激光点云401区域与图像402区域不匹配,仅存在部分区域重合,配准后,如图5所示,激光点云401区域与图像402区域基本重合,即视为达到最佳匹配效果,以此保证了配准后的激光点云与图像之间保持相匹配的地理位置,也即是,激光点云与图像可视为同源。
在一实施例中,配准可以根据灰度特征实现,在另一实施例中,配准还可以根据图像特征实现,其中,图像特征包括颜色特征、纹理特征、形状特征、空间关系特征等。
进一步地,配准包括:几何纠正、投影变换、统一比例尺等处理方式,本实施例并未对此加以限定。
通过激光点云与图像之间进行的配准,便可得到图像中像素点对应的深度信息,进而方可基于该深度信息所表示的激光点云与图像之间的几何变换关系,得到图像的深度图。
步骤350,对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像。
可以理解,目标场景中,不仅包括对应地图要素的要素实体,还包括与地图要素无关的其他实体,例如车辆,那么,对于深度图而言,除了存在对应于要素实体的地图要素,也还存在对应于其他实体的非地图要素。
由此,本实施例中,图像分割,是指将地图要素与非地图要素在深度图中区分开,那么,完成区分的地图要素在深度图中便形成了相应的分割图像。换而言之,分割图像,可用于描述地图要素在深度图中的位置、类别、颜色等。其中,类别,是指地图要素的种类,例如,车道线要素视为地图要素的一种。
可选地,图像分割包括:普通分割、语义分割、实例分割等,其中,普通分割进一步包括:阈值分割、区域分割、边缘分割、直方图分割等,本实施例并未对此作出具体限定。
值得一提的是,由于深度图仅是携带有深度信息的二维图像,故而,对于分割图像而言,所描述的地图要素在深度图中的位置,本质上是二维位置。
步骤370,根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维位置。
目标场景匹配的高精度地图,是按照指定比例真实地反映目标场景的实际样式。例如,实体为道路,则在高精度地图中,不仅需要按照道路在目标场景中的地理位置绘制道路,而且需要绘制该道路的形状,包括宽度、坡度、曲率等,甚至需要绘制该道路所包含的车道数,以此真实地反映该道路在目标场景中的实际样式。
那么,对于高精度地图而言,至少需要获知地图要素在目标场景中的三维位置。此三维位置,即是指地图要素所对应要素实体在目标场景中的地理位置。进一步地,三维位置可通过坐标进行唯一标识。
由此,在得到地图要素在深度图中的分割图像之后,便需要按照激光点云与图像之间的配准关系,针对该分割图像在深度图中的二维位置,进行坐标转换,进而得到地图要素在目标场景中的三维位置,以作为地图要素数据。
可选地,地图要素数据,还包括地图要素在目标场景中的颜色、类别等。
例如,地图要素为车道线要素,相应地,地图要素数据包括:车道线在目标场景中的三维位置、车道线的颜色、车道线的形式等。其中,车道线的形式包括实线、虚线、双黄线。
通过如上所述的过程,通过结合目标场景的激光点云与图像,实现了地图要素快速准确地自动化提取,为高精度地图的生成提供了准确性高的数据依据,避免人工手动编辑地图要素,不仅提高了高精度地图的生产效率,而且降低了高精度地图的生产成本。
此外,充分利用了目标场景的图像,不仅有效地扩展了数据来源,还使得地图要素数据更加地丰富完整,进而有利于保障高精度地图的精度。
请参阅图6,在一示例性实施例中,所述对所述激光点云与所述图像进行配准,得到所述图像中像素点对应的深度信息步骤,可以进一步包括以下步骤:
步骤3311,构建所述激光点云与所述图像之间的投影变换函数。
步骤3313,提取所述激光点云与所述图像中相对应的特征点,并根据提取到的特征点估计所述投影变换函数的参数。
步骤3315,根据完成参数估计的投影变换函数,计算得到所述图像中像素点对应的深度信息。
本实施例中,配准是基于图像特征的投影变换方式实现的。
具体地,激光点云与图像之间构建的投影变换函数如计算公式(1)所示:
其中,fx表示摄像机焦距和图像中像素点在x轴方向上的物理尺寸比值,fy表示摄像机焦距和图像中像素点在y轴方向上的物理尺寸比值,(u0,v0)表示二维坐标系的原点,R表示摄像机坐标系与三维坐标系之间的旋转关系,t表示摄像机坐标系与三维坐标系之间的平移关系。应当说明的是,二维坐标系是指图像坐标系,三维坐标系是指目标场景所在坐标系,即真实世界坐标系。
(u,v)表示图像中像素点的二维坐标,(Xw,Yw,Zw)表示该像素点所对应实体上某个点在目标场景中的三维坐标,亦即激光点云中对应实体的采样点的三维坐标,Zc则表示该像素点对应的深度信息,亦即摄像机坐标系中该像素点沿z轴方向的坐标。
由上可知,确定激光点云与图像之间的配准关系,实质是估计投影变换函数的参数,即fx、fy、(u0,v0)、R、t。
为此,需要获取激光点云与图像中相对应的6组特征点。特征点,是指能够描述图像特征的像素点。
优选地,针对激光点云中边界清晰显示、棱角分明的采样点(例如角点、顶点、端点、重心点、拐点等),对应提取尽量均匀分布在图像中的6个像素点作为特征点,以此体现目标场景中实体的显著特征,进而有利于提高激光点云与图像之间配准的准确性。
在完成投影变换函数中参数的估计,便确定了激光点云与图像之间的配准关系,那么,通过激光点云确定(Xw,Yw,Zw),以及通过图像确定(u,v),便可计算得到图像中像素点对应的深度信息,即Zc。
在上述实施例的配合下,实现了基于图像特征的配准,不仅有利于大幅度降低配准过程的计算量,有利于提高地图要素提取的效率,进而促进高精度地图的生产效率,而且特征点体现了目标场景中实体的显著特征,能够对目标场景中实体空间结构的变化较敏感,有利于提高配准过程的精度。
进一步地,在一示例性实施例中,步骤370可以包括以下步骤:
将所述分割图像在所述深度图中的二维位置、以及所述图像中像素点对应的深度信息,输入完成参数估计的投影变换函数,计算得到所述地图要素在所述目标场景中的三维位置。
结合计算公式(1)对坐标变换过程加以说明如下:
当投影变换函数中的参数完成估计,即fx、fy、(u0,v0)、R、t已知。
那么,将图像中像素点对应的深度信息,即Zc、以及分割图像在深度图中的二维位置,即(u,v),输入计算公式(1),便可计算得到地图要素在目标场景中的三维位置,即(Xw,Yw,Zw),进而以此作为地图要素数据,以便于后续生成高精度地图。
请参阅图7,在一示例性实施例中,步骤350可以包括以下步骤:
步骤351,对所述图像的深度图进行特征提取,得到所述图像对应的特征图。
其中,特征图,用于表示深度图的图像特征,此图像特征包括颜色特征、纹理特征、形状特征、空间关系特征等。那么,也可以理解为,特征图,不仅体现了深度图的全局特征,例如颜色特征,还体现了深度图的局部特征,例如空间关系特征。
基于图像分割中的语义分割,在一实施例中,特征提取可采用卷积神经网络进行,在另一实施例中,特征提取还可以根据残差神经网络进行,本实施例中并未对此作出具体限定。
步骤353,对所述特征图中的像素点进行类别预测,得到所述特征图中像素点的类别。
本实施例中,在特征图上进行像素点级别的类别预测,是通过预先构建的语义分割网络实现的。
语义分割网络不限于:卷积神经网络、残差神经网络等。
下面对语义分割网络的构建过程加以说明。
如图8所示,语义分割网络的构建过程可以包括以下步骤:
步骤510,获取图像样本,所述图像样本进行了像素点类别标注。
步骤530,根据获取到的图像样本引导指定数学模型进行模型训练。
步骤550,由完成模型训练的指定数学模型构建得到所述语义分割网络。
语义分割网络,是通过海量的图像样本对指定数学模型进行模型训练生成的。其中,图像样本,是指进行了像素点类别标注的图像。
模型训练,实质上是对指定数学模型的参数加以迭代优化,使得由此参数构建的指定算法函数满足收敛条件。
其中,指定数学模型,包括但不限于:逻辑回归、支持向量机、随机森林、神经网络等机器学习模型。
指定算法函数,包括但不限于:最大期望函数、损失函数等等。
举例来说,随机初始化指定数学模型的参数,根据当前一个图像样本计算随机初始化的参数所构建的损失函数的损失值。
如果损失函数的损失值未达到最小,则更新指定数学模型的参数,并根据后一个图像样本计算更新的参数所构建的损失函数的损失值。
如此迭代循环,直至损失函数的损失值达到最小,即视为损失函数收敛,此时,指定数学模型也收敛,并符合预设精度要求,则停止迭代。
否则,迭代更新指定数学模型的参数,并根据其余图像样本迭代计算所更新参数构建的损失函数的损失值,直至损失函数收敛。
值得一提的是,如果在损失函数收敛之前,迭代次数已经达到迭代阈值,也将停止迭代,以此保证模型训练的效率。
当指定数学模型收敛并符合预设精度要求时,表示指定数学模型完成模型训练,由此便可构建得到语义分割网络。
在完成语义分割网络的构建之后,对于地图要素提取装置而言,便具有了对特征图进行像素点类别预测的能力。
那么,将特征图输入语义分割网络,便能够对特征图中的像素点进行类别预测,由此得到特征图中像素点的类别。
步骤355,将所述特征图中同一类别的像素点,拟合形成对应地图要素在所述深度图中的分割图像,每一类别对应一种地图要素。
可以理解,对于像素点的类别而言,并不能够形成地图要素在深度图中的分割图像,即为非结构化表示,故而,本实施例,采用拟合方法,对特征图中同一类别的像素点进行结构化表示。
可选地,拟合方法包括:最小二乘拟合方法、基于Ransac的曲线拟合方法等。
结合图9对地图要素在深度图中的分割图像进行如下说明。
当地图要素的类别为车道线,则针对特征图中属于车道线的像素点,即被拟合为一条直线,如图9中601所示。
当地图要素的类别为路牙、栅栏,则针对特征图中属于路牙、栅栏的像素点,亦被拟合为一条直线,分别如图9中602、603所示。
当地图要素的类别为交通标志牌,则针对特征图中属于交通标志牌的像素点,即被拟合为一个矩形框,如图9中604所示。
当地图要素的类别为地面标志,则针对特征图中属于地面标志的像素点,亦被拟合为一个矩形框,如图9中605所示。
通过上述过程,基于语义分割网络所形成的分割图像,便可直接获知地图要素所在的位置、类别,而避免以人工方式对不同类别的地图要素逐个编辑,大大节省了人工手动编辑所耗费的时间,充分地降低了高精度地图的生产成本,有效地提高了高精度地图的生产效率。
此外,利用丰富的语义信息,在图像分割过程中相互验证,避免出现误检,能够有效地提高地图要素提取的准确性。
请参阅图10,在一示例性实施例中,步骤351可以包括以下步骤:
步骤3511,采用残差神经网络中的高层网络提取得到所述深度图的全局特征,并采用所述残差神经网络中的低层网络提取得到所述深度图的局部特征。
本实施例中,语义分割网络为残差神经网络。
具体地,残差神经网络采用了Encoder-Decoder结构,包括若干高层网络和若干低层网络。
如图11所示,Image表示残差神经网络的输入,即深度图。
701表示残差神经网络的Encoder部分,用于进行深度图的特征提取;701’表示残差神经网络的Decoder部分,用于对提取到的特征进行融合。
7011、7012表示残差神经网络中的低层网络,用于提取深度图的局部特征;7013、7014表示残差神经网络中的高层网络,用于提取深度图的全局特征。
步骤3513,进行提取得到的全局特征与局部特征的融合,得到中间特征图。
结合图11,对残差神经网络提取图像所对应特征图的过程加以说明。
首先,对7014最高一层网络对应的全局特征进行反卷积处理7021和上采样处理7022,得到融合特征图。
然后,对次高一层网络7013对应的全局特征进行反卷积处理7023,并通过与融合特征图的融合,形成更新的融合特征图7031,再对更新的融合特征图7031进行上采样处理7024,形成二次更新的融合特征图。
接着,按照残差神经网络中网络由高至低的顺序,对其余高层网络对应的全局特征(图11中未体现)和低层网络7011、7012对应的局部特征进行遍历,根据遍历到的全局特征或者局部特征对融合特征图进行更新。
具体而言,对低层网络7012对应的局部特征进行反卷积处理7025,并通过与融合特征图的融合,形成更新的融合特征图7032,再对更新的融合特征图7032进行上采样处理7026,形成二次更新的融合特征图。
继续对低层网络7011对应的局部特征进行反卷积处理7027,并通过与融合特征图的融合,形成更新的融合特征图7033,由此即完成残差神经网络中所有网络对应特征的遍历。
待完成遍历,则将更新的融合特征图7033作为中间特征图。
步骤3515,对所述中间特征图进行线性插值,得到所述图像对应的特征图。
如图11所示,可以看出,经过3次上采样处理,中间特征图的分辨率实质为深度图Image的分辨率的1/2,故而,在进行像素级的类别预测之前,需要针对中间特征图进行线性插值,以使得由此形成的特征图的分辨率与深度图Image的分辨率保持一致。
在上述过程中,实现了基于残差神经网络的特征提取,有利于提高特征提取的准确性,进而充分地保证了地图要素提取的鲁棒性和稳定性。
请参阅图12,在一示例性实施例中,如上所述的方法还可以包括以下步骤:
步骤810,根据所述地图要素在所述目标场景中的三维位置,在目标场景地图中显示所述地图要素。
步骤830,获取针对所述目标场景地图中地图要素的控制指令并响应,生成目标场景的高精度地图。
目标场景地图,是指与目标场景相匹配的地图。
对于地图要素的编辑人员而言,可以选择同时对全部类别的地图要素进行编辑,也可以选择一个类别的地图要素进行编辑,本实施例并未对此加以限定。
如果编辑人员选择编辑车道线要素,则目标场景地图中,将加载对应的车道线要素数据,以根据车道线要素数据所指示的该车道线要素在目标场景中的三维位置显示该车道线要素,如图13所示。
同理,如果编辑人员选择编辑地面标志要素,则目标场景地图中相应地显示该地面标志要素,如图14所示。
值得一提的是,地图要素数据,例如车道线要素数据,在完成提取之后,将按照指定的存储格式预先存储,以方便于编辑人员进行地图要素编辑时读取。
在目标场景地图中显示出地图要素之后,编辑人员便可以参照目标场景的激光点云和图像,对该地图要素进行查看。
如果地图要素不符合要求,例如,不符合精度要求,或者,位置、形状、类别有所偏差,又或者,因车辆阻挡而导致地图要素有所缺失,那么,编辑人员便可进一步地对地图要素进行编辑操作,此时,将相应获取到针对地图中地图要素的编辑指令,进而通过编辑指令的响应,对地图中的地图要素进行相应的编辑处理,并最终生成包含编辑后地图要素的高精度地图。
反之,如果地图要素符合要求,则编辑人员无需任何修改,即可一键生成高精度地图,这大大减少了编辑人员的工作量,有效地提升了编辑效率,进而有利于降低高精度地图的生产成本,提高高精度地图的生产效率。
由上可知,控制指令至少包括编辑指令、一键生成指令。
在具体应用场景中,高精度地图是实现无人驾驶不可或缺的重要环节。它能够真实还原目标场景,以此提高无人驾驶设备(例如无人驾驶车辆、无人机、机器人)的定位精度;还能够解决特殊情况下无人驾驶设备中环境感知设备(例如传感器)失效的问题,有效地弥补了环境感知设备的不足;同时能够实现为无人驾驶设备进行路径全局规划,并且基于预判为无人驾驶设备制定合理的行进策略。因此,高精度地图在无人驾驶中发挥着不可替代的作用,通过本发明各实施例所提供的地图要素提取方法,不仅充分地保证了高精度地图的精度,还有效地降低了高精度地图的生产成本,提高了高精度地图的生产效率,有利于实现高精度地图的大规模批量生产。
下述为本发明装置实施例,可以用于执行本发明所涉及的地图要素提取方法。对于本发明装置实施例中未披露的细节,请参照本发明所涉及的地图要素提取方法的方法实施例。
请参阅图15,在一示例性实施例中,一种地图要素提取装置900包括但不限于:图像获取模块910、深度图构建模块930、图像分割模块950和位置转换模块970。
其中,图像获取模块910用于获取目标场景的激光点云和图像,所述目标场景包括至少一要素实体对应于地图要素。
深度图构建模块930用于进行所述激光点云与所述图像之间的配准,得到所述图像的深度图。
图像分割模块950用于对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像。
位置转换模块970用于根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维位置。
在一示例性实施例中,所述深度图构建模块包括但不限于:配准单元和构建单元。
其中,配准单元,用于对所述激光点云与所述图像进行配准,得到所述图像中像素点对应的深度信息。
构建单元,用于根据所述图像中像素点对应的深度信息,为所述图像构建所述深度图。
在一示例性实施例中,所述配准单元包括但不限于:函数构建子单元、特征点提取子单元和信息计算子单元。
其中,函数构建子单元,用于构建所述激光点云与所述图像之间的投影变换函数。
特征点提取子单元,用于提取所述激光点云与所述图像中相对应的特征点,并根据提取到的特征点估计所述投影变换函数的参数。
信息计算子单元,用于根据完成参数估计的投影变换函数,计算得到所述图像中像素点对应的深度信息。
在一示例性实施例中,所述位置转换模块包括但不限于:位置转换单元。
其中,位置转换单元,用于将所述分割图像在所述深度图中的二维位置、以及所述图像中像素点对应的深度信息,输入完成参数估计的投影变换函数,计算得到所述地图要素在所述目标场景中的三维位置。
在一示例性实施例中,所述图像分割模块包括但不限于:特征提取单元、类别预测单元和拟合单元。
其中,特征提取单元,用于对所述图像的深度图进行特征提取,得到所述图像对应的特征图。
类别预测单元,用于对所述特征图中的像素点进行类别预测,得到所述特征图中像素点的类别。
拟合单元,用于将所述特征图中同一类别的像素点,拟合形成对应地图要素在所述深度图中的分割图像,每一类别对应一种地图要素。
在一示例性实施例中,所述特征提取单元包括但不限于:特征提取子单元、特征融合子单元和插值子单元。
其中,特征提取子单元,用于采用残差神经网络中的高层网络提取得到所述深度图的全局特征,并采用所述残差神经网络中的低层网络提取得到所述深度图的局部特征。
特征融合子单元,用于进行提取得到的全局特征与局部特征的融合,得到中间特征图。
插值子单元,用于对所述中间特征图进行线性插值,得到所述图像对应的特征图。
在一示例性实施例中,所述特征融合子单元包括但不限于:处理子单元、反卷积处理子单元、上采样处理子单元、遍历子单元和定义子单元。
其中,处理子单元,用于对最高一层网络对应的全局特征进行反卷积上采样处理,得到融合特征图。
反卷积处理子单元,用于对次高一层网络对应的全局特征进行反卷积处理,并通过与所述融合特征图的融合,更新所述融合特征图。
上采样处理子单元,用于进行所述融合特征图的上采样处理,二次更新所述融合特征图。
遍历子单元,用于按照所述残差神经网络中网络由高至低的顺序,对其余高层网络对应的全局特征和低层网络对应的局部特征进行遍历,根据遍历到的全局特征或者局部特征对所述融合特征图进行更新。
定义子单元,用于待完成所述遍历,以更新的所述融合特征图作为所述中间特征图。
在一示例性实施例中,所述装置还包括网络构建模块,所述网络构建模块包括但不限于:样本获取单元、模型训练单元和网络构建单元。
其中,样本获取单元,获取图像样本,所述图像样本进行了像素点类别标注。
模型训练单元,用于根据获取到的图像样本引导指定数学模型进行模型训练。
网络构建单元,用于由完成模型训练的指定数学模型构建得到所述残差神经网络。
在一示例性实施例中,所述装置还包括但不限于:显示模块和编辑模块。
其中,显示模块,用于根据所述地图要素在所述目标场景中的三维位置,在目标场景地图中显示所述地图要素。
编辑模块,用于获取针对所述目标场景地图中地图要素的控制指令并响应,生成所述目标场景的高精度地图。
需要说明的是,上述实施例所提供的地图要素提取装置在进行地图要素提取时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即地图要素提取装置的内部结构将划分为不同的功能模块,以完成以上描述的全部或者部分功能。
另外,上述实施例所提供的地图要素提取装置与地图要素提取方法的实施例属于同一构思,其中各个模块执行操作的具体方式已经在方法实施例中进行了详细描述,此处不再赘述。
请参阅图16,在一示例性实施例中,一种服务器1000,包括至少一处理器1001、至少一存储器1002、以及至少一通信总线1003。
其中,存储器1002上存储有计算机可读指令,处理器1001通过通信总线1003读取存储器1002中存储的计算机可读指令。
该计算机可读指令被处理器1001执行时实现上述各实施例中的地图要素提取方法。
在一示例性实施例中,一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各实施例中的地图要素提取方法。
上述内容,仅为本发明的较佳示例性实施例,并非用于限制本发明的实施方案,本领域普通技术人员根据本发明的主要构思和精神,可以十分方便地进行相应的变通或修改,故本发明的保护范围应以权利要求书所要求的保护范围为准。
Claims (15)
1.一种地图要素提取方法,其特征在于,包括:
获取目标场景的激光点云和图像,所述目标场景包括至少一要素实体对应于地图要素;
进行所述激光点云与所述图像之间的配准,得到所述图像的深度图;
对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像;
根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维位置。
2.如权利要求1所述的方法,其特征在于,所述进行所述激光点云与所述图像之间的配准,得到所述图像的深度图,包括:
对所述激光点云与所述图像进行配准,得到所述图像中像素点对应的深度信息;
根据所述图像中像素点对应的深度信息,为所述图像构建所述深度图。
3.如权利要求2所述的方法,其特征在于,所述对所述激光点云与所述图像进行配准,得到所述图像中像素点对应的深度信息,包括:
构建所述激光点云与所述图像之间的投影变换函数;
提取所述激光点云与所述图像中相对应的特征点,并根据提取到的特征点估计所述投影变换函数的参数;
根据完成参数估计的投影变换函数,计算得到所述图像中像素点对应的深度信息。
4.如权利要求3所述的方法,其特征在于,所述根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维位置,包括:
将所述分割图像在所述深度图中的二维位置、以及所述图像中像素点对应的深度信息,输入完成参数估计的投影变换函数,计算得到所述地图要素在所述目标场景中的三维位置。
5.如权利要求1所述的方法,其特征在于,所述对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像,包括:
对所述图像的深度图进行特征提取,得到所述图像对应的特征图;
对所述特征图中的像素点进行类别预测,得到所述特征图中像素点的类别;
将所述特征图中同一类别的像素点,拟合形成对应地图要素在所述深度图中的分割图像,每一类别对应一种地图要素。
6.如权利要求5所述的方法,其特征在于,所述对所述图像的深度图进行特征提取,得到所述图像对应的特征图,包括:
采用残差神经网络中的高层网络提取得到所述深度图的全局特征,并采用所述残差神经网络中的低层网络提取得到所述深度图的局部特征;
进行提取得到的全局特征与局部特征的融合,得到中间特征图;
对所述中间特征图进行线性插值,得到所述图像对应的特征图。
7.如权利要求6所述的方法,其特征在于,所述进行提取得到的全局特征与局部特征的融合,得到中间特征图,包括:
对最高一层网络对应的全局特征进行反卷积上采样处理,得到融合特征图;
对次高一层网络对应的全局特征进行反卷积处理,并通过与所述融合特征图的融合,更新所述融合特征图;
进行所述融合特征图的上采样处理,二次更新所述融合特征图;
按照所述残差神经网络中网络由高至低的顺序,对其余高层网络对应的全局特征和低层网络对应的局部特征进行遍历,根据遍历到的全局特征或者局部特征对所述融合特征图进行更新;
待完成所述遍历,以更新的所述融合特征图作为所述中间特征图。
8.如权利要求6所述的方法,其特征在于,所述方法还包括:
获取图像样本,所述图像样本进行了像素点类别标注;
根据获取到的图像样本引导指定数学模型进行模型训练;
由完成模型训练的指定数学模型构建得到所述残差神经网络。
9.如权利要求1至8任一项所述的方法,其特征在于,所述方法还包括:
根据所述地图要素在所述目标场景中的三维位置,在目标场景地图中显示所述地图要素;
获取针对所述目标场景地图中地图要素的控制指令并响应,生成所述目标场景的高精度地图。
10.一种地图要素提取装置,其特征在于,包括:
图像获取模块,用于获取目标场景的激光点云和图像,所述目标场景包括至少一要素实体对应于地图要素;
深度图构建模块,用于进行所述激光点云与所述图像之间的配准,得到所述图像的深度图;
图像分割模块,用于对所述图像的深度图进行图像分割,得到所述地图要素在所述深度图中的分割图像;
位置转换模块,用于根据所述激光点云与所述图像之间的配准关系,将所述分割图像在所述深度图中的二维位置,转换为所述地图要素在所述目标场景中的三维。
11.如权利要求10所述的装置,其特征在于,所述深度图构建模块包括:
配准单元,用于对所述激光点云与所述图像进行配准,得到所述图像中像素点对应的深度信息;
构建单元,用于根据所述图像中像素点对应的深度信息,为所述图像构建所述深度图。
12.如权利要求11所述的装置,其特征在于,所述配准单元包括:
函数构建子单元,用于构建所述激光点云与所述图像之间的投影变换函数;
特征点提取子单元,用于提取所述激光点云与所述图像中相对应的特征点,并根据提取到的特征点估计所述投影变换函数的参数;
信息计算子单元,用于根据完成参数估计的投影变换函数,计算得到所述图像中像素点对应的深度信息。
13.如权利要求10所述的装置,其特征在于,所述图像分割模块包括:
特征提取单元,用于对所述图像的深度图进行特征提取,得到所述图像对应的特征图;
类别预测单元,用于对所述特征图中的像素点进行类别预测,得到所述特征图中像素点的类别;
拟合单元,用于将所述特征图中同一类别的像素点,拟合形成对应地图要素在所述深度图中的分割图像,每一类别对应一种地图要素。
14.一种服务器,其特征在于,包括:
处理器;及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如权利要求1至9中任一项所述的地图要素提取方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的地图要素提取方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811186664.6A CN110160502B (zh) | 2018-10-12 | 2018-10-12 | 地图要素提取方法、装置及服务器 |
EP19871308.3A EP3779358B1 (en) | 2018-10-12 | 2019-10-10 | Map element extraction method and apparatus |
PCT/CN2019/110259 WO2020073936A1 (zh) | 2018-10-12 | 2019-10-10 | 地图要素提取方法、装置及服务器 |
US17/075,134 US11380002B2 (en) | 2018-10-12 | 2020-10-20 | Map element extraction method and apparatus, and server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811186664.6A CN110160502B (zh) | 2018-10-12 | 2018-10-12 | 地图要素提取方法、装置及服务器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110160502A true CN110160502A (zh) | 2019-08-23 |
CN110160502B CN110160502B (zh) | 2022-04-01 |
Family
ID=67645031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811186664.6A Active CN110160502B (zh) | 2018-10-12 | 2018-10-12 | 地图要素提取方法、装置及服务器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11380002B2 (zh) |
EP (1) | EP3779358B1 (zh) |
CN (1) | CN110160502B (zh) |
WO (1) | WO2020073936A1 (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110488830A (zh) * | 2019-08-26 | 2019-11-22 | 吉林大学 | 面向智能车辆速度节能规划的高精度地图信息预解析系统及预解析方法 |
CN110598597A (zh) * | 2019-08-29 | 2019-12-20 | 上海眼控科技股份有限公司 | 一种多场景路口信息分类与提取方法及设备 |
CN110956100A (zh) * | 2019-11-15 | 2020-04-03 | 北京三快在线科技有限公司 | 一种高精度地图生成方法、装置、电子设备和存储介质 |
WO2020073936A1 (zh) * | 2018-10-12 | 2020-04-16 | 腾讯科技(深圳)有限公司 | 地图要素提取方法、装置及服务器 |
CN111192311A (zh) * | 2019-12-31 | 2020-05-22 | 武汉中海庭数据技术有限公司 | 一种高精度地图制作中纵向减速标线自动提取方法和装置 |
CN111311709A (zh) * | 2020-02-05 | 2020-06-19 | 北京三快在线科技有限公司 | 一种生成高精地图的方法及装置 |
CN111414968A (zh) * | 2020-03-26 | 2020-07-14 | 西南交通大学 | 一种基于卷积神经网络特征图的多模态遥感影像匹配方法 |
CN111523409A (zh) * | 2020-04-09 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于生成位置信息的方法和装置 |
CN111652179A (zh) * | 2020-06-15 | 2020-09-11 | 东风汽车股份有限公司 | 基于点线特征融合激光的语义高精地图构建与定位方法 |
CN111667545A (zh) * | 2020-05-07 | 2020-09-15 | 东软睿驰汽车技术(沈阳)有限公司 | 高精度地图生成方法、装置、电子设备及存储介质 |
CN111797189A (zh) * | 2020-07-03 | 2020-10-20 | 武汉四维图新科技有限公司 | 数据源质量评价方法与装置、设备、计算机可读存储介质 |
CN111881790A (zh) * | 2020-07-14 | 2020-11-03 | 武汉中海庭数据技术有限公司 | 一种高精度地图制作中道路人行横道自动化提取方法和装置 |
CN112184901A (zh) * | 2020-09-08 | 2021-01-05 | 北京三快在线科技有限公司 | 一种深度图确定方法及装置 |
CN112258568A (zh) * | 2020-10-12 | 2021-01-22 | 武汉中海庭数据技术有限公司 | 一种高精度地图要素的提取方法及装置 |
CN112433193A (zh) * | 2020-11-06 | 2021-03-02 | 山东产研信息与人工智能融合研究院有限公司 | 一种基于多传感器的模位置定位方法及系统 |
CN112740225A (zh) * | 2020-09-30 | 2021-04-30 | 华为技术有限公司 | 一种路面要素确定方法及装置 |
CN113034566A (zh) * | 2021-05-28 | 2021-06-25 | 湖北亿咖通科技有限公司 | 高精度地图构建方法、装置、电子设备及存储介质 |
CN113674287A (zh) * | 2021-09-03 | 2021-11-19 | 阿波罗智能技术(北京)有限公司 | 高精地图的绘制方法、装置、设备以及存储介质 |
CN113724311A (zh) * | 2020-05-25 | 2021-11-30 | 北京四维图新科技股份有限公司 | 深度图获取方法、设备及存储介质 |
CN113902858A (zh) * | 2021-08-31 | 2022-01-07 | 北京百度网讯科技有限公司 | 电子地图绘制的辅助作业方法、装置及电子设备 |
CN113936018A (zh) * | 2020-06-29 | 2022-01-14 | 千寻位置网络有限公司 | 地面印刷物的边界提取方法 |
CN114120795A (zh) * | 2020-09-01 | 2022-03-01 | 华为技术有限公司 | 一种地图绘制方法及装置 |
CN114413881A (zh) * | 2022-01-07 | 2022-04-29 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
CN114663612A (zh) * | 2022-03-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 一种高精度地图构建方法、装置及电子设备 |
WO2022257358A1 (zh) * | 2021-06-08 | 2022-12-15 | 北京百度网讯科技有限公司 | 高精地图的生产方法、装置、设备和计算机存储介质 |
WO2023164845A1 (zh) * | 2022-03-02 | 2023-09-07 | 深圳市大疆创新科技有限公司 | 三维重建方法、装置、系统及存储介质 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210061722A (ko) * | 2019-11-20 | 2021-05-28 | 팅크웨어(주) | 고정밀 지도 제작 방법, 고정밀 지도 제작 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 |
KR20210121628A (ko) * | 2020-03-31 | 2021-10-08 | 주식회사 만도 | 강화학습 기반 포인트 클라우드 자동화 처리 방법 및 그 시스템 |
CN111899277B (zh) * | 2020-07-09 | 2024-07-12 | 浙江大华技术股份有限公司 | 运动目标检测方法及装置、存储介质、电子装置 |
CN112233148B (zh) * | 2020-09-14 | 2025-01-17 | 浙江大华技术股份有限公司 | 目标运动的估计方法、设备及计算机存储介质 |
US11681780B2 (en) * | 2020-09-30 | 2023-06-20 | Nissan North America, Inc. | Annotation and mapping for vehicle operation in low-confidence object detection conditions |
CN112232271B (zh) * | 2020-10-29 | 2023-09-12 | 上海有个机器人有限公司 | 一种基于激光的人流检测方法以及设备 |
CN112528918A (zh) * | 2020-12-18 | 2021-03-19 | 浙江商汤科技开发有限公司 | 道路元素识别方法、地图标注方法及装置、车辆 |
CN112686197B (zh) * | 2021-01-07 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 一种数据处理方法和相关装置 |
US20220388522A1 (en) * | 2021-06-04 | 2022-12-08 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for end-to-end learning of optimal driving policy |
CN113514053B (zh) * | 2021-07-13 | 2024-03-26 | 阿波罗智能技术(北京)有限公司 | 生成样本图像对的方法、装置和更新高精地图的方法 |
CN113570535B (zh) * | 2021-07-30 | 2024-07-12 | 深圳市慧鲤科技有限公司 | 视觉定位方法及相关装置、设备 |
CN113724329A (zh) * | 2021-09-01 | 2021-11-30 | 中国人民大学 | 融合平面与立体信息的目标姿态估计方法、系统和介质 |
CN114004882A (zh) * | 2021-09-24 | 2022-02-01 | 奥比中光科技集团股份有限公司 | 一种二维地图生成方法、装置、终端设备及存储介质 |
CN113870428A (zh) * | 2021-09-29 | 2021-12-31 | 北京百度网讯科技有限公司 | 场景地图生成方法、相关装置及计算机程序产品 |
CN113657691B (zh) * | 2021-10-19 | 2022-03-01 | 北京每日优鲜电子商务有限公司 | 信息显示方法、装置、电子设备和计算机可读介质 |
CN114218338A (zh) * | 2021-11-04 | 2022-03-22 | 广州三七极耀网络科技有限公司 | 地图层级信息文件生成方法、装置、设备和存储介质 |
CN114063099A (zh) * | 2021-11-10 | 2022-02-18 | 厦门大学 | 基于rgbd的定位方法及装置 |
CN114255238A (zh) * | 2021-11-26 | 2022-03-29 | 电子科技大学长三角研究院(湖州) | 一种融合图像特征的三维点云场景分割方法及系统 |
CN114155415B (zh) * | 2021-12-07 | 2024-05-03 | 华东交通大学 | 一种多数据融合的车辆检测方法、系统、设备及存储介质 |
CN113902047B (zh) * | 2021-12-10 | 2022-03-04 | 腾讯科技(深圳)有限公司 | 图像元素匹配方法、装置、设备以及存储介质 |
CN115213896A (zh) * | 2022-05-10 | 2022-10-21 | 浙江西图盟数字科技有限公司 | 基于机械臂的物体抓取方法、系统、设备及存储介质 |
CN115115790B (zh) * | 2022-06-02 | 2024-06-28 | 合众新能源汽车股份有限公司 | 预测模型的训练方法、地图预测方法及装置 |
CN115019048B (zh) * | 2022-07-08 | 2023-04-07 | 北京百度网讯科技有限公司 | 三维场景分割方法、模型训练方法、装置和电子设备 |
CN115410173B (zh) * | 2022-11-01 | 2023-03-24 | 北京百度网讯科技有限公司 | 多模态融合的高精地图要素识别方法、装置、设备及介质 |
CN116189145B (zh) * | 2023-02-15 | 2024-06-11 | 清华大学 | 一种线形地图要素的提取方法、系统和可读介质 |
CN116499477B (zh) * | 2023-06-21 | 2023-09-26 | 小米汽车科技有限公司 | 地图的融合方法、装置、介质及车辆 |
CN117036576B (zh) * | 2023-10-09 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 地图渲染方法、装置、电子设备及存储介质 |
CN118015055B (zh) * | 2024-04-08 | 2024-08-09 | 江苏狄诺尼信息技术有限责任公司 | 基于深度融合算法的多源勘测数据融合处理方法及系统 |
CN119048697A (zh) * | 2024-11-01 | 2024-11-29 | 南昌工学院 | 一种虚拟现实中三维地图重构方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082988A (zh) * | 2007-06-19 | 2007-12-05 | 北京航空航天大学 | 自动的深度图像配准方法 |
CN103150747A (zh) * | 2012-11-16 | 2013-06-12 | 佳都新太科技股份有限公司 | 一种基于拓扑特征的点云配准算法 |
US20140118716A1 (en) * | 2012-10-31 | 2014-05-01 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
CN103955939A (zh) * | 2014-05-16 | 2014-07-30 | 重庆理工大学 | 三维扫描系统中点云拼接用边界特征点配准方法 |
CN106485690A (zh) * | 2015-08-25 | 2017-03-08 | 南京理工大学 | 基于点特征的点云数据与光学影像的自动配准融合方法 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN107622244A (zh) * | 2017-09-25 | 2018-01-23 | 华中科技大学 | 一种基于深度图的室内场景精细化解析方法 |
CN107993282A (zh) * | 2017-11-06 | 2018-05-04 | 江苏省测绘研究所 | 一种动态的可量测实景地图制作方法 |
CN108088444A (zh) * | 2016-11-22 | 2018-05-29 | 广州映博智能科技有限公司 | 基于三维激光的室内点云地图生成系统及方法 |
CN108419446A (zh) * | 2015-08-24 | 2018-08-17 | 高通股份有限公司 | 用于激光深度图取样的系统及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8798965B2 (en) | 2009-02-06 | 2014-08-05 | The Hong Kong University Of Science And Technology | Generating three-dimensional models from images |
CN102473303B (zh) * | 2009-08-12 | 2015-07-29 | 皇家飞利浦电子股份有限公司 | 生成对象数据 |
AU2012244276A1 (en) * | 2012-10-30 | 2014-05-15 | Canon Kabushiki Kaisha | Method, apparatus and system for detecting a supporting surface region in an image |
CN103017739B (zh) * | 2012-11-20 | 2015-04-29 | 武汉大学 | 基于激光雷达点云与航空影像的真正射影像的制作方法 |
US9177481B2 (en) * | 2013-12-13 | 2015-11-03 | Sikorsky Aircraft Corporation | Semantics based safe landing area detection for an unmanned vehicle |
CN104599314A (zh) * | 2014-06-12 | 2015-05-06 | 深圳奥比中光科技有限公司 | 三维模型重建方法与系统 |
CN110160502B (zh) * | 2018-10-12 | 2022-04-01 | 腾讯科技(深圳)有限公司 | 地图要素提取方法、装置及服务器 |
-
2018
- 2018-10-12 CN CN201811186664.6A patent/CN110160502B/zh active Active
-
2019
- 2019-10-10 EP EP19871308.3A patent/EP3779358B1/en active Active
- 2019-10-10 WO PCT/CN2019/110259 patent/WO2020073936A1/zh unknown
-
2020
- 2020-10-20 US US17/075,134 patent/US11380002B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082988A (zh) * | 2007-06-19 | 2007-12-05 | 北京航空航天大学 | 自动的深度图像配准方法 |
US20140118716A1 (en) * | 2012-10-31 | 2014-05-01 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
CN103150747A (zh) * | 2012-11-16 | 2013-06-12 | 佳都新太科技股份有限公司 | 一种基于拓扑特征的点云配准算法 |
CN103955939A (zh) * | 2014-05-16 | 2014-07-30 | 重庆理工大学 | 三维扫描系统中点云拼接用边界特征点配准方法 |
CN108419446A (zh) * | 2015-08-24 | 2018-08-17 | 高通股份有限公司 | 用于激光深度图取样的系统及方法 |
CN106485690A (zh) * | 2015-08-25 | 2017-03-08 | 南京理工大学 | 基于点特征的点云数据与光学影像的自动配准融合方法 |
CN108088444A (zh) * | 2016-11-22 | 2018-05-29 | 广州映博智能科技有限公司 | 基于三维激光的室内点云地图生成系统及方法 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN107622244A (zh) * | 2017-09-25 | 2018-01-23 | 华中科技大学 | 一种基于深度图的室内场景精细化解析方法 |
CN107993282A (zh) * | 2017-11-06 | 2018-05-04 | 江苏省测绘研究所 | 一种动态的可量测实景地图制作方法 |
Non-Patent Citations (2)
Title |
---|
常欢: "无人车基于三维点云场景理解的语义地图构建", 《中国优秀硕士学位论文全文数据库》 * |
王可: "基于变分模型的移动机器人三维环境建模方法研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11380002B2 (en) | 2018-10-12 | 2022-07-05 | Tencent Technology (Shenzhen) Company Limited | Map element extraction method and apparatus, and server |
WO2020073936A1 (zh) * | 2018-10-12 | 2020-04-16 | 腾讯科技(深圳)有限公司 | 地图要素提取方法、装置及服务器 |
CN110488830B (zh) * | 2019-08-26 | 2021-11-19 | 吉林大学 | 面向智能车辆速度节能规划的高精度地图信息预解析系统及预解析方法 |
CN110488830A (zh) * | 2019-08-26 | 2019-11-22 | 吉林大学 | 面向智能车辆速度节能规划的高精度地图信息预解析系统及预解析方法 |
CN110598597A (zh) * | 2019-08-29 | 2019-12-20 | 上海眼控科技股份有限公司 | 一种多场景路口信息分类与提取方法及设备 |
CN110956100A (zh) * | 2019-11-15 | 2020-04-03 | 北京三快在线科技有限公司 | 一种高精度地图生成方法、装置、电子设备和存储介质 |
CN111192311A (zh) * | 2019-12-31 | 2020-05-22 | 武汉中海庭数据技术有限公司 | 一种高精度地图制作中纵向减速标线自动提取方法和装置 |
CN111192311B (zh) * | 2019-12-31 | 2022-05-17 | 武汉中海庭数据技术有限公司 | 一种高精度地图制作中纵向减速标线自动提取方法和装置 |
CN111311709B (zh) * | 2020-02-05 | 2023-06-20 | 北京三快在线科技有限公司 | 一种生成高精地图的方法及装置 |
CN111311709A (zh) * | 2020-02-05 | 2020-06-19 | 北京三快在线科技有限公司 | 一种生成高精地图的方法及装置 |
CN111414968A (zh) * | 2020-03-26 | 2020-07-14 | 西南交通大学 | 一种基于卷积神经网络特征图的多模态遥感影像匹配方法 |
CN111414968B (zh) * | 2020-03-26 | 2022-05-03 | 西南交通大学 | 一种基于卷积神经网络特征图的多模态遥感影像匹配方法 |
CN111523409A (zh) * | 2020-04-09 | 2020-08-11 | 北京百度网讯科技有限公司 | 用于生成位置信息的方法和装置 |
CN111523409B (zh) * | 2020-04-09 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于生成位置信息的方法和装置 |
CN111667545B (zh) * | 2020-05-07 | 2024-02-27 | 东软睿驰汽车技术(沈阳)有限公司 | 高精度地图生成方法、装置、电子设备及存储介质 |
CN111667545A (zh) * | 2020-05-07 | 2020-09-15 | 东软睿驰汽车技术(沈阳)有限公司 | 高精度地图生成方法、装置、电子设备及存储介质 |
CN113724311A (zh) * | 2020-05-25 | 2021-11-30 | 北京四维图新科技股份有限公司 | 深度图获取方法、设备及存储介质 |
CN113724311B (zh) * | 2020-05-25 | 2024-04-02 | 北京四维图新科技股份有限公司 | 深度图获取方法、设备及存储介质 |
CN111652179A (zh) * | 2020-06-15 | 2020-09-11 | 东风汽车股份有限公司 | 基于点线特征融合激光的语义高精地图构建与定位方法 |
CN111652179B (zh) * | 2020-06-15 | 2024-01-09 | 东风汽车股份有限公司 | 基于点线特征融合激光的语义高精地图构建与定位方法 |
CN113936018A (zh) * | 2020-06-29 | 2022-01-14 | 千寻位置网络有限公司 | 地面印刷物的边界提取方法 |
CN111797189B (zh) * | 2020-07-03 | 2024-03-19 | 武汉四维图新科技有限公司 | 数据源质量评价方法与装置、设备、计算机可读存储介质 |
CN111797189A (zh) * | 2020-07-03 | 2020-10-20 | 武汉四维图新科技有限公司 | 数据源质量评价方法与装置、设备、计算机可读存储介质 |
CN111881790A (zh) * | 2020-07-14 | 2020-11-03 | 武汉中海庭数据技术有限公司 | 一种高精度地图制作中道路人行横道自动化提取方法和装置 |
CN114120795A (zh) * | 2020-09-01 | 2022-03-01 | 华为技术有限公司 | 一种地图绘制方法及装置 |
CN112184901A (zh) * | 2020-09-08 | 2021-01-05 | 北京三快在线科技有限公司 | 一种深度图确定方法及装置 |
CN112184901B (zh) * | 2020-09-08 | 2024-04-19 | 北京三快在线科技有限公司 | 一种深度图确定方法及装置 |
CN112740225A (zh) * | 2020-09-30 | 2021-04-30 | 华为技术有限公司 | 一种路面要素确定方法及装置 |
CN112740225B (zh) * | 2020-09-30 | 2022-05-13 | 华为技术有限公司 | 一种路面要素确定方法及装置 |
CN112258568B (zh) * | 2020-10-12 | 2022-07-01 | 武汉中海庭数据技术有限公司 | 一种高精度地图要素的提取方法及装置 |
CN112258568A (zh) * | 2020-10-12 | 2021-01-22 | 武汉中海庭数据技术有限公司 | 一种高精度地图要素的提取方法及装置 |
CN112433193A (zh) * | 2020-11-06 | 2021-03-02 | 山东产研信息与人工智能融合研究院有限公司 | 一种基于多传感器的模位置定位方法及系统 |
CN113034566B (zh) * | 2021-05-28 | 2021-09-24 | 湖北亿咖通科技有限公司 | 高精度地图构建方法、装置、电子设备及存储介质 |
CN113034566A (zh) * | 2021-05-28 | 2021-06-25 | 湖北亿咖通科技有限公司 | 高精度地图构建方法、装置、电子设备及存储介质 |
WO2022257358A1 (zh) * | 2021-06-08 | 2022-12-15 | 北京百度网讯科技有限公司 | 高精地图的生产方法、装置、设备和计算机存储介质 |
CN113902858A (zh) * | 2021-08-31 | 2022-01-07 | 北京百度网讯科技有限公司 | 电子地图绘制的辅助作业方法、装置及电子设备 |
CN113674287A (zh) * | 2021-09-03 | 2021-11-19 | 阿波罗智能技术(北京)有限公司 | 高精地图的绘制方法、装置、设备以及存储介质 |
CN114413881B (zh) * | 2022-01-07 | 2023-09-01 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
CN114413881A (zh) * | 2022-01-07 | 2022-04-29 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
WO2023164845A1 (zh) * | 2022-03-02 | 2023-09-07 | 深圳市大疆创新科技有限公司 | 三维重建方法、装置、系统及存储介质 |
CN114663612A (zh) * | 2022-03-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 一种高精度地图构建方法、装置及电子设备 |
CN114663612B (zh) * | 2022-03-24 | 2024-06-21 | 北京百度网讯科技有限公司 | 一种高精度地图构建方法、装置及电子设备 |
US12190445B2 (en) | 2022-03-24 | 2025-01-07 | Beijing Baidu Netcom Science Technology Co., Ltd. | High-precision map construction method, apparatus and electronic device |
Also Published As
Publication number | Publication date |
---|---|
EP3779358B1 (en) | 2023-12-06 |
WO2020073936A1 (zh) | 2020-04-16 |
CN110160502B (zh) | 2022-04-01 |
US11380002B2 (en) | 2022-07-05 |
US20210035314A1 (en) | 2021-02-04 |
EP3779358A1 (en) | 2021-02-17 |
EP3779358A4 (en) | 2021-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110160502A (zh) | 地图要素提取方法、装置及服务器 | |
JP6862409B2 (ja) | 地図生成及び移動主体の位置決めの方法及び装置 | |
CN109493407A (zh) | 实现激光点云稠密化的方法、装置及计算机设备 | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
JP7440005B2 (ja) | 高精細地図の作成方法、装置、デバイス及びコンピュータプログラム | |
CN108734120B (zh) | 标注图像的方法、装置、设备和计算机可读存储介质 | |
CN111695488B (zh) | 兴趣面识别方法、装置、设备以及存储介质 | |
US20190026938A1 (en) | Three-dimensional modeling from optical capture | |
CN111739005B (zh) | 图像检测方法、装置、电子设备及存储介质 | |
CN117876608B (zh) | 三维图像重建方法、装置、计算机设备及存储介质 | |
CN114758337A (zh) | 一种语义实例重建方法、装置、设备及介质 | |
CN116206068B (zh) | 基于真实数据集的三维驾驶场景生成与构建方法及装置 | |
CN110992366A (zh) | 一种图像语义分割方法、装置及存储介质 | |
CN116823929A (zh) | 基于视觉图像与点云地图的跨模态匹配定位方法及系统 | |
CN112488067B (zh) | 人脸姿态估计方法、装置、电子设备和存储介质 | |
CN112580428A (zh) | 一种配电网设计方法及装置 | |
CN115265545A (zh) | 基于决策分析的地图匹配导航方法、装置、设备及存储介质 | |
CN111179284A (zh) | 交互式图像分割方法、系统及终端 | |
CN117058474B (zh) | 一种基于多传感器融合的深度估计方法及系统 | |
CN110378948B (zh) | 3d模型重建方法、装置及电子设备 | |
CN107221027A (zh) | 一种将用户自定义内容嵌入倾斜摄影三维模型的方法 | |
CN116129126A (zh) | 分割预测模型的构建方法、图片语义分割标注方法及装置 | |
CN117315034B (zh) | 横坡车位坐标的确定方法、装置、计算机设备及存储介质 | |
CN118149840B (zh) | 车道线生成方法、装置、电子设备、存储介质和程序产品 | |
CN118037999B (zh) | 一种基于vr思政教学的交互场景构建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |