JP7060625B2 - 自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 - Google Patents
自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 Download PDFInfo
- Publication number
- JP7060625B2 JP7060625B2 JP2019567358A JP2019567358A JP7060625B2 JP 7060625 B2 JP7060625 B2 JP 7060625B2 JP 2019567358 A JP2019567358 A JP 2019567358A JP 2019567358 A JP2019567358 A JP 2019567358A JP 7060625 B2 JP7060625 B2 JP 7060625B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cost volume
- lidar
- points
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 60
- 238000013527 convolutional neural network Methods 0.000 claims description 37
- 238000013528 artificial neural network Methods 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005096 rolling process Methods 0.000 claims 3
- 238000012545 processing Methods 0.000 description 38
- 230000008569 process Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000009499 grossing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 230000002085 persistent effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000002379 ultrasonic velocimetry Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4913—Circuits for detection, sampling, integration or read-out
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Optics & Photonics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Description
図1は、本発明の一実施態様にかかる自動運転車両のネットワーク構成を示すブロック図である。図1を参照すると、ネットワーク構成100は、ネットワーク102を介して1つまたは複数のサーバ103~104に対して通信可能に接続する自動運転車両101を備える。1つの自動運転車両のみを示すが、複数の自動運転車両は、ネットワーク102を介して相互に接続し、および/またはサーバ103~104に接続可能である。ネットワーク102は、いずれのタイプのネットワークであってもよく、例えば、有線または無線のローカルエリアネットワーク(LAN)、インターネットのような広域ネットワーク(WAN)、セルラ網、衛星ネットワークまたはそれらの組み合せである。サーバ103~104は、いずれの形式のサーバまたはサーバークラスタであってもよく、例えば、Webサーバやクラウドサーバ、アプリケーションサーバ、バックエンドサーバまたはそれらの組み合せである。サーバ103~104は、データ解析サーバやコンテンツサーバ、交通情報サーバ、地図・関心点(MPOI)サーバまたは位置サーバなどであってもよい。
図4は、本発明の実施形態にかかる学習に基づくLIDAR測位システムを示す図である。図4に示すように、測位モジュール301は、ポイントクラウド特徴学習ネットワーク(例えば、PointNet)409を含むことができる。このポイントクラウド特徴学習ネットワーク409は、ADVの事前作成された3Dポイントクラウド地図406と、オンラインLIDARポイントクラウド404と、予測ポーズ407とを入力として採用し、複数の選択されたLIDARポイント(キーポイントとも呼ぶ)に基づいて、複数の特徴記述子をオンラインポイントクラウド404から抽出することができる。対応するキーポイントを見つけ、ポイントクラウド特徴学習ネットワーク409により同様に対応するLIDARポイントの特徴を抽出することができる。
図8は、実施形態にかかる光検出及び測距(LIDAR)測位においてニューラルネットワークを使用したソリューション推断システムを示す。
図11は、実施形態にかかるADVの測位結果において時間平滑化を行うシステムを示す。
Claims (22)
- LIDAR測位においてニューラルネットワークを用いてソリューション推断を行うコンピュータ実施の方法であって、
ADVの予測ポーズに用いられる、オンラインポイントクラウドからのキーポイントと事前作成されたポイントクラウド地図上の対応するキーポイントとのマッチングコストを表す複数のサブボリュームを備えるコストボリュームを解空間内において作成することと、
前記マッチングコストをリファインするように複数の畳み込みニューラルネットワークを用いて、前記コストボリュームの前記複数のサブボリュームをそれぞれ正則化して、正則化されたコストボリュームを得ることと、
正則化されたコストボリュームから前記予測ポーズの、前記ADVの位置を特定するために用いられる最適なオフセットを推定することと、
を含むことを特徴とするコンピュータ実施の方法。 - 前記複数の畳み込みニューラルネットワークのそれぞれは、同一セットのパラメータを共有し、複数の畳み込み層を含み、前記複数の畳み込み層の少なくとも一層は、バッチ正規化及び正規化線形ユニットを用いる3D畳み込み層であることを特徴とする請求項1に記載の方法。
- 前記予測ポーズの解空間は、前記オンラインポイントクラウドから選択される1組のキーポイントにより定義される空間を含み、前記1組のキーポイントのそれぞれは、所定数の隣接ポイントと関連付けられるとともに、前記1組のキーポイントの残りのキーポイントと最小距離を有することを特徴とする請求項1に記載の方法。
- 前記オンラインポイントクラウド及び前記事前作成されたポイントクラウド地図から抽出された特徴記述子に基づいて前記コストボリュームを作成し、前記オンラインポイントクラウドから抽出されたそれぞれの特徴は、キーポイント及び所定の数の隣接するLIDARポイントに対応することを特徴とする請求項3に記載の方法。
- 前記コストボリュームを作成することは、各対の対応する特徴記述子同士のメトリック距離を算出することを更に含み、当該メトリック距離は、多次元ベクトルであり、各要素は、記述子ペアのうち対応する一つからの距離を二乗することによって算出されることを特徴とする請求項3に記載の方法。
- 前記コストボリュームを作成することは、
前記解空間を前記1組のキーポイントの1つにそれぞれ対応する複数の離散空間に分割することと、
対応するキーポイント及びそれに関連する隣接するLIDARポイントに占められた空間に基づき、それぞれの離散空間に対してローリング角(X)次元、コース角(Y)次元及びヨー角次元の大きさを決定することと、
前記予測ポーズのための複数の特徴記述子及びそれぞれの離散空間に対するそれぞれの次元の大きさに基づいて前記コストボリュームを作成することと、
を更に含むことを特徴とする請求項3に記載の方法。 - 前記コストボリュームのそれぞれのサブボリュームは、前記オンラインポイントクラウドからのその関連する特徴記述子を有するキーポイント、変換及び前記事前作成されたポイントクラウド地図からの対応する特徴記述子と関連付けられることを特徴とする請求項1に記載の方法。
- LIDAR測位においてニューラルネットワークを用いてソリューション推断を行うポイントクラウド特徴を抽出するシステムであって、
プロセッサと、プロセッサに接続され、命令を記憶するメモリと、を含み、
前記命令は、前記プロセッサによって実行されると、
ADVの予測ポーズに用いられる、オンラインポイントクラウドからのキーポイントと事前作成されたポイントクラウド地図上の対応するキーポイントとのマッチングコストを表す複数のサブボリュームを備えるコストボリュームを解空間内において作成することと、
前記マッチングコストをリファインするように複数の畳み込みニューラルネットワークを用いて前記コストボリュームの前記複数のサブボリュームをそれぞれ正則化して、正則化されたコストボリュームを得ることと、
正則化されたコストボリュームから前記予測ポーズの、前記ADVの位置を特定するために用いられる最適なオフセットを推定することと、
を含む操作をプロセッサに実行させることを特徴とするシステム。 - 前記複数の畳み込みニューラルネットワークのそれぞれは、同一セットのパラメータを共有し、複数の畳み込み層を含み、前記複数の畳み込み層の少なくとも一層は、バッチ正規化及び正規化線形ユニットを用いる3D畳み込み層であることを特徴とする請求項8に記載のシステム。
- 前記予測ポーズの解空間は、前記オンラインポイントクラウドから選択される1組のキーポイントにより定義される空間を含み、前記1組のキーポイントのそれぞれは、所定数の隣接ポイントと関連付けられるとともに、前記1組のキーポイントの残りのキーポイントと最小距離を有することを特徴とする請求項8に記載のシステム。
- 前記オンラインポイントクラウド及び前記事前作成されたポイントクラウド地図から抽出された特徴記述子に基づいて前記コストボリュームを作成し、前記オンラインポイントクラウドから抽出されたそれぞれの特徴は、キーポイント及び所定の数の隣接するLIDARポイントに対応することを特徴とする請求項10に記載のシステム。
- 前記コストボリュームを作成することは、各対の対応する特徴記述子同士のメトリック距離を算出することを更に含み、当該メトリック距離は、多次元ベクトルであり、各要素は、記述子ペアのうち対応する一つからの距離を二乗することによって算出されることを特徴とする請求項10に記載のシステム。
- 前記コストボリュームを作成することは、
前記解空間を前記1組のキーポイントの1つにそれぞれ対応する複数の離散空間に分割することと、
対応するキーポイント及びそれに関連する隣接するLIDARポイントに占められた空間に基づき、それぞれの離散空間に対してローリング角(X)次元、コース角(Y)次元及びヨー角次元の大きさを決定することと、
前記予測ポーズのための複数の特徴記述子及びそれぞれの離散空間に対するそれぞれの次元の大きさに基づいて前記コストボリュームを作成することと、
を更に含むことを特徴とする請求項8に記載のシステム。 - 前記コストボリュームのそれぞれのサブボリュームは、前記オンラインポイントクラウドからのその関連する特徴記述子を有するキーポイント、変換及び前記事前作成されたポイントクラウド地図からの対応する特徴記述子と関連付けられることを特徴とする請求項8に記載のシステム。
- 指令を記憶している非一時性機器可読メディアであって、
前記指令は、プロセッサによって実行されると、前記プロセッサに、LIDAR測位においてニューラルネットワークを用いてソリューション推断を行うためのポイントクラウド特徴を抽出する操作を実行させ、前記操作は、
ADVの予測ポーズに用いられる、オンラインポイントクラウドからのキーポイントと事前作成されたポイントクラウド地図上の対応するキーポイントとのマッチングコストを表す複数のサブボリュームを備えるコストボリュームを解空間内において作成することと、
前記マッチングコストをリファインするように複数の畳み込みニューラルネットワークを用いて前記コストボリュームの前記複数のサブボリュームをそれぞれ正則化して、正則化されたコストボリュームを得ることと、
正則化されたコストボリュームから前記予測ポーズの、前記ADVの位置を特定するために用いられる最適なオフセットを推定することと、
を含むことを特徴とする機器可読メディア。 - 前記複数の畳み込みニューラルネットワークのそれぞれは、同一セットのパラメータを共有し、複数の畳み込み層を含み、前記複数の畳み込み層の中の少なくとも一層は、バッチ正規化及び正規化線形ユニットを用いる3D畳み込み層であることを特徴とする請求項15に記載の機器可読メディア。
- 前記予測ポーズの解空間は、前記オンラインポイントクラウドから選択される1組のキーポイントにより定義される空間を含み、前記1組のキーポイントのそれぞれは、所定数の隣接ポイントと関連付けられるとともに、前記1組のキーポイントの残りのキーポイントと最小距離を有することを特徴とする請求項15に記載の機器可読メディア。
- 前記オンラインポイントクラウド及び前記事前作成されたポイントクラウド地図から抽出された特徴記述子に基づいて前記コストボリュームを作成し、前記オンラインポイントクラウドから抽出されたそれぞれの特徴は、キーポイント及び所定の数の隣接するLIDARポイントに対応することを特徴とする請求項17に記載の機器可読メディア。
- 前記コストボリュームを作成することは、各対の対応する特徴記述子同士のメトリック距離を算出することを更に含み、当該メトリック距離は、多次元ベクトルであり、各要素は、記述子ペアのうち対応する一つからの距離を二乗することによって算出されることを特徴とする請求項17に記載の機器可読メディア。
- 前記コストボリュームを作成することは、
前記解空間を前記1組のキーポイントの1つにそれぞれ対応する複数の離散空間に分割することと、
対応するキーポイント及びそれに関連する隣接するLIDARポイントに占められた空間に基づき、それぞれの離散空間に対してローリング角(X)次元、コース角(Y)次元及びヨー角次元の大きさを決定することと、
前記予測ポーズのための複数の特徴記述子及びそれぞれの離散空間に対するそれぞれの次元の大きさに基づいて前記コストボリュームを作成することと、
を更に含むことを特徴とする請求項15に記載の機器可読メディア。 - 前記コストボリュームのそれぞれのサブボリュームは、前記オンラインポイントクラウドからのその関連する特徴記述子を有するキーポイント、変換及び前記事前作成されたポイントクラウド地図からの対応する特徴記述子と関連付けられることを特徴とする請求項15に記載の機器可読メディア。
- コンピュータプログラムであって、
前記コンピュータプログラムは、プロセッサにより実行されると、請求項1~7のいずれか1項に記載の方法を実行させるコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/073977 WO2020154972A1 (en) | 2019-01-30 | 2019-01-30 | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021515724A JP2021515724A (ja) | 2021-06-24 |
JP7060625B2 true JP7060625B2 (ja) | 2022-04-26 |
Family
ID=71840764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019567358A Active JP7060625B2 (ja) | 2019-01-30 | 2019-01-30 | 自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11531110B2 (ja) |
EP (1) | EP3714290B1 (ja) |
JP (1) | JP7060625B2 (ja) |
KR (1) | KR102292277B1 (ja) |
CN (1) | CN111771141B (ja) |
WO (1) | WO2020154972A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10816354B2 (en) | 2017-08-22 | 2020-10-27 | Tusimple, Inc. | Verification module system and method for motion-based lane detection with multiple sensors |
US11009365B2 (en) | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization |
US11009356B2 (en) | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization and fusion |
US20210118166A1 (en) * | 2019-10-18 | 2021-04-22 | Nvidia Corporation | Pose determination using one or more neural networks |
US10549186B2 (en) * | 2018-06-26 | 2020-02-04 | Sony Interactive Entertainment Inc. | Multipoint SLAM capture |
US11455806B2 (en) | 2019-07-10 | 2022-09-27 | Deka Products Limited Partnership | System and method for free space estimation |
WO2021035471A1 (en) * | 2019-08-26 | 2021-03-04 | Beijing Voyager Technology Co., Ltd. | Systems and methods for positioning a target subject |
CN112444785B (zh) * | 2019-08-30 | 2024-04-12 | 华为技术有限公司 | 一种目标行为识别的方法、装置和雷达系统 |
US11281917B2 (en) * | 2019-10-31 | 2022-03-22 | Aptiv Technologies Limited | Multi-domain neighborhood embedding and weighting of point cloud data |
WO2021112177A1 (ja) * | 2019-12-04 | 2021-06-10 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
EP3893150A1 (en) * | 2020-04-09 | 2021-10-13 | Tusimple, Inc. | Camera pose estimation techniques |
US11741728B2 (en) * | 2020-04-15 | 2023-08-29 | Toyota Research Institute, Inc. | Keypoint matching using graph convolutions |
US11634161B2 (en) * | 2020-06-24 | 2023-04-25 | Woven Planet North America, Inc. | Path planning using delta cost volume generated from movement restrictions and observed driving behavior |
DE102020211636A1 (de) * | 2020-09-17 | 2022-03-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte |
CN112491442B (zh) * | 2020-11-17 | 2021-12-28 | 中山大学 | 一种自干扰消除方法及装置 |
CN112465878B (zh) * | 2021-02-02 | 2021-05-11 | 北京邮电大学 | 一种基于粒子滤波的位置预测方法及设备 |
CN113053123B (zh) * | 2021-03-23 | 2022-10-28 | 长安大学 | 一种基于时空大数据的交通量预测方法及装置 |
US11403817B1 (en) * | 2021-04-14 | 2022-08-02 | Lineage Logistics, LLC | Point cloud filtering |
KR102362509B1 (ko) * | 2021-06-11 | 2022-02-16 | (주)그린공간정보 | 영상도화이미지의 정밀성 향상을 위한 도화오류 자동 검색기능의 영상도화시스템 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018532979A (ja) | 2015-08-03 | 2018-11-08 | トムトム グローバル コンテント ベスローテン フエンノートシャップ | ローカライゼーション基準データを生成及び使用する方法及びシステム |
CN108876831A (zh) | 2018-06-08 | 2018-11-23 | 西北工业大学 | 一种基于深度学习的建筑物三维点云配准方法 |
US20180341263A1 (en) | 2017-05-25 | 2018-11-29 | GM Global Technology Operations LLC | Methods and systems for moving object velocity determination |
JP2018197744A (ja) | 2017-05-22 | 2018-12-13 | 本田技研工業株式会社 | 路面標示を用いた都市環境における位置特定 |
CN109086683A (zh) | 2018-07-11 | 2018-12-25 | 清华大学 | 一种基于点云语义增强的人手姿态回归方法和系统 |
CN112465878A (zh) | 2021-02-02 | 2021-03-09 | 北京邮电大学 | 一种基于粒子滤波的位置预测方法及设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8879828B2 (en) * | 2011-06-29 | 2014-11-04 | Matterport, Inc. | Capturing and aligning multiple 3-dimensional scenes |
GB2501466A (en) * | 2012-04-02 | 2013-10-30 | Univ Oxford | Localising transportable apparatus |
US9953217B2 (en) * | 2015-11-30 | 2018-04-24 | International Business Machines Corporation | System and method for pose-aware feature learning |
US10268901B2 (en) * | 2015-12-04 | 2019-04-23 | Texas Instruments Incorporated | Quasi-parametric optical flow estimation |
KR20170083233A (ko) * | 2016-01-08 | 2017-07-18 | 서울대학교산학협력단 | 지도 기반 이동체 움직임 의도 판단을 활용한 주행 지원 시스템 |
KR20170083662A (ko) * | 2016-01-08 | 2017-07-19 | 서울대학교산학협력단 | 센서 오차에 강건한 지도 작성 장치 |
KR101854048B1 (ko) * | 2016-11-25 | 2018-05-02 | 연세대학교 산학협력단 | 스테레오 매칭 깊이맵의 신뢰도 측정 방법 및 장치 |
CN106845515B (zh) * | 2016-12-06 | 2020-07-28 | 上海交通大学 | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 |
CN108228798B (zh) * | 2017-12-29 | 2021-09-17 | 百度在线网络技术(北京)有限公司 | 确定点云数据之间的匹配关系的方法和装置 |
CN108664122A (zh) * | 2018-04-04 | 2018-10-16 | 歌尔股份有限公司 | 一种姿态预测方法和装置 |
US11188089B2 (en) * | 2018-06-21 | 2021-11-30 | Ford Global Technologies, Llc | Localization for autonomous vehicles using gaussian mixture models |
EP3714285B1 (en) * | 2019-01-30 | 2022-07-27 | Baidu.com Times Technology (Beijing) Co., Ltd. | Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles |
-
2019
- 2019-01-30 US US16/337,390 patent/US11531110B2/en active Active
- 2019-01-30 EP EP19795076.9A patent/EP3714290B1/en active Active
- 2019-01-30 KR KR1020197036957A patent/KR102292277B1/ko active IP Right Grant
- 2019-01-30 WO PCT/CN2019/073977 patent/WO2020154972A1/en unknown
- 2019-01-30 JP JP2019567358A patent/JP7060625B2/ja active Active
- 2019-01-30 CN CN201980002102.8A patent/CN111771141B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018532979A (ja) | 2015-08-03 | 2018-11-08 | トムトム グローバル コンテント ベスローテン フエンノートシャップ | ローカライゼーション基準データを生成及び使用する方法及びシステム |
JP2018197744A (ja) | 2017-05-22 | 2018-12-13 | 本田技研工業株式会社 | 路面標示を用いた都市環境における位置特定 |
US20180341263A1 (en) | 2017-05-25 | 2018-11-29 | GM Global Technology Operations LLC | Methods and systems for moving object velocity determination |
CN108876831A (zh) | 2018-06-08 | 2018-11-23 | 西北工业大学 | 一种基于深度学习的建筑物三维点云配准方法 |
CN109086683A (zh) | 2018-07-11 | 2018-12-25 | 清华大学 | 一种基于点云语义增强的人手姿态回归方法和系统 |
CN112465878A (zh) | 2021-02-02 | 2021-03-09 | 北京邮电大学 | 一种基于粒子滤波的位置预测方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111771141A (zh) | 2020-10-13 |
CN111771141B (zh) | 2024-04-09 |
EP3714290A1 (en) | 2020-09-30 |
KR102292277B1 (ko) | 2021-08-20 |
US11531110B2 (en) | 2022-12-20 |
WO2020154972A1 (en) | 2020-08-06 |
EP3714290A4 (en) | 2020-09-30 |
US20210373161A1 (en) | 2021-12-02 |
JP2021515724A (ja) | 2021-06-24 |
EP3714290B1 (en) | 2022-08-03 |
KR20200096408A (ko) | 2020-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7060625B2 (ja) | 自動運転車において3dcnnネットワークを用いてソリューション推断を行うlidar測位 | |
JP7086111B2 (ja) | 自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 | |
JP7256758B2 (ja) | 自動運転車両においてrnnとlstmを用いて時間平滑化を行うlidar測位 | |
JP6738932B2 (ja) | シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法 | |
JP6967051B2 (ja) | 自動運転車両のための人間の運転行動を模倣する2段階基準線平滑化方法 | |
JP7086911B2 (ja) | 自動運転車両のためのリアルタイム意思決定 | |
JP6644742B2 (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
JP6722312B2 (ja) | 自動運転に用いられる感知と計画のコラボレーションフレームワーク | |
JP6722280B2 (ja) | 自律走行車の交通予測における予測軌跡の評価フレームワーク | |
JP7222868B2 (ja) | オブジェクト挙動のリアルタイム予測 | |
CN111380534B (zh) | 用于自动驾驶车辆的基于st图学习的方法 | |
JP2021515282A (ja) | 自動運転車のためのリアルタイム地図生成システム | |
CN110239562A (zh) | 自动驾驶车辆的基于周围车辆行为的实时感知调整与驾驶调适 | |
JP2020001678A (ja) | 重み付け幾何学的コストを有する区分的螺旋曲線を使用した基準線平滑化方法 | |
CN112146680B (zh) | 基于特征图确定消失点 | |
JP2020083310A (ja) | 車両挙動予測のための圧縮環境特徴の表示 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200605 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220414 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7060625 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |