Nothing Special   »   [go: up one dir, main page]

JP2021508814A - LiDARを用いた車両測位システム - Google Patents

LiDARを用いた車両測位システム Download PDF

Info

Publication number
JP2021508814A
JP2021508814A JP2018567033A JP2018567033A JP2021508814A JP 2021508814 A JP2021508814 A JP 2021508814A JP 2018567033 A JP2018567033 A JP 2018567033A JP 2018567033 A JP2018567033 A JP 2018567033A JP 2021508814 A JP2021508814 A JP 2021508814A
Authority
JP
Japan
Prior art keywords
representation
vehicle
resolution
point cloud
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018567033A
Other languages
English (en)
Inventor
シン・ニアン
ル・フェン
テン・マ
Original Assignee
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド, ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド filed Critical ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Publication of JP2021508814A publication Critical patent/JP2021508814A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

本開示の実施形態は、車両を測位するシステム及び方法を提供する。システムは、車両に設けられたセンサによって捕捉されたシーンに関する点群を受信するように構成される通信インタフェースを含む。システムは、点群及び高精度地図を記憶するように構成されるストレージをさらに含む。また、システムは、プロセッサを含む。プロセッサは、点群の第1の3D表現を作成し、シーンに関して高精度地図の第2の3D表現を作成するように構成される。プロセッサは、第1の3D表現と第2の3D表現とを比較することによって車両の姿勢情報を決定するようにさらに構成される。プロセッサは、姿勢情報に基づいて車両の位置を決定する。

Description

本開示は光検出と測距(LiDAR)を用いた測位システム及び方法に関し、より詳細には、LiDARデータと高精度地図との間のボクセルマッチング法を用いて車両の位置を推定する測位システム及び方法に関する。
自律運転及びロボットナビゲーション技術は正確な測位に大きく依存する。例えば、車両を高精度で測位することは、自律運転にとって重要である。全地球測位システム(GPS)又は慣性計測ユニット(IMU)を使用するなどの従来の測位方法は、自律運転によって要求される十分な測位精度を提供しない。例えば、GPS測位の精度は、一般的に数メートルのオーダーである。いずれも測位誤差をセンチメートル以内にする必要がある、車両を車線の間に測位するか又は車両の前に歩行者を測位するなどの自動運転制御には十分に正確ではないことが多い。また、GPS信号は常に利用可能ではない。例えば、GPS信号は、車両がトンネル内又は高層ビル付近にあるときに弱いか又は失われることが多い。さらに、IMUによる測定誤差は通常時間又は距離とともに累積し、測位の不正確さをもたらす。
高解像度地図は、それらが周囲を走行するときに車両上の様々なセンサ、検出器及び他の装置によって取得された画像及び情報を集約することによって取得され得る。例えば、車両は、車両が走行している道路又は周囲の物体の特徴を捉えるために、LiDAR、GPS受信機、一つ以上のIMUセンサ及び一つ以上のカメラなどの複数の集積センサを備えてもよい。高精度地図は、調査車両の対応する三次元(3D)姿勢情報(例えば、位置及び向き)に基づいて複数の点群(ポイントクラウド)フレームを集約することによって得ることができる。
高精度地図に基づいて、車両は、特徴マッチングと、カメラ画像及びGPS/IMU信号などのリアルタイムなセンサ測定との融合とによって測位され得る。しかしながら、測位結果は、例えば、カメラ画像を撮影するときの照明条件とセンサ測定におけるノイズの影響を受けることが多い。別の高精度測位方法は、LiDARによって捕捉されたリアルタイム点群をポイントツーポイントで高精度地図とマッチングさせる。しかしながら、そのような方法は、処理される必要があるデータ量及びアルゴリズムの複雑さを考えると、計算のコストが高い。さらに、車両の実際の位置に十分に近い初期位置を必要とする。別の方法は、点群をセグメント化し、そのセグメントから特徴を抽出し、その特徴を高精度地図から抽出された特徴とマッチングさせる。この方法は通常リアルタイムに実行できず、測定ノイズに敏感である。
本開示の実施態様は、改善された車両測位システム及び方法によって上記問題に対処する。
本開示の実施態様は、車両を測位するシステムを提供する。システムは、前記車両に設けられたセンサによって捕捉されたシーンに関する点群を受信するように構成される通信インタフェースを含む。システムは、前記点群及び高精度地図を記憶するように構成されるストレージをさらに含む。システムは、プロセッサをさらに含む。前記プロセッサは、前記点群の第1の3D表現を作成し、前記シーンに関して前記高精度地図の第2の3D表現を作成するように構成される。前記プロセッサは、前記第1の3D表現と前記第2の3D表現とを比較することによって前記車両の姿勢情報を決定するようにさらに構成される。前記プロセッサは、前記姿勢情報に基づいて前記車両の位置を決定する。
また、本開示の実施態様は、車両を測位する方法を提供する。方法は、前記車両に設けられたセンサによって捕捉されたシーンに関する点群を受信することを含む。方法は、プロセッサにより、前記点群の第1の3D表現を作成することと、前記プロセッサにより、前記シーンに関して高精度地図の第2の3D表現を作成することとをさらに含む。本方法は、前記プロセッサにより、前記第1の3D表現と前記第2の3D表現とを比較することによって前記車両の姿勢情報を決定することと、前記姿勢情報に基づいて前記車両の位置を決定することとをさらに含む。
さらに、本開示の実施態様は、一つ以上のプロセッサによって実行されたときに、前記一つ以上のプロセッサに動作を実行させる命令を記憶した非一時的コンピュータ可読記憶媒体を提供する。前記動作は、前記車両に設けられたセンサによって捕捉されたシーンに関する点群を受信することを含む。前記動作は、前記点群の第1の3D表現を作成することと、前記シーンに関して高精度地図の第2の3D表現を作成することとをさらに含む。前記動作は、前記第1の3D表現と前記第2の3D表現とを比較することによって車両の姿勢情報を決定することと、前記姿勢情報に基づいて前記車両の位置を決定することとをさらに含む。
前述の一般的な説明及び以下の詳細な説明は、例示的かつ説明的なものに過ぎず、特許請求される本発明を限定するものではないことを理解されたい。
本開示の実施形態に係る、センサを有する例示的な車両の概略図を示す。 本開示の実施形態に係る、リアルタイム点群データに基づいて車両を測位するための例示的な測位サーバのブロック図を示す。 本開示の実施形態に係る、点群データの例示的な3D表現を示す。 本開示の実施形態に係る、車両を測位するための例示的な方法のフローチャートを示す。 本開示の実施形態に係る、例示的なボクセルマッチング法のフローチャートを示す。
ここで例示的な実施形態を詳細に参照するが、それらの実施例は添付の図面に示される。可能な限り、同じ又は同様の部分を指すために図面全体にわたって同じ符号を使用する。
図1は、本開示の実施形態に係る、複数のセンサを有する例示的な車両100の概略図を示す。いくつかの実施形態によれば、車両100は高解像度地図の構築又は三次元(3D)都市モデリングのためのデータを取得するように構成される調査車両であり得る。車両100は、電気車両、燃料電池車両、ハイブリッド車両、又は従来の内燃機関車両であり得ることが企図される。車両100は、本体部110及び少なくとも一つの車輪120を有し得る。本体部110は、スポーツ車両、クーペ、セダン、ピックアップトラック、ステーションワゴン、スポーツユーティリティビークル(SUV)、ミニバン、又はコンバージョンバンなどの任意の本体部スタイルであり得る。いくつかの実施形態では、車両100は、図1に示すように、一対の前輪及び一対の後輪を含み得る。しかしながら、車両100は、車両100が動き回ることを可能にするより少ない車輪又は同等の構造を有し得ることが企図される。車両100は、全輪駆動(AWD)、前輪駆動(FWR)、又は後輪駆動(RWD)であるように構成されてもよい。いくつかの実施形態では、車両100は、車両を占有する運転者によって操作され、遠隔制御され、及び/又は自律的であるように構成され得る。
図1に示すように、車両100は、取り付け構造130を介して本体部110に取り付けられたLiDAR140を備え得る。取り付け構造130は、車両100の本体部110に取り付けられるか又は別の方法で取り付けられる電気機械装置であってもよい。いくつかの実施形態では、取り付け構造130は、ねじ、接着剤、又は別の取り付け機構を使用し得る。車両100は、任意の適切な取り付け機構を使用して、本体部110の内側又は外側にGPS/IMU150をさらに備えてもよい。車両100がLiDAR140又はGPS/IMU150を備えてもよい様態は、図1に示される実施例に限定されず、望ましい感知性能を達成するように変更され得ることが企図される。
いくつかの実施形態では、LiDAR140及びGPS/IMU150は、車両100が軌道に沿って移動するときにデータを捕捉するように構成されてもよい。本開示によれば、LiDAR140は、周囲を走査して点群を取得するように構成されてもよい。LiDARはターゲットにパルスレーザ光を照射し、反射パルスをセンサで測定することによってターゲットまでの距離を測定する。その後、レーザの戻り時間の差及び波長を使用してターゲットのデジタル3D表現を作成することができる。LIDAR走査に使用される光は、紫外線、可視線、又は近赤外線であり得る。狭いレーザビームは非常に高い解像度で物理的特徴をマッピングすることができるので、LiDARスキャナは特に高解像度地図の調査に適する。いくつかの実施形態では、LiDARスキャナは点群を捕捉してもよい。車両100が軌道に沿って移動すると、LiDAR140は複数の時点で一連の点群(それぞれがある時点で取得された点群フレームと呼ばれる)を取得することができる。
図1に示すように、車両100は、GPS受信機及び一つ以上のIMUセンサなどの車両100の測位のためのナビゲーションユニットにおいて使用されるセンサを含み得る、GPS/IMU150をさらに備えてもよい。GPSは、GPS受信機に地理位置情報及び時間情報を提供する全地球航法衛星システムである。IMUは、加速度計及びジャイロスコープなどの様々な慣性センサ、場合によっては磁力計を使用して、車両の特定力、角速度、場合によっては車両の周囲の磁場を測定し、提供する電子装置である。GPS受信機とIMUセンサとを組み合わせることによって、GPS/IMU150は、各時点での車両100の位置及び向き(例えば、オイラー角)を含む、走行するときの車両100のリアルタイム姿勢データを提供することができる。
本開示によれば、車両100は、地図サーバ170及び測位サーバ180と通信する車両100の本体部110の内部にローカルコントローラ160を含むことができる。いくつかの実施形態では、地図サーバ170及び測位サーバ180の各々は、ローカル物理サーバ、クラウドサーバ(図1に示す)、仮想サーバ、分散サーバ、又は任意の他の適切なコンピューティング装置であり得る。地図サーバ170及び測位サーバ180は、無線ローカルエリアネットワーク(WLAN)、ワイドエリアネットワーク(WAN)、電波などの無線ネットワーク、セルラーネットワーク、衛星通信ネットワーク、及び/又はローカル又は短距離無線ネットワーク(例えば、Bluetooth(登録商標))などのネットワークを介して車両100のLiDAR140、GPS/IMU150及び/又は他のコンポーネントと通信することができる。例えば、地図サーバ170及び測位サーバ160は、LiDAR140及びGPS/IMU150からセンサ測定を受信してもよい。地図サーバ170と測位サーバ180も、互いに通信することができる。例えば、測位サーバ180は、地図サーバ170から高精度地図又はそのいくつかの部分を受信し得る。
本開示によれば、コントローラ160及び測位サーバ180は、LiDAR140によって捕捉された点群とGPS/IMU150によって捕捉された姿勢データに基づいて車両100の姿勢情報の推定を個別に又は集合的に実行することができる。いくつかの実施形態では、コントローラ160又は測位サーバ180は、GPS/IMU150によって提供される初期位置情報に基づいて地図サーバ170から高精度地図を取り出し、高精度地図の3D表現を作成することができる。コントローラ160又は測位サーバ180はまた、LiDAR140によって取得された点群を受信し、点群の3D表現を作成することができる。点群及び高精度地図の3D表現は、データを「ボクセル化」することによって作成することができる。コントローラ160又は測位サーバ180は、3D表現に対してボクセルマッチング法を実行して車両100の姿勢情報を最適化することができる。車両100は、最適化された姿勢情報に基づいて測位され得る。いくつかの実施形態では、点群及び高精度地図は、複数の解像度でボクセル化してもよく、ボクセルマッチング法はまず低い解像度で3D表現に対して実行され、方法が高い解像度で3D表現に対して実行されるとき、得られた姿勢情報は初期推定として使用される。開示されたシステム及び方法は、改善された精度及び低減された計算コストを提供する。
例えば、図2は、本開示の実施形態に係る、リアルタイム点群データに基づいて車両を測位するための例示的な測位サーバ180のブロック図を示す。本開示によれば、測位サーバ180は、車両姿勢推定のために様々なタイプのデータを使用し得る。様々なタイプのデータは、車両100が軌道に沿って移動するときに、車両100の周囲のシーンに関して車両100に設けられたLiDAR140及びGPS/IMU150によって捕捉され得る。データは、様々な時点での複数の点群フレームからなるLiDAR140によって捕捉された点群201を含んでもよい。データはまた、GPS/IMU150によって取得された車両100の初期姿勢データ203を含んでもよい。いくつかの実施形態では、点群201は、GPS受信機及びIMUセンサからの初期姿勢データ203に基づいてネイティブLiDARデータをローカル座標系からグローバル座標系(例えば、経度/緯度座標)に変換することによって較正され得る。
車両姿勢推定のために測位サーバ180に提供されるデータは、地図サーバ170によって提供される高精度地図205をさらに含む。高精度地図205は、調査領域の特徴を捕捉するために派遣された調査車両上の様々なセンサ、検出器、及び他の装置によって取得された画像及び情報を集約することによって構築され得る。いくつかの実施形態では、高精度地図205は、より大きい高精度地図、例えば、ローカル高精度地図の一部であり得る。地図サーバ170はまた、GPS/IMU150から姿勢データ203を受信し、姿勢データ203に対応するシーンの高精度地図205を取り出すことができる。
いくつかの実施形態では、図2に示すように、測位サーバ180は、通信インタフェース202、プロセッサ204、メモリ206、及びストレージ208を含み得る。いくつかの実施形態では、測位サーバ180は、集積回路(IC)チップ(特定用途向け集積回路(ASIC)又はフィールドプログラマブルゲートアレイ(FPGA)として実装される)などの単一の装置内の異なるモジュール、又は専用機能を有する別個の装置を有し得る。いくつかの実施形態では、測位サーバ180の一つ以上のコンポーネントは、車両100の内部に配置され得るか、又は代替的に、モバイル装置内、クラウド内、又は別の遠隔位置にあり得る。測位サーバ180のコンポーネントは、集積装置内にあってもよく、又は異なる位置に分散するが、ネットワーク(図示せず)を介して互いに通信してもよい。例えば、プロセッサ204は、プロセッサ搭載車両100、モバイル装置内のプロセッサ、又はクラウドプロセッサ、又はそれらの任意の組み合わせであり得る。
通信インタフェース202は、例えば、通信ケーブル、無線ローカルエリアネットワーク(WLAN)、ワイドエリアネットワーク(WAN)、電波ネットワーク、セルラーネットワーク及び/又はローカル無線ネットワーク(例えば、Bluetooth(登録商標)又はWi−Fi(登録商標))などの無線ネットワーク、又は他の通信方法を介して、LiDAR140及びGPS/IMU150などのコンポーネントと地図サーバ170に対してデータを送受信し得る。いくつかの実施形態では、通信インタフェース202は、データ通信接続を提供するために、総合サービスデジタルネットワーク(ISDN)カード、ケーブルモデム、衛星モデム、又はモデムであり得る。別の例として、通信インタフェース202は、互換性のあるLANへのデータ通信接続を提供するためのローカルエリアネットワーク(LAN)アダプタであってもよい。無線リンクはまた、通信インタフェース202によって実装され得る。そのような実装形態では、通信インタフェース202は、様々なタイプの情報を表すデジタルデータストリームを搬送する電気、電磁、又は光信号を送受信することができる。
いくつかの実施形態によれば、通信インタフェース202は、点群201及び初期姿勢データ203を含む、LiDAR140及びGPS/IMU150によって捕捉されたデータを受信することができる。通信インタフェース202はさらに、地図サーバ170から高精度地図205を受信することができる。受信されたデータは、記憶のためにメモリ206及び/又はストレージ208に提供されてよく、又は処理のためにプロセッサ204に提供されてもよい。通信インタフェース202はまた、プロセッサ204によって生成された最適化された姿勢情報を受信し、通信リンクを介して車両100内の任意のローカルコンポーネント又は任意の遠隔装置に姿勢情報を提供することができる。
プロセッサ204は、任意の適切なタイプの汎用又は専用マイクロプロセッサ、デジタル信号プロセッサ、又はマイクロコントローラを含み得る。プロセッサ204は、車両姿勢推定専用の単独のプロセッサモジュールとして構成され得る。代替的に、プロセッサ204は、車両姿勢推定とは無関係の他の機能を実行することもできる共有プロセッサモジュールとして構成され得る。
図2に示すように、プロセッサ204は、3D表現生成ユニット210、ボクセルマッチングユニット212、測位ユニット214、姿勢情報推定ユニット216などの複数のモジュール/ユニットを含み得る。これらのモジュール/ユニット(及び任意の対応するサブモジュール又はサブユニット)は、他のコンポーネントとともに使用するために、又はプログラムの少なくとも一部を実行するために設計されたプロセッサ204のハードウェアユニット(例えば、集積回路の部分)であり得る。プログラムは、コンピュータ可読記憶媒体に記憶されてもよく、プロセッサ204によって実行されると、一つ以上の機能又は動作を実行することができる。図2は、一つのプロセッサ204内の全てのユニット210−216を示すが、これらのユニットは、互いに近接して又は離れて配置された複数のプロセッサ間に分散されてもよいことが企図される。
3D表現生成ユニット210は、点群201の3D表現を作成するように構成され得る。いくつかの実施形態では、3D表現生成ユニット210は、点群201の3D空間をいくつかのボクセルに分割し得る。例えば、図3は、本開示の実施形態に係る、点群201の例示的な3D表現を示す。図3に示すように、3D表現310は、複数のボクセル320を含む。各ボクセルは、例えば、局所的な3D表面特徴分布を含む一組のボクセル値によって特徴付けられる。いくつかの実施形態では、ボクセル値はまた、平均強度値とx、y、及びz方向に沿ったその3D分布とを含む。例えば、強度値の3D分布は、ガウス/正規分布であってもよい。
したがって、ボクセル320は、3D空間情報ならびに点群強度分布を含むことができる。点群を直接マッチングする方法と比較して、そのようなボクセルを含む3D表現をマッチングすることは、測位精度を向上させることができる。
いくつかの実施形態では、3D表現ユニット210はさらに、第2の3D表現、すなわち、高精度地図205の少なくとも一部の3D表現を作成するように構成され得る。高精度地図205は、調査中に取得された点群データを含み得る。したがって、高精度地図205の3D表現は、図3に関連して上述したと同じ方法を使用して作成され得る。
再び図2を参照すると、ボクセルマッチングユニット212は、点群201の3D表現と高精度地図205の対応する3D表現との間のボクセルマッチング動作を実行するように構成され得る。いくつかの実施形態では、ボクセルマッチングは、点群201の3D表現と高精度地図205の対応する3D表現との最小差に対応する車両100の最適化された姿勢情報を見つけ得る。例えば、この差は、二つの表現の対応するボクセル間の差の合計差として計算することができる。いくつかの実施形態では、差はまた、逆に、二つの表現のボクセル間の類似度によって特徴付けられ得る。ボクセルマッチングユニット212は、この類似度を最大化するために最適化問題を解くことができる。最適化問題を解くために、ニュートン反復法などの反復法を実施することができる。
いくつかの実施形態では、初期姿勢情報Tは、最適化問題を解くとき、第1の反復の開始点(初期推定とも呼ばれる)として使用され得る。例えば、T=(x、y、z、row、pitch、yaw)であり、ここでx、y、及びzは、車両位置の三次元座標であり、row、pitch、及びyawは、車両姿勢を示す。3D表現は、最初に初期姿勢情報Tに基づいて作成することができる。
いくつかの実施形態では、Tは、前の点群フレームについて取得された姿勢情報を使用して姿勢情報推定ユニット216によって推定され得る。最適化処理の間に、姿勢情報Tは、所定の探索空間X、Y、Z、ROLL、PITCH、YAW内で反復的に改良することができる。最適化された姿勢Tは、最適化コスト関数がいくつかの所定の停止基準を満たした後に得ることができる。例えば、停止基準は、マッチング最大値Thm及び/又は計算時間最大値Thtを含み得る。類似度LがThmを超える(すなわち、点群データ201と高精度地図205の対応するボクセルの間の類似度がThmより大きい)場合、又は計算時間がThtを超える場合、反復処理は停止してもよく、最後に更新された姿勢情報は、現在の点群フレームに関連する最適化された点群姿勢情報Tとして使用されてもよい。
いくつかの実施形態では、点群姿勢情報Tが利用可能になった後、測位ユニット214は次いで、ボクセルマッチングユニット212によって取得された点群姿勢情報Tを、GPS/IMU150によって提供される初期姿勢データ203とマージし得る。例えば、点群姿勢情報Tと初期姿勢データ203は、アンセンテッドカルマンフィルタ(UKF)方法を使用してマージされて、フィルタリングされた姿勢情報T’を生成し得る。UKF法は、アンセンテッド変換(UT)と呼ばれる決定論的サンプリング技術を使用して事後平均の周りのサンプルポイント(シグマポイントと呼ばれる)の最小セットを選択する。次いで、シグマポイントは非線形関数を介して伝播され、そこから新しい事後平均及び共分散推定が形成される。得られるUKFフィルタは、真の平均及び共分散をより正確に推定することができる。姿勢推定のためにいくつかの既存のナビゲーションシステムによって使用された拡張カルマンフィルタ(EKF)と比較して、UKFは、ヤコビアンを計算せず、したがって、前状態の不確実性の非線形性及び広がりに理論的に優れるという利点を有する。本開示によれば、測位ユニット214は、フィルタリングされた姿勢情報T’を使用して車両100を測位することができる。
いくつかの実施形態では、姿勢情報推定ユニット216は、測位ユニット214によって現在の点群フレームについて決定されたフィルタリングされた姿勢情報T’に基づいて、次の点群フレームについての初期姿勢情報Tを推定し得る。いくつかの実施形態では、姿勢情報推定ユニット216は、点群フレーム間の姿勢変化に基づいてTを推定することができる。例えば、姿勢情報推定ユニット216は、各点群フレーム内の点の3D座標及びそれらの関連する属性(例えば反射レーザ強度)に基づいて、隣接する点群フレーム間の姿勢変化を計算することができる。他の例として、姿勢情報推定ユニット216は、点群フレームに対応して得られた姿勢データ203間の姿勢変化を算出してもよい。
推定された初期姿勢情報Tは、次の点群フレームについて最適化された姿勢情報Tを推定するためにボクセルマッチングユニット212に提供されてもよい。初期姿勢情報Tは現在の点群フレームについて最適化されたTに基づいて推定されるので、初期推定として十分に正確であり、したがって最適化処理が迅速に収束することに役立つことができる。
本開示によるいくつかの実施形態では、点群201及び高精度地図205は、異なる解像度でボクセル化してもよい。例えば、3D表現生成ユニット210は、それぞれの3D表現において異なるサイズのボクセル320を有する点群201のための複数の3D表現を生成してもよい。多重解像度ボクセル化が3D表現生成ユニット210によって実装されるとき、マッチング動作のためにボクセルマッチングユニット212によって使用される対応する点群と高精度地図の3D表現は同じ解像度である。
いくつかの実施形態では、3D表現生成ユニット210は、第1の解像度Rで点群201及び高精度地図205の3D表現を生成することができる。Rは、比較的低い解像度、すなわち、比較的大きいボクセルサイズを有する3D表現であり得る。ボクセルマッチングユニット212及び測位ユニット214は、最初に低解像度の3D表現に基づいて車両100を測位することができる。解像度Rで得られる姿勢情報は、車両の位置の大まかな推定であり得る。次いで、3D表現生成ユニット210は、解像度Rより高い第2の解像度Rで点群201及び高精度地図205の3D表現を生成することができる。解像度Rでの3D表現を使用して車両を測位するとき、解像度Rでの推定姿勢情報は、初期推定として使用される。
推定処理がますます高い解像度で繰り返されるに連れて、車両100の推定位置の精度も向上させることができる。より低い解像度で推定された姿勢情報は十分に正確な初期推定を提供することができるので、多重解像度ボクセル化手法は、処理が収束する前に必要とされるかなりの数の反復を省き、したがって計算速度を向上させることができる。
メモリ206及びストレージ208は、プロセッサ204が処理する必要があり得る任意のタイプの情報を記憶するために提供される任意の適切なタイプのストレージ装置を含み得る。メモリ206及びストレージ208は、ROM、フラッシュメモリ、ダイナミックRAM及びスタティックRAMを含むがこれらに限定されない揮発性又は不揮発性、磁気、半導体ベース、テープベース、光学、リムーバブル、ノンリムーバブル、又は他のタイプのストレージ装置又は有形(すなわち、非一時的)コンピュータ可読記憶媒体であってもよい。メモリ206及び/又はストレージ208は、本明細書で開示される車両姿勢推定機能を実行するためにプロセッサ204によって実行され得る一つ以上のコンピュータプログラムを記憶するように構成され得る。例えば、メモリ206及び/又はストレージ208は、車両100が軌道に沿って移動するときにプロセッサ204によって実行されてLiDAR140及び/又はGPS/IMU150を制御して様々なタイプのデータを捕捉し、捕捉されたデータを処理して車両100の姿勢情報を推定することができるプログラムを記憶するように構成され得る。
メモリ206及び/又はストレージ208はさらに、プロセッサ204によって使用される情報及びデータを記憶するように構成され得る。例えば、メモリ206及び/又はストレージ208は、LiDAR140及びGPS/IMU150によって捕捉された様々なタイプのデータ及び推定姿勢情報を記憶するように構成され得る。様々なタイプのデータは、データの各フレームが処理された後に、恒久的に記憶され、定期的に除去されるか、又は直ちに無視され得る。
図4は、本開示の実施形態に係る、車両100を測位するための例示的な方法400のフローチャートを示す。例えば、方法400は、特に、コントローラ160、地図サーバ170、測位サーバ180、LiDAR140及びGPS/IMU150を含む、車両100の車両姿勢推定システムによって実装され得る。しかしながら、方法400は、この例示的な実施形態に限定されない。
方法400は、以下で説明するように、ステップS402−S416を含み得る。本明細書で提供される開示を実行するために、ステップのいくつかは任意選択であり得ることを理解されたい。さらに、ステップのいくつかは、同時に又は図4に示されるものとは異なる順序で実行され得る。
ステップS402において、時点tでシーンに関して点群フレームPC(例えば点群201)を捕捉することができる。例えば、点群フレームPCは、LiDAR140により捕捉されてもよい。いくつかの実施形態では、車両100の初期姿勢データIP(例えば、初期姿勢データ203)も、時点tにおいて捕捉され得る。例えば、初期姿勢データIPは、GPS/IMU150によって捕捉されてもよい。初期姿勢データIPは、同じ時点で捕捉されたときに点群フレームPCに対応し得る。いくつかの実施形態では、捕捉された初期姿勢データIP及び点群フレームPCは、測位サーバ180に送信され、それにより受信され得る。
ステップS404において、初期姿勢データIPに基づいて、地図サーバ170から高精度地図(例えば、高精度地図205)を得ることができる。初期姿勢データIPは、その対応する点群フレームPCのおおよその位置を提供するので、地図サーバ170は、以前に構築された高精度地図の関連部分、例えばシーンを含む高精度地図の部分を選択することができる。いくつかの実施形態では、高精度地図は、測位サーバ180によって受信されてもよい。
ステップS406−S410において、測位サーバ180は、ボクセルマッチング法を使用して車両100の姿勢情報Tを最適化することができる。姿勢情報Tを最適化するために、測位センサ180は、ステップS402で取得された点群フレームPCをステップS404で取得された高精度地図の点群データとマッチングさせるために、所定の空間X、Y、Z、ROLL、PITCH、YAWを探索し得る。本開示によれば、測位サーバ180は、点群フレームPCと高精度地図の対応する点群データの3D表現を生成し、二つの3D表現の間の差を減らす最適化推定姿勢を決定することができる。
いくつかの実施形態では、測位サーバ180は、R及びRなどの複数の解像度でボクセルマッチングを実行することができ、ここで解像度Rが解像度Rより高い。多重解像度手法が使用されるとき、ボクセルマッチングは同じ解像度で第1の3D表現(例えば、点群フレームの3D表現)と第2の3D表現(例えば、高精度地図の3D表現)との間で実行され得る。いくつかの実施形態では、ボクセルマッチングは、より低い解像度からより高い解像度まで実行され得る。例えば、S408において、最も低い解像度を使用して、姿勢情報最適化動作を実行することができる。次に、ステップS410において、全ての解像度が処理されたか否かを判断する。そうでない場合、方法400の処理は、ボクセルマッチングのために次の最も低い解像度が選択される(最初に、「次の」最も低い解像度は最も低い解像度、例えばRであり得る)ステップS406に戻る。ステップS408において、測位サーバ180は、選択された解像度で点群フレームと高精度地図の3D表現のボクセルマッチングを実行することができる。
図5は、本開示の実施形態に係る、例示的なボクセルマッチング法500のフローチャートを示す。方法500は、方法400のステップS408を実行するために、測位サーバ180によって実装され得る。しかしながら、ステップS408は、方法500の実装形態に限定されない。方法500は、以下で説明するように、ステップS502−S516を含み得る。本明細書で提供される開示を実行するために、ステップのいくつかは任意選択であり得ることを理解されたい。さらに、ステップのいくつかは、同時に又は図5に示されるものとは異なる順序で実行され得る。
ステップS502において、姿勢Tは姿勢情報Tの初期推定として設定することができる。例えば、T=(x、y、z、row、pitch、yaw)であり、ここでx、y、及びzは、車両位置の三次元座標であり、row、pitch、及びyawは、車両姿勢を示す。いくつかの実施形態では、Tは、前の点群フレーム(例えば、時点tに対応するPC)について取得された姿勢情報を使用して姿勢情報推定ユニット216によって推定され得る。多重解像度手法が使用されるとき、計算速度を改善するために、より低い解像度の最適化された姿勢情報を初期姿勢Tとして使用することができる。
ステップS504において、マッチング閾値Thm及び時間閾値Thtを設定することができる。いくつかの実施形態では、マッチング閾値Thmと時間閾値Thtの両方は、停止基準の一部であり得る。Thmは姿勢情報Tを最適化するために使用されるコスト関数Lの最大値である。Thtは計算時間の最大値である。コスト関数Lの値がThmを超える場合、又は計算時間がThtを超える場合、最適化処理は停止され得る(ステップS512を参照)。
ステップS506において、測位サーバ180は、初期姿勢情報Tに基づいて、選択された解像度で点群フレームPCの第1の3D表現及び高精度地図の第2の3D表現を生成することができる。いくつかの実施形態では、3D表現を生成するために、3D表現生成ユニット210は、図3に示すように、点群データの3D空間をいくつかのボクセル320に分割することができる。各ボクセルは、例えば、局所的な3D表面特徴分布と、平均強度値と、x、y、及びz方向に沿ったその3D分布とを含む一組のボクセル値によって特徴付けられる。
ステップS508において、選択された解像度の3D表現のボクセル値分布を決定することができる。いくつかの実施形態では、ボクセル値(例えば、強度値)の3D分布は、式(1)−(3)を用いて特徴付けられるガウス/正規分布であり得る。
ここで、pはボクセル内の点iの3D座標と点iにおける強度値であり、μは、ガウス分布N(μ,Σ)の平均値であり、Σはガウス分布の分散である。
ステップS510において、測位センサ180は、二つの3D表現のボクセル値分布間の類似度を計算することができる。例えば、類似度Lは、以下の式(4)を用いて求めることができる:
ここで、μとΣは、それぞれボクセルのガウス分布の平均ベクトルと分散行列である。姿勢情報Tは、この類似度を最大化することによって最適化される。
いくつかの実施形態では、ニュートン反復法などの反復法が、最適化問題を解くために実装され得る。各反復中に、コスト関数(例えば、L)の値及び計算時間が追跡される。ステップS512において、コスト関数Lの値がThmを超えた場合、又は計算時間がThtを超えた場合(S508:はい)、停止基準が満たされたと考えられ、反復過程が収束したと考えられる。したがって、ボクセルマッチングユニット212は最適化を停止し、最新の姿勢情報Tを最適化された姿勢として測位ユニット214に提供する。
一方、L>ThmもT>Thtも満たされない場合(S508:いいえ)、方法500はS514に進み、さらに姿勢Tを更新する。いくつかの実施形態では、点群フレームと高精度地図の3D表現の間の差をさらに減らすために姿勢Tを改良することができる。更新された姿勢Tを用いて、方法500は別の反復のためにステップS506に戻る。例えば、ステップS506及びS508において、測位サーバ180は、点群フレーム及び高精度地図の3D表現を生成し、最新の姿勢Tに基づいてボクセル値分布を決定することができる。
図4に戻って参照すると、ステップS410において、全ての解像度が処理されたか否かを判断する。そうでない場合(S410:いいえ)、方法400はS406に戻り、ボクセルマッチングのために次の最も低い解像度を選択する。例えば、解像度Rが処理された後、解像度Rは次の最も低い解像度になり、ステップS406において選択され得る。したがって、解像度Rでの第1と第2の3D表現をステップS408において比較してマッチングして選択された解像度で最適化された姿勢Tを決定することができる。
全ての解像度が処理された場合(S410:はい)、方法400はステップS412に進み、点群フレームPCの最適化された姿勢情報Tと対応する初期姿勢データIPとをフィルタリングしてマージする。例えば、測位サーバ180は、UKF法を使用して点群姿勢情報Tと初期姿勢データ203をフィルタリングしてマージし、マージされた姿勢情報T’を取得することができる。ステップS414において、マージされた姿勢情報T’に基づいて、車両100を高精度地図に測位することができる。
いくつかの実施形態では、マージされた姿勢情報T’をさらに利用して、次の点群フレームに推定姿勢情報を提供することができる。例えば、ステップS412で取得されたマージされた姿勢情報T’は時点tで捕捉された点群フレームPCに対応する場合、測位サーバ180は次の時点tで捕捉された点群フレームPCの姿勢情報を推定し得る。推定姿勢情報は、点群フレームPCに対応する最適化された姿勢情報Tを見つけるために姿勢Tの初期推定として提供され得る。
いくつかの実施形態では、姿勢情報推定ユニット216は、それぞれ時点tとtで捕捉された点群フレームPCと点群フレームPCとの間の姿勢変化に基づいて姿勢情報を推定することができる。例えば、姿勢情報推定ユニット216は、各点群フレーム内の点の3D座標及びそれらの関連する属性(例えば反射レーザ強度)に基づいて姿勢変化を計算することができる。一例では、四次元(4D)正規分布変換(NDT)を使用して、各点のX、Y、及びZ座標と反射層強度とに基づいて姿勢変化を計算することができる。4D NDTは、単一の点群フレームから再構築された3D点の離散セットを、3D空間で定義された区分的に連続で微分可能な確率密度に変換する。確率密度は、容易に計算できる一組の正規分布からなることができる。確率密度分布は、対応する点群フレームの点群姿勢情報を表すために使用され得る。別の例として、姿勢情報推定ユニット216は、それぞれ時点tとtにおいて捕捉された初期姿勢データIPとIPとの間の姿勢変化を計算し得る。
本開示の別の態様は、実行されると、上述のように一つ以上のプロセッサに方法を実行させる命令を記憶する非一時的コンピュータ可読記憶媒体に関する。コンピュータ可読記憶媒体は、揮発性又は不揮発性、磁気、半導体ベース、テープベース、光学、リムーバブル、ノンリムーバブル、又は他のタイプのコンピュータ可読記憶媒体又はコンピュータ可読ストレージ装置であり得る。例えば、コンピュータ可読記憶媒体は、開示されるように、コンピュータ命令を記憶したストレージ装置又はメモリモジュールであり得る。いくつかの実施形態では、コンピュータ可読記憶媒体は、コンピュータ命令を記憶したディスク又はフラッシュドライブであり得る。
開示されたシステム及び関連する方法に対して様々な修正及び変形を行えることは、当業者には明らかである。当業者であれば、他の実施形態は、本明細書の思想と開示されたシステム及び関連する方法の実施から自明である。
本明細書及び実施例は、例示的なものに過ぎず、本発明の真の範囲は、添付の特許請求の範囲及びそれらの均等物によって限定されることが意図される。
100 車両
110 本体部
120 車輪
130 取り付け構造
140 LiDAR
150 GPS/IMU
160 ローカルコントローラ
170 地図サーバ
180 測位サーバ
201 点群
202 通信インタフェース
203 姿勢データ
204 プロセッサ
205 高精度マップ
206 メモリ
208 ストレージ
210 3D表現生成ユニット
212 ボクセルマッチングユニット
214 測位ユニット
216 姿勢情報推定ユニット

Claims (20)

  1. 車両を測位するシステムであって、
    前記車両に設けられたセンサによって捕捉されたシーンに関する点群を受信するように構成される通信インタフェースと、
    前記点群及び高精度地図を記憶するように構成されるストレージと、
    プロセッサと
    を含み、
    前記プロセッサは、
    前記点群の第1の3D表現を作成し、
    前記シーンに関して前記高精度地図の第2の3D表現を作成し、
    前記第1の3D表現と前記第2の3D表現とを比較することによって前記車両の姿勢情報を決定し、
    前記姿勢情報に基づいて前記車両の位置を決定する
    ように構成される、システム。
  2. 前記センサがLiDARである、請求項1に記載のシステム。
  3. 前記第1の3D表現と前記第2の3D表現とを比較することは、前記第1の3D表現のボクセルを前記第2の3D表現の対応するボクセルと比較することを含む、請求項1に記載のシステム。
  4. プロセッサは、
    前記第1の3D表現の第1のボクセル値分布を決定し、
    前記第2の3D表現の第2のボクセル値分布を決定し、
    前記第1のボクセル値分布を前記第2のボクセル値分布と比較する
    ようにさらに構成される、請求項1に記載のシステム。
  5. 前記通信インタフェースは、前記車両に設けられた測位センサによって前記車両の取得された姿勢情報を受信するようにさらに構成され、
    前記プロセッサは、前記取得された姿勢情報を使用して前記姿勢情報を改良するようにさらに構成される、請求項1に記載のシステム。
  6. 前記姿勢情報を改良するために、前記プロセッサは、前記取得された姿勢情報及び前記決定された姿勢情報にフィルタを適用するように構成される、請求項5に記載のシステム。
  7. 前記フィルタは、アンセンテッドカルマンフィルタ(UKF)である、請求項6に記載のシステム。
  8. 前記プロセッサは、初期姿勢情報に基づいて前記点群の前記第1の3D表現を作成するようにさらに構成され、前記初期姿勢情報は、前記車両の以前の位置に対応する姿勢情報に基づいて推定される、請求項1に記載のシステム。
  9. 前記プロセッサは、前記姿勢情報を更新して前記第1の3D表現と前記第2の3D表現との間の類似度を高めるようにさらに構成される、請求項1に記載のシステム。
  10. 前記プロセッサは、
    前記点群の第1の解像度の第1の3D表現と、前記点群の第2の解像度の第1の3D表現とを作成し、ここで前記第1の解像度が前記第2の解像度よりも低く、
    前記高精度地図の前記第1の解像度の第2の3D表現と、前記高精度地図の前記第2の解像度の第2の3D表現とを作成し、
    前記第1の解像度の前記第1の3D表現と前記第1の解像度の前記第2の3D表現とを比較することによって前記姿勢情報を決定し、
    前記第2の解像度の前記第1の3D表現と前記第2の解像度の前記第2の3D表現とを比較することによって前記姿勢情報を改良する
    ように構成される、請求項1に記載のシステム。
  11. 車両を測位する方法であって、
    前記車両に設けられたセンサによって捕捉されたシーンに関する点群を受信することと、
    プロセッサにより、前記点群の第1の3D表現を作成することと、
    前記プロセッサにより、前記シーンに関して高精度地図の第2の3D表現を作成することと、
    前記プロセッサにより、前記第1の3D表現と前記第2の3D表現とを比較することによって前記車両の姿勢情報を決定することと、
    前記姿勢情報に基づいて前記車両の位置を決定することと
    を含む方法。
  12. 前記第1の3D表現と前記第2の3D表現とを比較することは、前記第1の3D表現のボクセルを前記第2の3D表現の対応するボクセルと比較することを含む、請求項11に記載の方法。
  13. 前記第1の3D表現の第1のボクセル値分布を決定することと、
    前記第2の3D表現の第2のボクセル値分布を決定することと、
    前記第1のボクセル値分布を前記第2のボクセル値分布と比較することと
    をさらに含む、請求項1に記載の方法。
  14. 前記車両の取得された姿勢情報を受信することと、
    前記取得された姿勢情報を使用して前記姿勢情報を改良することと
    をさらに含む、請求項1に記載の方法。
  15. 前記姿勢情報を改良することは、前記取得された姿勢情報及び前記決定された姿勢情報にカルマンフィルタを適用することをさらに含む、請求項14に記載の方法。
  16. 初期姿勢情報に基づいて前記点群の前記第1の3D表現を作成することをさらに含み、前記初期姿勢情報は、前記車両の以前の位置に対応する姿勢情報に基づいて推定される、請求項11に記載の方法。
  17. 前記姿勢情報を更新して前記第1の3D表現と前記第2の3D表現との間の類似度を高めることをさらに含む、請求項11に記載の方法。
  18. 前記点群の第1の解像度の第1の3D表現と、前記点群の第2の解像度の第1の3D表現とを作成することであって、前記第1の解像度が前記第2の解像度よりも低い、ことと、
    前記高精度地図の前記第1の解像度の第2の3D表現と、前記高精度地図の前記第2の解像度の第2の3D表現とを作成することと、
    前記第1の解像度の前記第1の3D表現と前記第1の解像度の前記第2の3D表現とを比較することによって前記姿勢情報を決定することと、
    前記第2の解像度の前記第1の3D表現と前記第2の解像度の前記第2の3D表現とを比較することによって前記姿勢情報を改良することと
    をさらに含む、請求項1に記載の方法。
  19. 一つ以上のプロセッサによって実行されたとき、前記一つ以上のプロセッサに動作を実行させる命令を記憶した非一時的コンピュータ可読記憶媒体であって、
    前記動作は、
    車両に設けられたセンサによって捕捉されたシーンに関する点群を受信することと、
    前記点群の第1の3D表現を作成することと、
    前記シーンに関して高精度地図の第2の3D表現を作成することと、
    前記第1の3D表現と前記第2の3D表現とを比較することによって前記車両の姿勢情報を決定することと、
    前記姿勢情報に基づいて前記車両の位置を決定することと
    を含む、非一時的コンピュータ可読記憶媒体。
  20. 前記動作は、
    前記第1の3D表現の第1のボクセル値分布を決定することと、
    前記第2の3D表現の第2のボクセル値分布を決定することと、
    前記第1のボクセル値分布を前記第2のボクセル値分布と比較することと
    をさらに含む、請求項15に記載のコンピュータ可読記憶媒体。
JP2018567033A 2018-11-09 2018-11-09 LiDARを用いた車両測位システム Pending JP2021508814A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/114854 WO2020093378A1 (en) 2018-11-09 2018-11-09 Vehicle positioning system using lidar

Publications (1)

Publication Number Publication Date
JP2021508814A true JP2021508814A (ja) 2021-03-11

Family

ID=69229983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567033A Pending JP2021508814A (ja) 2018-11-09 2018-11-09 LiDARを用いた車両測位システム

Country Status (9)

Country Link
US (1) US11073601B2 (ja)
EP (1) EP3669141A4 (ja)
JP (1) JP2021508814A (ja)
CN (1) CN111656136B (ja)
AU (1) AU2018282435B1 (ja)
CA (1) CA3028286A1 (ja)
SG (1) SG11201811462PA (ja)
TW (1) TWI705263B (ja)
WO (1) WO2020093378A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024154397A1 (ja) * 2023-01-17 2024-07-25 パナソニックIpマネジメント株式会社 領域抽出方法、領域抽出装置及びコンピュータプログラム

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020107020A1 (en) * 2018-11-23 2020-05-28 Volvo Car Corporation Lidar-based multi-person pose estimation
CN116184417A (zh) * 2018-12-10 2023-05-30 北京图森智途科技有限公司 一种挂车夹角的测量方法、装置及车辆
US11675083B2 (en) * 2019-01-03 2023-06-13 Nvidia Corporation Removal of ephemeral points from point cloud of a high-definition map for navigating autonomous vehicles
US11308639B2 (en) 2019-03-12 2022-04-19 Volvo Car Corporation Tool and method for annotating a human pose in 3D point cloud data
US11598876B2 (en) * 2019-06-14 2023-03-07 Nvidia Corporation Segmenting ground points from non-ground points to assist with localization of autonomous vehicles
US11521329B2 (en) * 2019-11-22 2022-12-06 Baidu Usa Llc Updated point cloud registration pipeline based on ADMM algorithm for autonomous vehicles
US11852751B2 (en) * 2020-03-02 2023-12-26 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, computing device and computer-readable storage medium for positioning
US11725944B2 (en) * 2020-03-02 2023-08-15 Apollo Intelligent Driving Technology (Beijing) Co, Ltd. Method, apparatus, computing device and computer-readable storage medium for positioning
CN111983582A (zh) * 2020-08-14 2020-11-24 北京埃福瑞科技有限公司 列车的定位方法及系统
CN112180382B (zh) * 2020-09-28 2024-03-08 知行汽车科技(苏州)股份有限公司 基于恒速模型的自适应3d-lslam定位方法、装置和系统
KR20220045736A (ko) * 2020-10-06 2022-04-13 광주과학기술원 도로 노면 감지가 가능한 라이다 시스템 및 데이터 처리방법
CN112285738B (zh) * 2020-10-23 2023-01-31 中车株洲电力机车研究所有限公司 一种轨道交通车辆的定位方法及其装置
CN112379393B (zh) * 2020-10-29 2023-04-25 中车株洲电力机车研究所有限公司 一种列车碰撞预警方法及其装置
CN112462758B (zh) * 2020-11-06 2022-05-06 深圳市优必选科技股份有限公司 一种建图方法、装置、计算机可读存储介质及机器人
CN114088093B (zh) * 2020-11-09 2024-07-16 北京京东乾石科技有限公司 一种点云地图构建方法、装置、系统及存储介质
TWI735384B (zh) * 2020-11-23 2021-08-01 國立陽明交通大學 光達與用於光達之光子數快速累積方法
CN112731334B (zh) * 2020-12-10 2023-09-12 东风汽车集团有限公司 一种激光定位车辆的方法及装置
CN112688991B (zh) * 2020-12-15 2022-11-04 北京百度网讯科技有限公司 用于执行点云扫描操作的方法、相关装置及存储介质
CN112747752B (zh) * 2020-12-21 2024-02-02 清华大学苏州汽车研究院(吴江) 基于激光里程计的车辆定位方法、装置、设备和存储介质
CN113359167A (zh) * 2021-04-16 2021-09-07 电子科技大学 一种通过惯性测量参数将gps与激光雷达融合定位的方法
CN113324537A (zh) * 2021-04-27 2021-08-31 的卢技术有限公司 车辆位姿获取方法、车辆定位方法和装置、设备和介质
CN113460558B (zh) * 2021-06-29 2023-05-02 上海芭熹机器人有限责任公司 一种室外可移动货物搬运机器人
CN113791423A (zh) * 2021-09-24 2021-12-14 山东新一代信息产业技术研究院有限公司 一种基于多传感器融合的机器人重定位方法
CN115871735B (zh) * 2023-01-11 2023-05-16 山西世恒铁路技术有限公司 一种便携式线路检查仪及线路动态检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309533A (ja) * 2007-06-13 2008-12-25 Ihi Corp 車両形状計測方法と装置
WO2018180338A1 (ja) * 2017-03-30 2018-10-04 パイオニア株式会社 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010129192A1 (en) * 2009-05-04 2010-11-11 Tele Atlas North America Inc. Methods and systems for creating digital transportation networks
US8954265B2 (en) * 2010-04-09 2015-02-10 Tomtom North America, Inc. Method of resolving a location from data representative thereof
US9080886B1 (en) * 2012-08-03 2015-07-14 Robotic Research, Llc System and method for urban mapping and positioning
US9488492B2 (en) 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
US20150369924A1 (en) * 2013-02-04 2015-12-24 Vanderbilt University Method and system for high-accuracy differential tracking of global positioning system (gps) receivers
US11036238B2 (en) * 2015-10-15 2021-06-15 Harman International Industries, Incorporated Positioning system based on geofencing framework
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
WO2015149009A1 (en) * 2014-03-27 2015-10-01 Georgia Tech Research Corporation Systems and methods for identifying traffic control devices and testing the retroreflectivity of the same
US9575341B2 (en) * 2014-06-28 2017-02-21 Intel Corporation Solid state LIDAR circuit with waveguides tunable to separate phase offsets
EP3078935A1 (en) * 2015-04-10 2016-10-12 The European Atomic Energy Community (EURATOM), represented by the European Commission Method and device for real-time mapping and localization
EP3106836B1 (en) * 2015-06-16 2018-06-06 Volvo Car Corporation A unit and method for adjusting a road boundary
JP6797928B2 (ja) * 2015-10-19 2020-12-09 ユニバーシティー・オブ・ノース・テキサス 排出流から脅威と源の点とを位置特定するための可搬型化学物質検出デバイスのための動的な逆気体積層モデル
CN105678689B (zh) * 2015-12-31 2020-01-31 百度在线网络技术(北京)有限公司 高精地图数据配准关系确定方法及装置
KR102373926B1 (ko) * 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
CN109313024B (zh) 2016-03-11 2022-06-17 卡尔塔股份有限公司 具有实时在线自我运动估计的激光扫描仪
CN106023210B (zh) * 2016-05-24 2017-12-12 百度在线网络技术(北京)有限公司 无人车、无人车定位方法、装置和系统
US10066946B2 (en) * 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
EP3519770B1 (en) * 2016-09-28 2021-05-05 TomTom Global Content B.V. Methods and systems for generating and using localisation reference data
CN108225341B (zh) * 2016-12-14 2021-06-18 法法汽车(中国)有限公司 车辆定位方法
WO2018125939A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
US10545029B2 (en) * 2016-12-30 2020-01-28 DeepMap Inc. Lane network construction using high definition maps for autonomous vehicles
US10371530B2 (en) * 2017-01-04 2019-08-06 Qualcomm Incorporated Systems and methods for using a global positioning system velocity in visual-inertial odometry
WO2018160886A1 (en) * 2017-03-01 2018-09-07 Ouster, Inc. Accurate photo detector measurements for lidar
KR102414676B1 (ko) 2017-03-07 2022-06-29 삼성전자주식회사 지도 데이터를 생성하는 전자 장치 및 그 동작 방법
CN107015238A (zh) * 2017-04-27 2017-08-04 睿舆自动化(上海)有限公司 基于三维激光雷达的无人车自主定位方法
US10558864B2 (en) * 2017-05-18 2020-02-11 TuSimple System and method for image localization based on semantic segmentation
WO2019127445A1 (zh) * 2017-12-29 2019-07-04 深圳前海达闼云端智能科技有限公司 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
CN108401462A (zh) * 2018-01-30 2018-08-14 深圳前海达闼云端智能科技有限公司 信息处理方法和系统、云处理设备及计算机程序产品

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309533A (ja) * 2007-06-13 2008-12-25 Ihi Corp 車両形状計測方法と装置
WO2018180338A1 (ja) * 2017-03-30 2018-10-04 パイオニア株式会社 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024154397A1 (ja) * 2023-01-17 2024-07-25 パナソニックIpマネジメント株式会社 領域抽出方法、領域抽出装置及びコンピュータプログラム

Also Published As

Publication number Publication date
CN111656136A (zh) 2020-09-11
TW202018330A (zh) 2020-05-16
TWI705263B (zh) 2020-09-21
US11073601B2 (en) 2021-07-27
CN111656136B (zh) 2023-09-29
WO2020093378A1 (en) 2020-05-14
EP3669141A1 (en) 2020-06-24
US20200150233A1 (en) 2020-05-14
CA3028286A1 (en) 2020-05-09
EP3669141A4 (en) 2020-12-02
SG11201811462PA (en) 2020-06-29
AU2018282435B1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
TWI705263B (zh) 使用光達的運輸工具定位系統
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
EP3612854B1 (en) Vehicle navigation system using pose estimation based on point cloud
CN112113574B (zh) 用于定位的方法、装置、计算设备和计算机可读存储介质
CN112005079B (zh) 用于更新高清地图的系统和方法
KR20210111180A (ko) 위치 추적 방법, 장치, 컴퓨팅 기기 및 컴퓨터 판독 가능한 저장 매체
CN112136021B (zh) 用于构建基于地标的高清地图的系统和方法
CN112424568B (zh) 构建高清地图的系统和方法
US11138448B2 (en) Identifying a curb based on 3-D sensor data
CN112074871A (zh) 高清地图管理系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210927