Nothing Special   »   [go: up one dir, main page]

JP6654977B2 - 自車位置特定装置、及び自車位置特定方法 - Google Patents

自車位置特定装置、及び自車位置特定方法 Download PDF

Info

Publication number
JP6654977B2
JP6654977B2 JP2016132605A JP2016132605A JP6654977B2 JP 6654977 B2 JP6654977 B2 JP 6654977B2 JP 2016132605 A JP2016132605 A JP 2016132605A JP 2016132605 A JP2016132605 A JP 2016132605A JP 6654977 B2 JP6654977 B2 JP 6654977B2
Authority
JP
Japan
Prior art keywords
vehicle
road
variation
map
vehicle position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016132605A
Other languages
English (en)
Other versions
JP2018004477A (ja
Inventor
宏次朗 立石
宏次朗 立石
直輝 川嵜
直輝 川嵜
俊輔 鈴木
俊輔 鈴木
広 水野
広 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016132605A priority Critical patent/JP6654977B2/ja
Priority to US15/637,156 priority patent/US20180003505A1/en
Publication of JP2018004477A publication Critical patent/JP2018004477A/ja
Application granted granted Critical
Publication of JP6654977B2 publication Critical patent/JP6654977B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Description

本発明は、地図上の自車位置を特定する自車位置特定装置、及び自車位置特定方法に関する。
車両が走行する道路を地図上で参照し、参照された道路に沿って車両を走行させる運転支援を行う装置が知られている。また、地図に記録された道路に沿って車両を走行させる場合、地図上の車両の位置を精度良く特定する必要がある。そのため、従来では、GPS情報又は車速センサからの出力に基づいて、地図上での車両の位置を特定する自車位置特定装置が知られている。
また、特許文献1には、車両が現在走行している地図上の位置に登録された地物の位置と、車両が備える撮像手段で撮像された撮像情報内での地物の位置とを用いて、自車位置を特定する自車位置特定装置が開示されている。この自車位置特定装置は、撮像情報内で道路の周辺に位置する特定の地物を検出した場合に、地図上でのこの地物の位置を参照する。そして、参照した地物の位置に基づいて自車両の地図上での位置を特定する。
特開2007−178271号公報
道路の路側に位置している縁石等の路側物を自車位置の特定に用いる場合、自車位置特定装置がこの路側物を適正に検出できない場合がある。例えば、路側物が草木等により覆われている場合、この草木を地図に登録されている路側物と誤検出してしまうおそれがある。また、路側物が複雑な形状である場合、この路側物の検出精度が低下するおそれがある。路側物が適正に検出できないと、自車位置特定装置が特定した自車位置に誤差を生じさせる結果となり、自車位置精度を悪化させる。
本発明は上記課題に鑑みたものであり、路側に位置する路側物を用いた地図上の自車位置の特定において、自車位置精度の悪化を抑制することができる自車位置特定装置、及び自車位置特定方法を提供することを目的とする。
上記課題を解決するために本発明では、自車両が走行する道路上の前記自車両の位置を、前記道路上の路側物の地図上の位置に基づいて補正し、その補正結果により特定する自車位置特定装置であって、前記地図上の自車位置をマップマッチング処理により推定する自車位置推定部と、自車両に搭載された特徴検出手段の出力に基づいて、前記自車両の周辺に存在する前記路側物の特徴点を抽出する特徴抽出部と、前記道路に沿う方向の前記各特徴点について車両横方向でのばらつき度合を算出するばらつき算出部と、算出された前記ばらつき度合に基づいて、推定された前記自車位置について前記補正を実施する補正部と、を備える。
車両周辺の路側物における地図上の位置に基づいて、地図上の自車位置を特定する場合、この路側物が適正に検出できていないと、この路側物の地図上の位置に基づいて取得される自車位置に誤差を生じさせる場合がある。例えば、路側物が草木等により覆われている場合や、路側物の形状が複雑である場合では、いずれも路側物の検出精度を低下させる要因となる。この点、上記構成では、路側物が適正に検出されているか否か判断するために、道路に沿った方向での各特徴点における車両横方向でのばらつき度合を算出する。そして、このばらつき度合に応じて自車位置を補正するようにした。この場合、特徴点のばらつき度合により路側物が適正に検出されているか否かを考慮しつつ地図上での自車位置が補正されるため、補正後の自車位置精度の低下を抑制することができる。
車両制御装置100の構成について説明する図。 撮像画像内での路側物の検出結果を説明する図。 地図を説明する図。 自車位置CPの特定を説明するフローチャート。 ステップS15の処理を詳細に示すフローチャート。 エッジ点Pのばらつきを説明する図。 各エッジ点Pの分散値を説明する図。 ステップS16の処理を詳細に説明するフローチャート。 幅差の算出手法を説明する図。 第2実施形態においてステップS15で実施される処理を説明するフローチャート。 第2実施形態において、分散値Vを算出する手法を説明する図。 第3実施形態において、図4のステップS16で実施される処理を説明するフローチャート。 分散値Vと抽出範囲の長さLとの関係性を説明する図。 第3実施形態において、分散値Vを算出する手法を説明する図。
本発明にかかる自車位置特定装置、及び自車位置特定方法の実施形態を図面と共に説明する。なお、以下の実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。また、この実施形態では、路側物は、道路の路側に存在する地物を意味し、縁石、ガードレール、道路壁等の道路の形状を特定することができる立体物を意味している。
(第1実施形態)
本実施形態に係る自車位置特定装置は車両を制御する車両制御装置の一部として構成されている。また、車両制御装置は、自車位置特定装置により算出された自車位置を用いて、自車両の走行を制御する。
まず、図1を参照して車両制御装置100の構成について説明する。車両制御装置100は、各種センサ30、自車位置特定装置として機能するECU20、運転支援装置40、を備えている。
各種センサ30は、GPS受信機31、カメラ装置32、車速センサ33、ヨーレートセンサ34、を備えている。
GPS受信機31は、周知の衛星測位システム(GNSS)の一部として機能することで、衛星から送信される電波をGPS情報として受信する。GPS情報には、衛星の位置や電波が送信された時刻が含まれている。GPS受信機31は、GPS情報を受信した受信時刻とGPS情報に含まれる発信時刻との差に基づいて、衛星から自車両CSまでの距離を算出する。そして、算出した距離と衛星の位置(x、y、z)とをECU20に出力する。
カメラ装置32は、特徴検出手段として機能し、自車両CSの車両進行方向前方を撮像する。カメラ装置32は、CCDカメラ、CMOSイメージセンサ、近赤外線カメラ等であり、その撮像方向を車両前方に向けた状態で自車両CSに搭載されている。詳しくは、自車両の車幅方向の中央、例えばルームミラーに取り付けられており、車両前方へ向けて所定角度範囲で広がる領域を撮像する。カメラ装置32が複眼である場合、物体の三次元位置を検出することができる。
車速センサ33は、自車両CSの車輪に動力を伝達する回転軸に設けられており、その回転軸の回転数に基づいて自車両CSの速度を検出する。ヨーレートセンサ34は、自車両CSに実際に発生したヨーレート、すなわち車両の重心点回りの角速度を検出する。
ECU20は、CPU、ROM、RAMを備えたコンピュータとして構成されている。そして、CPUが、メモリに記憶されているプログラムを実行することにより、図1に示す各部として機能することができる。
また、ECU20は、地図上での自車両CSの位置(緯度、経度)を特定する。具体的には、GPS受信機31からの出力に基づいて自車両CSの地図上の位置を推定し、推定した位置を周辺の路側物の地図上での位置に基づいて補正することで自車位置CPを特定する。
運転支援装置40は、ECU20が特定した自車位置CPに基づいて、自車両CSの走行を制御する。例えば、運転支援装置40は、自車位置CP、車速及びヨーレートにより自車両CSの将来の位置を予測し、予測した将来の位置と道路の認識結果とを用いて、自車両CSが区画白線等を逸脱するおそれがあるか否かを判断する。例えば、運転支援装置40が警報機能を有していれば、自車両が区画白線を逸脱するおそれがあると判断した場合、自車両CSが備えるディスプレイにより警告表示を行ったり、自車両CSが備えるスピーカにより警告音を発生させたりする。また、運転支援装置40が運転補助機能を有していれば、自車両CSが区画白線を逸脱するおそれがあると判断した場合、操舵装置に操舵力を加える。
図2(a),(c)は、カメラ装置32により撮像された撮像画像を示している。また、図2(b),(d)は、自車両CSを上方から見た俯瞰図であり、図2(a),(c)に示す各撮像画像に対応している。
道路の路側に位置している縁石等の路側物を自車位置CPの特定に用いる場合、ECU20がこの路側物を適正に検出できない場合がある。図2(a),(b)に示すように、道路に沿った方向において路側物を適正に検出している場合、この路側物から抽出されるエッジ点P(特徴点)の車両横方向(X軸方向)でのばらつき度合が小さくなる。それに対して、図2(c),(d)は、路側物が草木等で覆われている区間があり、この草木を地図に登録されている路側物と誤検出してしまうおそれがある。この場合、車両横方向でのエッジ点Pのばらつきが大きくなる。また、路側物が複雑な形状である場合にも、この路側物の検出精度が低下することでエッジ点Pのばらつきが大きくなる。このようなエッジ点Pのばらつきは、特定された自車位置CPの精度を低下させる結果となる。そこで、ECU20は、エッジ点Pのばらつき度合に基づいて、推定した自車位置CPを補正する構成となっている。
図1に戻り、自車位置推定部21は、マップマッチング処理により地図上での自車位置CPを推定する。マップマッチング処理では、GPS情報に基づく自車両CSの測位結果や過去の経路に基づいて、自車両CSの位置を地図内の道路上の位置に合わせこむ。
情報取得部22は、自車位置推定部21により推定された自車位置CPに基づいて自車周辺の道路情報を地図から取得する。地図は、自車位置CPの周辺に存在する地物の特徴を示す道路情報が記録されたデータであり、ECU20が備えるメモリに記憶されている。これ以外にも、ECU20は、不図示のサーバからネットワークを経由して、地図を取得してもよい。
地図には、道路情報として、道路上の地物の形状や位置(緯度、経度)を示す形状情報と、この形状情報に関連づけて記録された属性情報とを備えている。図3では、地図に記録された信号機F1、縁石F2、標識F3、路面上の道路表示F4、ガードレールF5、道路壁F6を示している。この内、本実施形態では、道路の路側に存在する地物の内、特に、道路に沿った方向での当該道路の形状を特定できる、縁石F2、ガードレールF5、道路壁F6を路側物として用いている。
また、地図には、道路上の路面を示すリンクと各リンクの連結点を示すノードとを記録している。地図には、各ノードとリンクとの地図上での位置、各ノードとリンクとの接続関係を示す情報、更には各ノード又はリンクの周辺に存在する地物が関連づけて記録されている。また、各リンクには、所定距離毎の走行レーンの中心位置Mの座標、道幅Wi、走行レーン数等の情報が関連づけて記録されている。図3では、走行レーンの中心位置Mとして、片側車線における所定距離毎の中心位置を示している。
特徴抽出部23は、カメラ装置32による撮像結果に基づいて、自車周辺に存在する路側物のエッジ点Pを抽出する。例えば、特徴抽出部23は、撮像画像に対して周知のエッジ点抽出フィルタを用いて、濃度勾配が所定値以上の画素をエッジ点Pとして抽出する。
ばらつき算出部24は、道路に沿う方向の各エッジ点Pについて車両横方向でのばらつき度合を算出する。この実施形態では、ばらつき算出部24は、ばらつき度合として、道路に沿う方向での各エッジ点Pの車両横方向での位置のばらつきを示す分散値Vを算出する。
補正部26は、自車位置推定部21により推定された自車位置CPを、エッジ点Pが抽出された路側物の地図上の位置に基づいて補正することで特定する。このとき、補正部26は、ばらつき算出部24により算出されたばらつき度合に基づいて、自車位置CPを特定するための補正を実施する。
ECU20により実施される自車位置CPの特定を、図4を用いて説明する。なお図4に示すフローチャートは、ECU20により所定周期で実施される処理である。
ステップS11では、GPS受信機31が受信したGPS情報に基づいて地図上での自車位置CPを推定する。ECU20は、周知のマップマッチングにより、自車位置CPを推定する。ステップS11が自車位置推定工程として機能する。
ステップS12では、自車位置CPの周辺の道路情報を地図から取得する。ECU20は、例えば、ステップS11で推定した自車位置CPを中心として所定距離にある路側物の形状や位置を地図から取得する。
ステップS13では、撮像画像を取得する。ステップS14では、撮像画像内での路側物のエッジ点Pを抽出する。ステップS14が特徴抽出工程として機能する。
ステップS15では、道路に沿った方向において、エッジ点Pの車両横方向での分散値V(ばらつき度合)を算出する。この実施形態では、ECU20は、高さ方向の位置に基づいて複数の区分を設定し、エッジ点Pが抽出されている区分の内、道路の中心から最も近い位置となる区分のエッジ点Pの集まりを、分散値Vを算出するエッジ点Pとして選択する。ステップS15が算出工程として機能する。
ステップS15での詳細な処理を、図5を用いて説明する。まず、ステップS21では、道路情報として自車両CSが走行する道路の境界線と自車両CSが走行している走行レーン(自車線)の中心位置Mとを地図から取得する。なお、自車両CSが走行している道路は、ステップS11で推定された自車位置CPに基づいて判定される。
ステップS22では、エッジ点Pを区分けするための区分を設定する。図6(a)では、自車両CSを上方から見た俯瞰図であり、図6(b)は、図6(a)におけるA−A断面でのエッジ点Pの位置を説明する図である。図6(a)に示すように、自車両CSの周辺には、路側物として縁石F2、ガードレールF5、道路壁F6が存在しているものとする。図6(b)の例では、ECU20は、高さ方向での位置に基づいて、エッジ点Pを区分けするための区分D1〜D3を設定している。
ステップS22で設定する区分は、路側部分における横方向での位置に基づいて設定するものであってもよい。この場合、例えば、図6(a)で示す路側部分において、ステップS21で取得した道路の境界線から横方向(X軸方向)での位置に基づいて各区分を設定する。
ステップS23では、エッジ点Pが抽出された区分の内、自車両CSが走行する走行レーン(自車線)の中心位置Mから最も近い区分のエッジ点Pを、分散値Vを算出するためのエッジ点Pとして選択する。図6(b)では、区分D1では縁石F2のエッジ点群G1が抽出され、区分D2ではガードレールF5のエッジ点群G2が抽出され、区分D3では道路壁F6のエッジ点群G1が抽出されている。そのため、いずれの区分D1〜D3においてもエッジ点Pが抽出されており、各区分D1〜D3の自車線の中心位置Mから最も近いエッジ点群はG1となっている。ECU20は、区分D1のエッジ点群G1を自車位置CPの補正に用いるエッジ点Pとして選択する。ステップS23が選択部として機能する。
ステップS24では、ステップS23で選択した区分のエッジ点Pにおける分散値Vを算出する。ここで、道路上に退避路等の道路形状を大きく変化させる箇所が存在する場合、路側物の車両横方向での位置がこの箇所での道路形状に合わせて異なることで、エッジ点Pのばらつきを不要に大きくする要因となる。そのため、この実施形態では、図7(a)に示すように、ECU20は、ステップS21で取得した道路の境界線Sから各エッジ点Pまでの車両横方向(X軸方向)での距離ΔXに基づいて分散値を算出している。
一例として、分散値Vは、下記式(1),(2)により求められる。
V=Σ(ΔXi^2)/N … (1)
ΔXi=Xpi−m … (2)
ここで、式(1)において、Nは、当該区分のエッジ点Pの数を示す。iは道路に沿った方向での各エッジ点Pを識別する識別子であり、1からNまでの数を示す。(^)はべき乗を示す。Σは、選択された区分に属する距離Xの総和である。また、式(2)において、Xpiは、各エッジ点PのX軸方向での位置を示す。mは、エッジ点Pの期待値であり、この実施形態では、道路の境界線上の位置である。
図7(b)は、横軸をエッジ点Pから道路の境界線までの距離ΔXとし、縦軸をエッジ点Pの数としたヒストグラムを示している。実線で示すように、区分内での各エッジ点Pの距離ΔXのばらつきが小さい場合、分散値Vが小さくなる。一方、点線で示すように、区分内での各エッジ点の距離ΔXのばらつきが大きい場合、分散値Vが大きくなる。
ステップS24の処理を終了すると、図4のステップS16に進む。ステップS16では、ステップS15で算出された分散値Vに基づいて自車位置CPを補正する。そのため、ステップS16が補正工程として機能する。
ステップS16で実施される詳細な処理を、図8を用いて説明する。まず、ステップS31では、ステップS15で設定された区分の内、エッジ点Pが抽出されている区分数DNをカウントする。エッジ点Pが抽出される区分数DNが一定でないと、自車両CSが走行するある期間では所定区分におけるエッジ点Pで算出された分散値Vを用い、他の期間ではこの区分とは別の区分における分散値Vを算出している可能性がある。例えば、図6(b)に示す、高さ方向において低い位置にある路側物のエッジ点群G1は、高い位置にある路側物のエッジ点群G2,G3と比べて検出が断続的になる傾向がある。そのため、自車両CSの走行中に、エッジ点群G1が検出されないとエッジ点群G2が自車線の中心位置Mから最も近いエッジ点群となり、エッジ点群G1により分散値Vを算出している期間と、エッジ点群G2により分散値Vを算出している期間が生じ得ることとなる。
区分数DNが一定でなければ(ステップS32:NO)、図4に戻り、自車位置CPを特定するための処理を一旦終了する。この場合、同種の路側物から分散値Vを算出していないとして、ECU20はステップS15で算出されている分散値Vを用いない。一方、区分数DNが一定であれば(ステップS32:YES)、同種の路側物から分散値Vを算出しているとみなし、ステップS33に進む。
ステップS33では、自車両CSにおける左右のそれぞれで路側物を検出しているか否かを判定する。例えば、自車両CSが走行する道路の左右に路側物として縁石が配置されている場合、ECU20は、左右の各縁石の位置でエッジ点Pを抽出していれば、この縁石を検出していると判定する。これ以外にも、自車両CSが走行する道路において左右に縁石とガードレールとがそれぞれ配置されている場合、縁石とガードレールとのそれぞれからエッジ点Pを抽出している場合に、左右の路側物を検出していると判定してもよい。
道路上で自車両CSに対して左右の路側物を検出していない場合(ステップS33:NO)、図8の処理を終了する。一方、左右の路側物を検出している場合(ステップS33:YES)、ステップS34では、現在、自車両CSが走行している道路の道幅Wiを地図から取得する。図9に示すように、ECU20は、地図上に記録された道路の道幅Wiを取得する。ステップS34が道幅取得部として機能する。
ステップS35では、左右のエッジ点Pに基づいて、左右の間隔DPを算出する。図9では、左右の縁石F2のエッジ点Pを車両横方向(X軸方向)で結ぶことにより路側物の間隔DPを算出している。ステップS35が間隔算出部として機能する。
ステップS36では、ステップS34で取得された道幅WiとステップS35で算出した路側物の間隔DPとの幅差を判定する。エッジ点Pの分散値Vを算出している場合でも、この分散値Vが路側物から抽出されたものでない可能性がある。例えば、路側物と異なる物体からエッジ点Pが抽出されている場合、エッジ点Pに基づいて算出される左右の路側物の間隔DPが変化し、地図に記録されている道幅Wiとの差が大きくなる。そこで、この実施形態では、道路情報により得られた道幅Wiとエッジ点Pにより算出された左右の間隔DPとの幅差が閾値Th1以下であることを条件に、自車位置を補正することとしている。
幅差が閾値Th1を超える場合(ステップS36:NO)、算出された分散値Vは路側物から抽出されたエッジ点Pのものではないとみなし、図8の処理を一旦終了する。一方、幅差が閾値Th1以下であれば(ステップS36:YES)、算出された分散値Vは路側物から抽出されたエッジ点Pのものであるとみなし、ステップS37に進む。
ステップS37では、エッジ点Pの分散値Vを判定する。分散値Vが閾値Th2を超える場合(ステップS37:NO)、路側物が適正に検出されていないとみなし、図8の処理を一旦終了する。そのため、今回の処理では自車位置CPを補正しないことになる。
分散値Vが閾値Th2以下であれば(ステップS37:YES)、ステップS38では、該当区分におけるエッジ点Pを用いて推定された自車位置CPを補正する。例えば、ECU20は、エッジ点Pを抽出することで求められる自車両CSから縁石F2までの距離と、地図上における推定された自車位置CPから縁石F2までの距離とのずれ量を算出し、算出したずれ量が小さくなるよう地図上で推定された自車位置CPの車両横方向での位置を補正する。そして、ステップS38の処理が終了すると、図4の処理を一旦終了する。
以上説明したように第1実施形態では、ECU20は、地図上の自車位置CPをマップマッチング処理により推定する。また、自車両に搭載されたカメラ装置32の出力に基づいて、自車両CSの周辺に存在する路側物のエッジ点Pを抽出し、道路に沿う方向のエッジ点Pについて車両横方向でのばらつき度合を算出する。そして、算出された前記ばらつき度合に基づいて、推定された自車位置CPについての補正を実施することで自車位置を特定する。上記構成により、エッジ点Pの分散値Vにより路側物が適正に検出されているか否かを考慮しつつ地図上での自車位置CPが補正されるため、補正後の自車位置精度の低下を抑制することができる。
ECU20は、地図から道路に沿う方向での道路の境界線を取得し、境界線から各エッジ点Pまでの車両横方向での距離ΔXに基づいて分散値Vを算出する。道路上に退避路等の道路の形状を大きく変化させる箇所が存在する場合、この箇所では路側物の位置が道路に沿って大きく変化し、エッジ点Pのばらつきを不要に大きくする。そこで、上記構成では、地図から道路に沿う方向での道路の境界線を取得し、この境界線からエッジ点Pまでの車両横方向での距離を分散値Vとして算出することとした。この場合、道路の境界線に沿ってエッジ点Pの分散値Vを算出できるため、道路の形状変化に起因して分散値Vが不要に大きくなるのを抑制することができる。
ECU20は、エッジ点Pを抽出する区分を高さ方向の位置又は路側部分における車両横方向の位置に基づいて設定し、エッジ点Pが抽出された区分の内、自車両CSが走行する自車線の中心から最も近い位置となる区分のエッジ点Pを、分散値Vを算出するエッジ点Pとして選択する。高さ方向において複数の路側物が存在する場合や、各路側物が高さ方向において傾斜している場合、各高さに応じて車両横方向での位置が異なるエッジ点Pが抽出されるため、分散値Vを不要に大きくする要因となる。この点、上記構成では、自車線の中心位置Mから最も近い位置となる区分のエッジ点Pを、分散値Vを算出するためのエッジ点Pとして選択することとした。この場合、車幅方向において多数のエッジ点Pが抽出されうる状況下においても、自車位置の補正精度の低下を抑制することができる。
ECU20は、エッジ点Pが抽出された区分が複数存在する場合に各区分の時系列での数の変化を検出し、区分数DNが一定である期間において選択された区分における分散値Vに基づいて自車位置CPを補正する。高さ方向において低い位置にある路側物は、高い位置にある路側物と比べて検出精度が低下する傾向にあり、自車両CSが走行する期間でエッジ点Pが異なる種別の路側物から抽出されている可能性も生じうる。この点、上記構成では、エッジ点Pが抽出された区分数DNが一定であることを条件に選択された区分のエッジ点Pに基づいて自車位置を補正することとした。この場合、区間毎に異なる種別の路側物から抽出されたエッジ点Pにより分散値Vを算出してしまうのを抑制することができ、補正精度の低下を防止することができる。
ECU20は、自車両CSが走行する道路の道幅Wiを取得する。また、自車両CSの左右にそれぞれ路側物が存在している場合に、抽出されたエッジ点Pに基づいて左右の路側物の間隔DPを算出する。そして、取得された道幅Wiと路側物の間隔DPとの幅差が所定範囲内であることを条件に、分散値Vに基づいて自車位置CPを補正する。エッジ点Pが路側物以外の物体から抽出されている場合、左右のエッジ点Pにより算出される左右の路側物の間隔DPと、自車両CSが走行する道路の道幅Wiとの幅差が大きくなる。この点、上記構成では、道路情報により得られた道幅Wiと、エッジ点Pにより算出された左右の路側物の間隔DPとの幅差が所定範囲内であることを条件に、分散値Vに基づいて自車位置を補正することとした。この場合、左右の路側物からエッジ点Pを検出できている場合に自車位置を補正するため、補正精度の低下を防止することができる。
(第2実施形態)
この第2実施形態では、自車両CSからの距離に応じてエッジ点Pの範囲を区分し、区分された各範囲のうちエッジ点Pの分散値Vが適正な値となる範囲を自車位置CPの補正に用いる範囲として使用する。
図10は、第2実施形態においてステップS15で実施される処理を説明するフローチャートである。図11は、第2実施形態において、分散値Vを算出する手法を説明する図である。
ステップS41では、道路情報を取得する。ECU20は、道路情報として、自車両CSが走行する道路の境界線を地図から取得する。
ステップS42では、車両進行方向(Y軸方向)での自車両CSからの距離に応じて各範囲を区分する。図11では、自車両CSからの距離に応じて4つの範囲AR1〜AR4を区分している。なお、この実施形態では、各範囲の車両進行方向での長さを等間隔に区分している。
ステップS43では、ステップS42で区分された範囲毎にエッジ点Pの分散値Vを算出する。ECU20は、例えば、上記式(1),(2)を用いて、範囲毎のエッジ点Pの分散値Vを算出する。ステップS43の処理が終了すると、図4のステップS16に進む。
ステップS16では、各範囲の分散値Vに基づいて自車位置CPの補正に使用する範囲を選択し、選択された範囲に属するエッジ点Pを用いて推定された自車位置CPを補正する。例えば、ECU20は、分散値Vが最も低い値となる範囲のエッジ点Pを選択し、この範囲でのエッジ点Pを用いて自車位置CPを補正する。図11の例では、範囲AR1,AR2がいずれも最も低い分散値Vとなるため、この範囲AR1,AR2に含まれるエッジ点Pが補正に用いるエッジ点Pとして選択される。
以上説明したようにこの第2実施形態では、ECU20は、自車両CSから車両進行方向での距離に応じて区分された範囲毎に分散値Vを算出し、各範囲の分散値Vの差に基づいて、自車位置CPの補正に使用する範囲を選択する。そして、選択した範囲のエッジ点Pとこのエッジ点Pの地図上での位置とを用いて自車位置CPを補正する。道路の一部の区間において路側物が草木等により覆われている場合、草木等で覆われた箇所でのエッジ点Pのばらつきが大きくなる。一方で、草木等で覆われている箇所が一部であれば、この箇所以外では、適正に路側物を検出することができる。この点、上記構成では、車両進行方向での自車両CSからの距離に応じて区分された範囲毎に分散値Vを算出し、各範囲の分散値Vに基づいて自車位置CPの補正に使用する範囲を選択することとした。そのため、一部の範囲において分散値Vが大きくなる場合でも、この範囲のエッジ点Pを補正に用いないようにすることができ、自車位置CPの補正精度の低下を抑制することができる。
(第3実施形態)
この第3実施形態では、エッジ点Pの分散値Vに基づいて路側物の車両横方向での位置を平均化し、平均化したエッジ点Pの位置と地図上での路側物との位置とに基づいて自車位置の補正を行う。
図12は、第3実施形態において、図4のステップS16で実施される処理を説明するフローチャートである。
ステップS51では、図4のステップS15で算出された分散値Vを判定する。分散値Vが閾値Th3以下であれば(ステップS51:YES)、ステップS52に進み、自車位置CPの補正を実施する。ステップS52で実施する自車位置CPの補正は、抽出されたエッジ点P毎に地図上の路側物の位置との横方向でのずれ量が算出され、このずれ量に基づいて自車位置CPが補正される。
一方、分散値Vが閾値Th3を超える場合(ステップS51:NO)、ステップS53では、撮像画像内において、道路に沿った方向での各エッジ点Pを選択する自車前方から道路に沿った方向での抽出範囲ERを設定する。図14(a)では、道路に沿った方向において、自車両CSから所定長さLの間に抽出範囲ERを設定している。例えば、ECU20は、分散値Vと抽出範囲ERの長さLとの関係を規定するマップを記録しており、このマップを参照することで抽出範囲ERの長さLを設定する。
例えば、図13に示すマップでは、分散値Vが閾値Th3以下である場合、抽出範囲ERが長さL0で一定となっている。そして、分散値Vが閾値Th3を超える場合、分散値Vが大きくなる程、抽出範囲ERの長さLが長くなる。
ステップS54では、ステップS53で設定した抽出範囲ERに含まれるエッジ点Pの車両横方向(X軸方向)での位置を平均化した線分Aveを算出する。例えば、ECU20は、周知の最小二乗法を用いて、抽出範囲ERに含まれる各エッジ点Pからの距離が最も近い位置となる線分をエッジ点Pの車両横方向での位置を平均化した線分Aveとして算出する。
ステップS55では、ステップS54で算出された線分Aveと路側物の地図上での位置とに基づいて、地図上で推定された自車位置CPを補正する。図14(b)では、線分Aveで特定されるX軸方向での位置と地図上の路側物のX軸方向での位置とのずれ量を用いて、推定された自車位置CPのX軸方向での位置を補正している。
ステップS54の処理が終了すると、図4の処理を一旦終了する。
以上説明したようにこの第3実施形態では、ECU20は、分散値Vが閾値Th3以上である場合、道路に沿う方向においてエッジ点Pを抽出する抽出範囲ERをこの分散値Vに基づいて設定し、設定された抽出範囲ERに含まれるエッジ点Pの車両横方向での位置を平均化した結果と路側物の地図上での位置とに基づいて自車位置CPを補正する。この場合、エッジ点Pの分散値Vが閾値Th3を超える大きい値となる場合に、エッジ点Pを平均化した結果を用いて、自車位置CPを補正する。そのため、エッジ点Pの分散値Vに応じてエッジ点Pの車両横方向でのばらつき度合が低減されるため、自車位置CPの補正精度の低下を抑制することができる。
(その他の実施形態)
ばらつき度合を算出する手法として、分散値Vに代えて標準偏差を用いるものであってもよい。また、道路に沿った方向での各エッジ点Pにおける車両横方向での位置が最大となるエッジ点Pと最小となるエッジ点Pとを抽出し、このエッジ点間の距離に基づいてはばらつき度合を算出するものであってもよい。この場合、例えば、道路に沿った方向での各エッジ点Pの車両横方向での位置の平均値を算出し、この平均値から車両横方向において右側をプラス側の位置とて設定し、左側をマイナス側の位置として設定する。そして、プラス側の位置において平均値から最も離れたエッジ点Pを最大値とし、マイナス側の位置において平均値から最も離れたエッジ点Pを最小値として設定する。そして、エッジ点間の距離が大きい程、ばらつき度合を大きく設定する。
ECU20は、分散値Vに基づいてなまし度合を可変とするフィルタを用いて自車位置CPを補正するものであってもよい。この場合、図4のステップS16において、分散値Vが大きくなる程、各エッジ点Pの車両横方向での位置のばらつきをなまらせるようフィルタのなまし度合を大きく設定する。そして、フィルタ処理後のエッジ点Pの位置により算出される路側物の位置と、地図上での路側物の位置のずれ量に基づいて、自車位置CPを補正する。
特徴検出手段としてカメラ装置を用いたことは一例に過ぎない。例えば、特徴検出手段として、電磁波を用いて物体を検出するレーザセンサやレーダセンサを用いるものであってもよい。
図4のステップS11において、自車位置CPの推定においてGPS情報に代えて、車速センサ33の出力を積分した値を用いるものであってもよい。また、GPS情報と車速センサ33からの出力の積分値とを併用するものであってもよい。
20…ECU、21…自車位置推定部、23…特徴抽出部、24…ばらつき算出部、26…補正部、32…カメラ装置。

Claims (9)

  1. 自車両が走行する道路上の前記自車両の位置を、前記道路上の路側物の地図上の位置に基づいて補正し、その補正結果により特定する自車位置特定装置(20)であって、
    前記地図上の自車位置をマップマッチング処理により推定する自車位置推定部と、
    自車両に搭載された特徴検出手段(32)の出力に基づいて、前記自車両の周辺に存在する前記路側物の特徴点を抽出する特徴抽出部と、
    前記道路に沿う方向の前記各特徴点について車両横方向でのばらつき度合を算出するばらつき算出部と、
    算出された前記ばらつき度合に基づいて、推定された前記自車位置についての前記補正を実施する補正部と、
    高さ方向の位置又は路側部分において横方向の位置に基づいて、前記特徴点を区分けする複数の区分を設定し、前記特徴点が抽出された区分の内、前記自車両が走行する自車線の中心から最も近い区分の前記特徴点を、前記ばらつき度合を算出する前記特徴点として選択する選択部と、を備える自車位置特定装置。
  2. 前記ばらつき算出部は、前記地図から前記道路に沿う方向での前記道路の境界線を取得し、前記境界線から前記各特徴点までの車両横方向での距離に基づいて前記ばらつき度合を算出する、請求項1に記載の自車位置特定装置。
  3. 前記補正部は、前記特徴点が抽出された前記区分が複数存在する場合に前記各区分の時系列での数の変化を検出し、前記特徴点が検出された前記区分の数が一定となる期間において、前記選択部で選択された前記区分における前記ばらつき度合に基づいて前記自車位置を補正する、請求項1または2に記載の自車位置特定装置。
  4. 前記自車両が走行する道路の道幅を取得する道幅取得部と、
    前記自車両の左右にそれぞれ前記路側物が存在している場合に、抽出された前記特徴点に基づいて前記左右の前記路側物の間隔を算出する間隔算出部と、を備え、
    前記補正部は、取得された前記道幅と前記左右の路側物の間隔との幅差が所定範囲内であることを条件に、前記ばらつき度合に基づいて前記自車位置を補正する、請求項1から請求項のいずれか一項に記載の自車位置特定装置。
  5. 自車両が走行する道路上の前記自車両の位置を、前記道路上の路側物の地図上の位置に基づいて補正し、その補正結果により特定する自車位置特定装置(20)であって、
    前記地図上の自車位置をマップマッチング処理により推定する自車位置推定部と、
    自車両に搭載された特徴検出手段(32)の出力に基づいて、前記自車両の周辺に存在する前記路側物の特徴点を抽出する特徴抽出部と、
    前記道路に沿う方向の前記各特徴点について車両横方向でのばらつき度合を算出するばらつき算出部と、
    算出された前記ばらつき度合に基づいて、推定された前記自車位置についての前記補正を実施する補正部と、
    前記自車両が走行する道路の道幅を取得する道幅取得部と、
    前記自車両の左右にそれぞれ前記路側物が存在している場合に、抽出された前記特徴点に基づいて前記左右の前記路側物の間隔を算出する間隔算出部と、を備え、
    前記補正部は、取得された前記道幅と前記左右の路側物の間隔との幅差が所定範囲内であることを条件に、前記ばらつき度合に基づいて前記自車位置を補正する自車位置特定装置。
  6. 前記ばらつき算出部は、車両進行方向での前記自車両から距離に応じて区分された範囲毎に前記ばらつき度合を算出し、
    前記補正部は、前記各範囲のばらつき度合の差に基づいて、前記自車位置の補正に使用する前記範囲を選択し、選択された前記範囲に属する前記特徴点の前記地図上の位置を用いて前記自車位置を補正する、請求項1から請求項5のいずれか一項に記載の自車位置特定装置。
  7. 自車両が走行する道路上の前記自車両の位置を、前記道路上の路側物の地図上の位置に基づいて補正し、その補正結果により特定する自車位置特定装置(20)であって、
    前記地図上の自車位置をマップマッチング処理により推定する自車位置推定部と、
    自車両に搭載された特徴検出手段(32)の出力に基づいて、前記自車両の周辺に存在する前記路側物の特徴点を抽出する特徴抽出部と、
    前記道路に沿う方向の前記各特徴点について車両横方向でのばらつき度合を算出するばらつき算出部と、
    算出された前記ばらつき度合に基づいて、推定された前記自車位置についての前記補正を実施する補正部と、を備え、
    前記ばらつき算出部は、車両進行方向での前記自車両から距離に応じて区分された範囲毎に前記ばらつき度合を算出し、
    前記補正部は、前記各範囲のばらつき度合の差に基づいて、前記自車位置の補正に使用する前記範囲を選択し、選択された前記範囲に属する前記特徴点の前記地図上の位置を用いて前記自車位置を補正する自車位置特定装置。
  8. 前記補正部は、前記ばらつき度合が所定値以上である場合に、前記道路に沿う方向において前記特徴点を抽出する範囲を前記ばらつき度合に基づいて設定し、設定された前記範囲に含まれる前記特徴点の前記車両横方向での位置を平均化した結果と前記路側物の前記地図上での位置とに基づいて前記自車位置を補正する、請求項1から請求項5のいずれか一項に記載の自車位置特定装置。
  9. 自車両が走行する道路上の前記自車両の位置を、前記道路上の路側物の地図上の位置に基づいて補正し、その補正結果により特定する自車位置特定装置(20)であって、
    前記地図上の自車位置をマップマッチング処理により推定する自車位置推定部と、
    自車両に搭載された特徴検出手段(32)の出力に基づいて、前記自車両の周辺に存在する前記路側物の特徴点を抽出する特徴抽出部と、
    前記道路に沿う方向の前記各特徴点について車両横方向でのばらつき度合を算出するばらつき算出部と、
    算出された前記ばらつき度合に基づいて、推定された前記自車位置についての前記補正を実施する補正部と、を備え、
    前記補正部は、前記ばらつき度合が所定値以上である場合に、前記道路に沿う方向において前記特徴点を抽出する範囲を前記ばらつき度合に基づいて設定し、設定された前記範囲に含まれる前記特徴点の前記車両横方向での位置を平均化した結果と前記路側物の前記地図上での位置とに基づいて前記自車位置を補正する自車位置特定装置。
JP2016132605A 2016-07-04 2016-07-04 自車位置特定装置、及び自車位置特定方法 Active JP6654977B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016132605A JP6654977B2 (ja) 2016-07-04 2016-07-04 自車位置特定装置、及び自車位置特定方法
US15/637,156 US20180003505A1 (en) 2016-07-04 2017-06-29 Vehicle localization system and vehicle localization method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016132605A JP6654977B2 (ja) 2016-07-04 2016-07-04 自車位置特定装置、及び自車位置特定方法

Publications (2)

Publication Number Publication Date
JP2018004477A JP2018004477A (ja) 2018-01-11
JP6654977B2 true JP6654977B2 (ja) 2020-02-26

Family

ID=60806678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016132605A Active JP6654977B2 (ja) 2016-07-04 2016-07-04 自車位置特定装置、及び自車位置特定方法

Country Status (2)

Country Link
US (1) US20180003505A1 (ja)
JP (1) JP6654977B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2570497B (en) * 2018-01-29 2020-07-29 Ge Aviat Systems Ltd Aerial vehicles with machine vision
CN111902694B (zh) * 2018-04-03 2024-09-20 御眼视觉技术有限公司 用于确定导航参数的系统和方法
US11210936B2 (en) * 2018-04-27 2021-12-28 Cubic Corporation Broadcasting details of objects at an intersection
JP7071250B2 (ja) * 2018-09-26 2022-05-18 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
DE102018217840A1 (de) 2018-10-18 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und System zum Bestimmen eines Umfeldmodells für ein Fahrzeug
JP7326720B2 (ja) * 2018-10-26 2023-08-16 富士通株式会社 移動体位置推定システムおよび移動体位置推定方法
US11288521B2 (en) * 2019-01-31 2022-03-29 Uatc, Llc Automated road edge boundary detection
CN109961634A (zh) * 2019-03-05 2019-07-02 同济大学 一种基于车联网的城市道路垂直定位系统及方法
JP7247849B2 (ja) * 2019-10-11 2023-03-29 トヨタ自動車株式会社 駐車支援装置
WO2021124504A1 (ja) * 2019-12-19 2021-06-24 三菱電機株式会社 車載装置、情報処理方法及び情報処理プログラム
JP7485526B2 (ja) * 2020-03-18 2024-05-16 株式会社Soken 軸ずれ推定装置
CN111896010A (zh) * 2020-07-30 2020-11-06 北京百度网讯科技有限公司 车辆定位方法、装置、车辆以及存储介质
CN114323035A (zh) * 2020-09-30 2022-04-12 华为技术有限公司 定位方法、装置和系统
JP7543228B2 (ja) 2021-08-31 2024-09-02 株式会社トヨタマップマスター 道路平面点群データの補正方法及びその装置
KR20230055722A (ko) * 2021-10-19 2023-04-26 현대모비스 주식회사 차량의 타겟 감지 시스템 및 방법
US12049222B2 (en) 2021-12-10 2024-07-30 Ford Global Technologies, Llc Vehicle localization
US12043258B2 (en) 2021-12-10 2024-07-23 Ford Global Technologies, Llc Vehicle localization

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3531122B2 (ja) * 1994-07-15 2004-05-24 本田技研工業株式会社 車両用走行状況判断装置
JP5821275B2 (ja) * 2011-05-20 2015-11-24 マツダ株式会社 移動体位置検出装置
JP6173962B2 (ja) * 2014-04-01 2017-08-02 本田技研工業株式会社 レーンマーク認識装置
JP2016057066A (ja) * 2014-09-05 2016-04-21 パイオニア株式会社 判定装置、走行レーン判定方法、及び、走行レーン判定プログラム
JP6354556B2 (ja) * 2014-12-10 2018-07-11 株式会社デンソー 位置推定装置、位置推定方法、位置推定プログラム

Also Published As

Publication number Publication date
JP2018004477A (ja) 2018-01-11
US20180003505A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
JP6654977B2 (ja) 自車位置特定装置、及び自車位置特定方法
JP6626410B2 (ja) 自車位置特定装置、自車位置特定方法
JP6606610B2 (ja) 走路境界推定装置及びそれを用いた走行支援システム
JP4858574B2 (ja) 物体検出装置
KR101241651B1 (ko) 영상 인식 장치 및 그 방법, 영상 기록 장치 또는 그방법을 이용한 위치 판단 장치, 차량 제어 장치 및네비게이션 장치
JP5929936B2 (ja) 特異走行箇所検出装置及び特異走行箇所検出方法
JP6222353B2 (ja) 物標検出装置及び物標検出方法
CN108692719B (zh) 物体检测装置
WO2015087502A1 (ja) 自車位置検出装置
CN110859044A (zh) 自然场景中的集成传感器校准
JP2009075938A (ja) 道路形状推定装置
CN110858405A (zh) 车载摄像头的姿态估计方法、装置和系统及电子设备
JP6822427B2 (ja) 地図変化点検出装置
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
JP5278108B2 (ja) 移動体検出システム及び移動体検出方法
CN114550042A (zh) 一种道路消失点提取方法、车载传感器标定方法及装置
CN110378836B (zh) 获取对象的3d信息的方法、系统和设备
JP6622664B2 (ja) 自車位置特定装置、及び自車位置特定方法
US12131499B2 (en) Camera orientation estimation
JPWO2020071117A1 (ja) 情報処理装置
JP6649859B2 (ja) 自車位置推定装置、自車位置推定方法
US20200193184A1 (en) Image processing device and image processing method
JP2018017668A (ja) 情報処理装置、及び情報処理プログラム
JP2018036075A (ja) 自車位置特定装置、自車位置特定方法
WO2020017336A1 (ja) 物体検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200131

R150 Certificate of patent or registration of utility model

Ref document number: 6654977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250