JP2018040692A - Self-vehicle position estimation device and self-vehicle position estimation method - Google Patents
Self-vehicle position estimation device and self-vehicle position estimation method Download PDFInfo
- Publication number
- JP2018040692A JP2018040692A JP2016175006A JP2016175006A JP2018040692A JP 2018040692 A JP2018040692 A JP 2018040692A JP 2016175006 A JP2016175006 A JP 2016175006A JP 2016175006 A JP2016175006 A JP 2016175006A JP 2018040692 A JP2018040692 A JP 2018040692A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- road
- candidate
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000003384 imaging method Methods 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 239000003973 paint Substances 0.000 claims description 27
- 230000007717 exclusion Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 abstract description 55
- 230000006870 function Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 239000013256 coordination polymer Substances 0.000 description 9
- 240000004050 Pentaglottis sempervirens Species 0.000 description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 241000283070 Equus zebra Species 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000011280 coal tar Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
道路の形状を認識する自社位置推定装置、及び自車位置推定方法に関する。 The present invention relates to an in-house position estimation device that recognizes the shape of a road and a vehicle position estimation method.
従来、高精度なデジタル地図をもち、その地図上で自車の緯度経度(位置)、方位を推定することで、進路前方の道路形状を知り、自車両を操舵する方法が知られている。 2. Description of the Related Art Conventionally, a method is known in which a highly accurate digital map is provided, and the latitude / longitude (position) and direction of the host vehicle are estimated on the map to know the road shape ahead of the course and to steer the host vehicle.
特許文献1には、自車両の進路前方を撮像した撮像画像に基づいて、分岐路の位置で自車位置を合わせる手法が開示されている。特許文献1で開示された装置では、撮像画像から道路上の本線と分岐路との境界を示す太枠線やゼブラゾーンの特徴点を抽出した場合に、進路前方に分岐路が存在すると判定する。 Patent Document 1 discloses a method of adjusting the position of the host vehicle at the position of the branch road based on a captured image obtained by capturing the front of the path of the host vehicle. In the apparatus disclosed in Patent Document 1, when a feature point of a thick frame line indicating a boundary between a main line and a branch road on a road or a zebra zone is extracted from a captured image, it is determined that a branch road exists ahead of the course. .
特許文献1で記載されたように、分岐を示す破線で位置合わせする手法には以下のような問題がある。実環境では、破線がかすれて見えない分岐路、また破線が引かれていない分岐路が存在する。このような条件下の道路では、特許文献1で開示した手法は用いることが出来ない。 As described in Patent Document 1, the method of aligning with a broken line indicating a branch has the following problems. In a real environment, there are branch paths in which the broken line is not visible, and branch paths in which the broken line is not drawn. On the road under such conditions, the method disclosed in Patent Document 1 cannot be used.
一方で、画像から抽出した区画線等の形状に基づいて、地図上の車線の分岐等の開始位置を認識する場合、路面の汚れや路面の傷等をこの分岐等の開始位置として誤認識する場合がある。例えば、コールタールなどの路面補修跡や、トラックの2重タイヤのブレーキ痕の黒筋ではさまれた白い線状の領域など、路面の汚れが分岐に似た方向で延びている場合に、これらを、分岐開始位置を示す区画線として誤認識してしまう場合がある。自車位置推定において、分岐位置手前で前後位置を正確に合わさないと、例えば、分岐路へのレーンチェンジのタイミングがずれ、ドライバの大きな違和感につながる場合がある。区画線による認識に代えて、標識などで前後位置を合わせる手法もあるが、標識が無い場合や、先行車などの遮蔽で標識を認識できない場合も想定される。そのため、車線の分岐や合流位置を適正に認識することは、地図上の自車位置を推定する上で重要な技術となる。 On the other hand, when recognizing the start position of a lane branch or the like on the map based on the shape of a lane line or the like extracted from the image, a road surface dirt or a scratch on the road surface is erroneously recognized as the start position of this branch or the like. There is a case. For example, if the dirt on the road surface extends in a direction resembling a branch, such as a road surface repair mark such as coal tar or a white lined area between the black lines of the brake marks of a double tire on a truck May be misrecognized as a lane marking indicating the branch start position. In the vehicle position estimation, if the front and rear positions are not accurately matched before the branch position, for example, the timing of the lane change to the branch road may be shifted, leading to a great sense of discomfort for the driver. In place of recognition by lane markings, there is a method of aligning the front and rear positions with a sign or the like. However, there are cases where there is no sign or the sign cannot be recognized by shielding a preceding vehicle or the like. For this reason, appropriately recognizing the lane branching and merging position is an important technique for estimating the position of the vehicle on the map.
本発明は上記課題に鑑みたものであり、分岐や合流の開始位置を誤認識する可能性を低減することができる自車位置推定装置、及び自車位置推定方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a host vehicle position estimation device and a host vehicle position estimation method that can reduce the possibility of misrecognizing the start position of branching or merging. .
上記課題を解決するために本発明では、撮像部による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識する標示認識部と、認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する抽出部と、前記自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得する情報取得部と、抽出された前記候補を、前記位置情報で示される位置から自車線に沿った方向で所定距離内に存在する前記候補に絞り込む絞込み部と、絞り込まれた前記候補を、前記進路前方での前記車線の分岐点又は合流点を示す位置として特定する標示特定部と、特定された前記候補に基づいて、地図上の自車位置を推定する位置推定部と、を備える。 In order to solve the above problem, in the present invention, a map recognition unit that recognizes a road marking indicating a boundary of a lane in front of the course of the host vehicle based on a result of imaging by the imaging unit, and a map in the recognized road marking, An angle change part whose shape changes at an angle corresponding to the angle of the branch lane relative to the main line at the lane junction above or the angle of the merging lane relative to the main line at the lane junction is extracted as a candidate. And an information acquisition unit for acquiring position information indicating a position of a branching point or a merging point of the lane in front of the course of the host vehicle, and the extracted candidate from the position indicated by the position information. A narrowing-down part that narrows down to the candidates existing within a predetermined distance in a direction along the lane, and an indication that identifies the narrowed-down candidates as a position indicating a branch point or a merging point of the lane in front of the course Comprising a tough, based on the identified said candidate, a position estimation unit for estimating a vehicle position on the map, the.
本願発明者は、自車位置推定をする際には、地図をそもそも持っている点、また、誤認識を生じさせ易いタイヤ痕はトラックが本線手前でブレーキをかけながら分岐路に進入していく際に作られるため、本線の区画線と成す角度は分岐路の角度と一致し難い点、更には、路面補修跡やひび割れも、角度のばらつきがあり分岐路の角度と一致し難い点に着目した。そこで、地図で既知である分岐や合流の角度の情報を用いて、この分岐や合流に応じた角度となる部位を候補として抽出し、抽出した候補を位置情報に基づいて絞り込むことで、自車位置の特定に用いる分岐や合流の位置を特定することとした。そのため、事前にある程度推定されている自車位置から、前方の分岐や合流の存在とその角度を地図情報から得ることで、その角度以外を絞り込む。そして、絞り込んだ候補を用いて自車位置を推定する。その結果、分岐や合流の開始位置を誤認識する可能性を低減し、地図上の自車位置を適正に推定することができる。 The inventor of the present application has a map in the first place when estimating the vehicle position, and tire marks that tend to cause misrecognition enter the branch road while braking the truck before the main line. Because it is made at the time, the angle formed with the lane marking of the main line is difficult to coincide with the angle of the branch road, and further, attention is paid to the point that road surface repair marks and cracks are also uneven and difficult to coincide with the angle of the branch road did. Therefore, by using the information on the angles of branching and merging that are already known on the map, the part having the angle corresponding to the branching and merging is extracted as a candidate, and the extracted candidate is narrowed down based on the position information, so that the vehicle We decided to specify the position of branching and merging used to specify the position. For this reason, from the vehicle position that has been estimated to some extent in advance, the presence and angle of the front branch or merging and its angle are obtained from the map information to narrow down other than the angle. Then, the vehicle position is estimated using the narrowed candidates. As a result, it is possible to reduce the possibility of misrecognizing the start position of branching or merging, and to appropriately estimate the vehicle position on the map.
また、区画線の折れ曲がり点だけでなく、道路端のガードレールなどの折れ曲がり点でも同様の前後方向の自車位置推定が可能である。これにより、万一区画線がかすれている場合や、逆光で見えない場合でもマッチングが可能となる。また地図にも道路端情報を出力する手段を備えることで、同様の自車位置推定が可能となり、その際に外乱となる道路端の樹木などによる形状のゆらぎを、既に知られている角度で絞り込むことで誤りを抑制することが出来る。 In addition, it is possible to estimate the vehicle position in the front-rear direction in the same way not only at the folding point of the lane marking but also at the bending point of the guardrail at the road edge. This makes it possible to match even when the lane marking is faint or when it cannot be seen by backlight. Also, by providing a means for outputting road edge information on the map, it is possible to estimate the position of the vehicle in the same way, and the fluctuation of the shape due to trees at the road edge that becomes a disturbance at that time, at an already known angle By narrowing down, errors can be suppressed.
本発明にかかる自車位置推定装置、及び自車位置推定方法の実施形態を図面と共に説明する。なお、以下の実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。 Embodiments of a host vehicle position estimation apparatus and a host vehicle position estimation method according to the present invention will be described with reference to the drawings. In the following embodiments, parts that are the same or equivalent to each other are denoted by the same reference numerals in the drawings, and the description of the same reference numerals is used.
(第1実施形態)
図1は、自車位置推定装置、及び自車位置推定方法を適用した車両制御装置100を示している。車両制御装置100は、例えば、車両に搭載される車両システムの一例であり、地図上での自車位置を推定し、推定結果に基づいて自車両の運転を支援する。また、この実施形態において、路面標示とは、路面上に形成された道路境界線を形成する表示体であって、路面ペイント、道路鋲、縁石等を意味している。
(First embodiment)
FIG. 1 shows a
図1に示すように、車両制御装置100は、各種センサ30と、自車位置推定装置として機能するECU20と、運転支援装置40と、を備えている。
As shown in FIG. 1, the
各種センサ30は、GPS受信機31、カメラ32、車速センサ35、ヨーレートセンサ36、を備えている。
The
GPS受信機31は、周知の衛星測位システム(GNSS)の一部として機能することで、衛星から送信される電波をGPS情報として受信する。GPS情報には、衛星の位置や電波が送信された時刻や、衛星の位置の誤差を示す情報であるDOP(誤差情報)が含まれている。GPS受信機31は、GPS情報を受信した受信時刻とGPS情報に含まれる発信時刻との差に基づいて、衛星から自車両までの距離を算出する。そして、算出した距離と衛星の位置とをECU20に出力する。
The
カメラ32は、撮像部として機能し、自車両の進行方向前方を撮像できるよう撮像軸を自車両の前方に向けた状態で車室内に設置されている。この実施形態では、カメラ32は、単眼カメラであり、例えば、CCDイメージセンサやCMOSイメージセンサで構成されている。また、カメラ32で撮像された画像は、所定周期でECU20に出力される。なお、カメラ32は、車幅方向において並列する右カメラと左カメラとを有するステレオカメラであってもよい。
The
車速センサ35は、自車両の車輪に動力を伝達する回転軸に設けられており、その回転軸の回転数に基づいて自車両の速度を検出する。ヨーレートセンサ36は、自車両の単位時間当たりでの向きの変化を、自車両に実際に発生したヨーレート、すなわち車両の重心点回りの角速度により検出する。
The
ECU20は、CPU、ROM、RAMを備えたコンピュータとして構成されている。そして、CPUが、内部メモリに記憶されているプログラムを実行することにより、図1に示す各部として機能することができる。また、ECU20は、地図が記録された外部メモリ45に接続されており、この外部メモリ45から地図に記録された各情報を読み出すことができる。
ECU20 is comprised as a computer provided with CPU, ROM, and RAM. The CPU can function as each unit shown in FIG. 1 by executing a program stored in the internal memory. The
図2に示す地図では、道路上の車線を示すリンクLと車線の連結点を示すノードNとを記録している。このノードNには地図上の座標が記録されており、ノードNの位置を参照することにより、地図上での道路の形状変化が生じる位置を検出することができる。 In the map shown in FIG. 2, a link L indicating a lane on the road and a node N indicating a connection point of the lane are recorded. The coordinates on the map are recorded in the node N, and by referring to the position of the node N, it is possible to detect the position where the shape change of the road on the map occurs.
地図上での道路の形状変化として、図2(a)では車線の分岐を示し、図2(c)では車線の合流をそれぞれ示している。図2(a)に示すように、分岐点を示すノードN1には、本線を示すリンクL1,L2に加えて、分岐路を示すリンクL3が連結している。また、図2(c)に示すように、合流点を示すノードN11には、本線を示すリンクL11,L12に加えて、合流路を示すリンクL13が記録されている。また、地図は、車線の連結を示すノードNに加えて、所定距離毎に、道路上の位置を示す補助点を備えるものであってもよい。 As a change in the shape of the road on the map, FIG. 2A shows a lane branch, and FIG. 2C shows a lane merge. As shown in FIG. 2A, a link L3 indicating a branch path is connected to a node N1 indicating a branch point in addition to links L1 and L2 indicating the main line. In addition, as shown in FIG. 2C, a node L11 indicating a junction is recorded with a link L13 indicating a merge channel in addition to the links L11 and L12 indicating the main line. In addition to the node N indicating the lane connection, the map may include auxiliary points indicating the position on the road for each predetermined distance.
更に、地図は、道路情報として、道路上の地物の形状や位置を示す形状情報と、地物の名称や関連する情報を示す属性情報とを記録している。形状情報や属性情報は、地図上の各位置や地物に関連づけてその値が参照できるようデータベース化されている。例えば、形状情報として、図2(b)では、道路の境界線を示す路面ペイントの形状(近似曲線)や、本線から分岐する分岐路の分岐角θrが、地図上の位置に関連づけて記録されている。例えば、路面ペイントの形状は、代表点の座標と、各代表点を繋ぐ線の近似曲線とを備える周知のベクターデータにより形成されている。 Further, the map records, as road information, shape information indicating the shape and position of the feature on the road, and attribute information indicating the name of the feature and related information. The shape information and attribute information are stored in a database so that the values can be referred to in association with each position or feature on the map. For example, as shape information, in FIG. 2B, the shape (approximate curve) of the road surface paint indicating the road boundary line and the branch angle θr of the branch road branched from the main line are recorded in association with the position on the map. ing. For example, the shape of the road surface paint is formed by well-known vector data including coordinates of representative points and approximate curves of lines connecting the representative points.
また、ECU20は、路面標示において、道路の形状変化が生じる位置を示す形状変化部を認識する。形状変化部は、道路の境界線を示す路面標示の内、車線に沿った方向に対して所定角度で傾く部位を有しており、この実施形態では、車線の分岐点や合流点等を示す部位である。ECU20は、カメラ32による撮像結果により得られるエッジ点により、進路前方の形状変化部における、自車両を基準とする相対位置を認識する。また、認識した形状変化部を、地図上の自車位置の推定に使用する。
Moreover, ECU20 recognizes the shape change part which shows the position where the shape change of a road arises in a road marking. The shape changing portion has a portion inclined at a predetermined angle with respect to the direction along the lane in the road marking indicating the boundary line of the road. In this embodiment, the shape changing portion indicates a lane branch point, a merging point, or the like. It is a part. ECU20 recognizes the relative position on the basis of the own vehicle in the shape change part ahead of a course by the edge point obtained from the imaging result by the
図3を用いて、ECU20が認識した形状変化部を用いて、自車位置を認識する手法を説明する。まず、ECU20は、認識した形状変化部の相対位置に、GPS情報等に基づいて地図上で取得されている自車両の位置EPを加えることで、絶対座標上の検出位置DPを算出する。そして、算出した検出位置DPと、この検出位置DPに対応する地図上での形状変化部の位置MPとマッチングさせることで、両位置DP,MPのずれ量を算出する。例えば、検出位置DPと地図上での位置MPとの関係をずれ量を要素とする行列式を用いてマッチングさせるとともに、この行列式の各要素を解くことでずれ量を算出することができる。そして、算出されたずれ量により、位置EPを補正することで、自車位置CPの推定を行う。ここで、形状変化部の一部は、車線に沿った方向から所定角度で傾いており、この部位を用いて進行方向において両位置DP,MPをマッチングさせることができる。そのため、形状変化部を自車位置の推定に用いることで、進行方向でのずれ量を精度良く算出することができる。
A method for recognizing the vehicle position using the shape change unit recognized by the
運転支援装置40は、ECU20が推定した自車位置CPに基づいて、自車両の走行を制御する。例えば、運転支援装置40は、推定された自車位置CP、車速及びヨーレートにより自車両の将来の位置を予測し、予測した将来の位置と道路の認識結果とを用いて、自車両が区画線等の路面ペイントにより区画される自車線を逸脱するおそれがあるか否かを判断する。例えば、運転支援装置40が警報機能を有していれば、自車両が自車線を逸脱するおそれがあると判断した場合、自車両が備えるディスプレイにより警告表示を行ったり、自車両が備えるスピーカにより警告音を発生させたりする。また、運転支援装置40が運転補助機能を有していれば、自車両が自車線を逸脱するおそれがあると判断した場合、操舵装置に操舵力を加える。
The driving support device 40 controls the traveling of the host vehicle based on the host vehicle position CP estimated by the
ECU20が、カメラ32の撮像結果に基づいて、路面標示における形状変化部を認識する場合、路面の汚れや傷等をこの形状変化部として誤認識する場合がある。例えば、図3の例では、路面の汚れが道路に沿った方向で所定角度に延びており、カメラ32がこの汚れの位置Diを形状変化部として誤認識している。汚れを誤認識した位置Diにより自車位置CPを特定すると、地図上の自車位置CPに誤差が生じるおそれがある。また、自車位置推定において、分岐位置手前で前後位置を正確に合わさないと、例えば、分岐路へのレーンチェンジのタイミングがずれ、運転者の違和感を大きくする。そのため、自車位置の推定に用いる道路上の部位を適正に認識することは、正確なマッチングを実現する上で重要な技術となる。そこで、ECU20は、図1に示す各機能を備えることで、道路の形状変化が生じる位置を誤認識する可能性を低減している。
When the
次に、図1に示すECU20の各機能を説明する。標示認識部21は、カメラ32による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識する。標示認識部21は、例えば、カメラ32により撮像された撮像画像を鳥瞰処理することで、当該撮像画像内の物体等の位置を自車上方から俯瞰した場合の位置関係となるよう変換する。そして、この鳥瞰処理後の撮像画像からエッジ点等の特徴点を抽出する。そして、抽出された特徴点をその形状や輝度パターン等によりグループ化することで、グループ化された特徴点を路面表示として認識する。
Next, each function of the
抽出部22は、標示認識部21により認識された路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する。例えば、図4では、抽出部22は、撮像画像内で認識された各路面標示の内、車線に沿った方向に対して所定の傾き角θbで形状が変化する形状変化点HPを有する角度変化部ACPを、形状変化部の候補として抽出する。このとき、傾き角θbは、自車両の前方に存在する道路の形状変化を示す角度に基づいて決定される。図4では、道路の中心線Mに平行な直線部Ssに対して形状変化点HPから傾き角θbで傾く傾き部Sbを備える角度変化部ACPを形状変化部の候補として抽出している。なお、傾き角θbを算出するための各部Ss,Sbの算出方法としては、例えば、路面標示の特徴点を周知のハフ(Hough)変換することで算出することができる。
In the road marking recognized by the
情報取得部23は、自車両の位置を基準として、進路前方での道路の形状変化が生じる車線の分岐点の位置や車線の合流点の位置を示す位置情報を取得する。この第1実施形態では、情報取得部23は、地図上で推定された自車両の位置を基準として、地図に記録された車線の分岐点や合流点を示すノードNの位置を位置情報として取得する。
The
絞込み部24は、抽出部22により抽出された形状変化部の候補を、位置情報で示される位置から車線に沿った方向で所定距離内に存在する候補に絞り込む。情報取得部23で取得される位置情報には誤差を含んでいるため、絞込み部24はこの誤差を考慮して、絞り込みの対象となる候補が存在する位置を設定する。例えば、絞込み部24は位置情報により示される位置を基準として各候補を絞り込むための領域を設定し、この領域に属する候補を絞り込みの対象とする。
The narrowing-down
標示特定部25は、絞り込まれた候補を、進路前方での形状変化部として特定する。即ち、絞り込まれた路面標示の角度変化部の位置を、道路上で実際に分岐や合流等の形状変化が生じている位置として特定する。
The
位置推定部26は、特定された形状変化部の候補を用いて、地図上の自車位置CPを推定する。この実施形態では、位置推定部26は、測位センサとして機能するGPS受信機31の出力に基づいて取得された地図上での位置、又は車速センサ35及びヨーレートセンサ36の出力に基づいて取得された地図上の位置を補正することで自車位置CPを特定する。
The
次に、ECU20が実施する自車位置CPの特定を、図5を用いて説明する。図5に示す処理は、ECU20により所定周期で実施される処理である。また、図5に示す処理では、道路の形状変化部として車線の分岐点を用い、この分岐点を示す路面ペイントを特定する場合を例に説明を行う。
Next, the identification of the own vehicle position CP performed by the
ステップS10では、GPS情報に基づいてい地図上の自車両の位置を取得する。例えば、ECU20は、周知のマップマッチング処理を用いて地図上で推定された推定位置を取得する。ステップS10が測位位置取得部として機能する。
In step S10, the position of the host vehicle on the map is acquired based on the GPS information. For example, the
ステップS11では、ステップS10で取得した位置から進路前方の所定距離内に車線の分岐点が存在しているか否かを判定する。ここで、所定距離は、推定位置から10メートル以上かつ100メートル未満の距離であればよく、例えば50メートル以内の位置である。ECU20は地図上での推定位置から所定距離内に分岐点を示すノードNが存在していれば、車線の分岐点が存在していると判定する。一方、推定位置から所定距離内に分岐点が存在しない場合(ステップS11:NO)、図5の処理を一旦終了する。
In step S11, it is determined whether or not a lane branch point exists within a predetermined distance ahead of the course from the position acquired in step S10. Here, the predetermined distance may be a distance of 10 meters or more and less than 100 meters from the estimated position, for example, a position within 50 meters. If there is a node N indicating a branch point within a predetermined distance from the estimated position on the map, the
推定位置から進路前方の所定距離内に車線の分岐点が存在している場合(ステップS11:YES)、ステップS12では、カメラ32による撮像結果である撮像画像に基づいて、自車両の進路前方の路面ペイントの位置を認識する。ステップS12が標示認識工程として機能する。
When a branch point of the lane exists within a predetermined distance ahead of the course from the estimated position (step S11: YES), in step S12, based on the captured image that is the imaging result of the
ステップS13では、認識された路面ペイントにおいて、車線に沿った方向に対して所定角度で変化する角度変化部を、車線の分岐や合流を示す形状変化部の候補として抽出する。図6は、ステップS13の処理を詳細に示すフローチャートである。ステップS13が抽出工程として機能する。 In step S13, in the recognized road surface paint, an angle changing portion that changes at a predetermined angle with respect to the direction along the lane is extracted as a candidate for a shape changing portion that indicates lane branching or merging. FIG. 6 is a flowchart showing in detail the process of step S13. Step S13 functions as an extraction process.
ステップS21では、撮像画像を鳥瞰処理する。ステップS22では、鳥瞰処理後の画像に含まれる角度変化部を抽出する。例えば、ECU20は、路面ペイントにおいて、形状変化点を有する部位を角度変化部として抽出する。
In step S21, the captured image is subjected to bird's-eye processing. In step S22, an angle change part included in the image after bird's-eye view processing is extracted. For example, the
ステップS23では、地図上に車線の分岐点における本線を基準とした分岐車線の分岐角θrが記録されているか否かを判定する。図7(a)に示すように、分岐車線の分岐角θrが地図上に形状情報として記録されていれば(ステップS23:YES)、ステップS24では、この分岐角θrを地図に記録された形状情報から取得する。 In step S23, it is determined whether or not the branching angle θr of the branching lane based on the main line at the branching point of the lane is recorded on the map. As shown in FIG. 7A, if the branch angle θr of the branch lane is recorded as shape information on the map (step S23: YES), in step S24, this branch angle θr is recorded on the map. Obtain from information.
なお、道路の形状変化が生じる位置として車線の合流点を用いる場合、ステップS23において、ECU20は、車線の合流点における本線を基準とした合流車線の角度を取得することとなる。
When the lane junction is used as a position where the road shape changes, in step S23, the
地図に分岐車線の分岐角θrが形状情報として記録されていない場合(ステップS23:NO)、ステップS25では、地図上で分岐路を表すリンクLと本線を示すリンクLとで形成される角度に基づいて分岐車線の分岐角θrを算出する。例えば、図7(b)に示すように、ECU20は、分岐点を示すノードN21に連結し、本線を示すリンクL21と分岐路を示すリンクL22とで形成される角度を算出し、この角度を分岐車線の分岐角θrとする。
When the branching angle θr of the branch lane is not recorded as shape information on the map (step S23: NO), in step S25, the angle formed by the link L indicating the branch road and the link L indicating the main line is set. Based on this, the branch angle θr of the branch lane is calculated. For example, as shown in FIG. 7B, the
ステップS26では、ステップS24又はステップS25で取得された分岐角θrと、ステップS22で抽出された角度変化部の傾き角θbとを対比し、対比結果に基づいて形状変化部の候補を抽出する。例えば、ECU20は、角度変化部の傾き角θbと分岐車線の分岐角θrとの差分が閾値Th以下である角度変化部を形状変化部の候補として抽出する。なお、閾値Thは、5度以上10度以下の値で設定することができるが、カメラ32の認識精度や地図に記録された分岐角θrの精度によってもその値が変化する。図8の例では、ステップS26の判定により、撮像画像から形状変化部の候補C1〜C3が抽出されている。
In step S26, the branching angle θr acquired in step S24 or step S25 is compared with the inclination angle θb of the angle changing unit extracted in step S22, and a candidate for the shape changing unit is extracted based on the comparison result. For example, the
図5に戻り、ステップS14では、自車両の位置を基準として、進路前方での道路の形状変化が生じる位置を示す位置情報を取得する。カメラ32による撮像結果は、自車両から遠ざかる程その認識精度が低下する。そのため、図9(a)に示すように、この第1実施形態では、ECU20は、地図上において、ステップS10で取得した位置EPから所定距離D1内での車線の分岐点(ノードN)の位置を探索し、探索した位置を位置情報として取得する。ここで、所定距離D1は、カメラ32による撮像精度に応じて設定される距離である。ステップS14が情報取得工程として機能する。
Returning to FIG. 5, in step S <b> 14, position information indicating the position where the shape change of the road in front of the course occurs is acquired with reference to the position of the host vehicle. The recognition accuracy of the imaging result obtained by the
ステップS15では、撮像画像内の各候補を、位置情報で示される位置から道路に沿った方向で所定距離内に存在する候補に絞り込む。位置情報は誤差が存在するため、図9(b)に示すように、ECU20は、ステップS14で取得した位置情報Piから道路に沿った方向で前後に距離D2だけ広がる領域を、候補を絞り込むための絞込み領域NAとして設定する。そして、設定した絞込み領域NA内の候補Cを絞り込み対象とする。なお、距離D2は、位置情報の精度に応じて設定され、例えば、5メートル以上、及び20メートル以下の値とすることができる。
In step S15, each candidate in the captured image is narrowed down to candidates existing within a predetermined distance in the direction along the road from the position indicated by the position information. Since there is an error in the position information, as shown in FIG. 9B, the
ステップS15の絞込み結果により候補が存在しない場合(ステップS16:NO)、図5の処理を一旦終了する。一方、ステップS15の絞込み結果により候補が存在する場合(ステップS16:YES)、ステップS17に進む。図9(b)の例では、絞込み領域NAには、候補C1が位置しているため、各候補から候補C1に絞り込まれたこととなる。 If there is no candidate as a result of the narrowing down in step S15 (step S16: NO), the processing in FIG. On the other hand, if there is a candidate as a result of the narrowing down in step S15 (step S16: YES), the process proceeds to step S17. In the example of FIG. 9B, since the candidate C1 is located in the narrowed down area NA, each candidate is narrowed down to the candidate C1.
ステップS17では、ステップS16で絞り込まれた候補を、道路における形状変化部として特定する。図9(b)の例では、候補C1が分岐点に対応する形状変化部として特定される。ステップS18が標示特定工程として機能する。 In step S17, the candidates narrowed down in step S16 are specified as the shape changing part on the road. In the example of FIG. 9B, the candidate C1 is specified as the shape changing unit corresponding to the branch point. Step S18 functions as a sign specifying step.
ステップS18では、ステップS17で特定された形状変化部(候補)を用いて、自車位置CPを推定する。具体的には、ECU20は、形状変化部の検出位置DPと、この形状変化部の地図上の位置MPとをマッチングした結果によりずれ量を算出し、このずれ量により位置EPを補正することで、補正後の位置により自車位置を推定する。ステップS18が位置推定工程として機能する。
In step S18, the vehicle position CP is estimated using the shape change part (candidate) specified in step S17. Specifically, the
以上説明したようにこの第1実施形態では、ECU20は、カメラ32による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識し、認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度を有する角度変化部を、候補として抽出する。また、自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得し、抽出した候補を、位置情報で示される位置から自車線に沿った方向で所定距離内に存在する候補に絞り込む。そして、絞り込まれた候補を、進路前方での車線の分岐点又は合流点として特定し、特定した候補に基づいて、地図上の自車位置を推定することとした。この場合、角度変化部の角度と位置情報に基づく範囲との両条件を満たす候補を絞り込むことで、車線の分岐や合流の開始を示す路面標示を誤認識する可能性を低減することができる。その結果、適正に認識された路面標示により地図上の自車位置を特定することが可能となる。
As described above, in the first embodiment, the
ECU20は、GPS受信機31からの出力に基づいて、地図上の自車位置を取得し、地図上における自車位置から所定距離内に位置する車線の分岐点又は合流点を探索する。そして、探索した車線の分岐点又は合流点の位置を位置情報として取得する。カメラ32による撮像結果は、自車両から遠ざかる程その認識精度が低下する。この点、上記構成では、地図上の自車位置から所定距離内に存在する形状変化部の位置を位置情報として取得することとした。この場合、候補が絞り込まれる範囲がカメラ32の認識精度が担保された範囲となるため、カメラ32の認識精度の低下に起因して、形状変化部を誤認識する可能性を抑制することができる。
The
(第2実施形態)
この第2実施形態では、カメラ32の撮像結果に基づいて抽出された候補の内、道路上の汚れや傷に該当する候補を、候補から除外する。
(Second Embodiment)
In the second embodiment, candidates corresponding to dirt or scratches on the road among the candidates extracted based on the imaging result of the
例えば、図5のステップS15の候補の絞込みにおいて、画像内の各候補を、位置情報で示される位置からの距離に加えて、輝度パターンに基づいて候補の絞込みを行う。路面ペイントと道路上の汚れや傷とを比較した場合、路面ペイントでは白線領域の両側に路面色が現れるパターンとなるのに対して、道路上の汚れや傷は、このようなパターンとなる可能性が低い。そのため、ECU20は、道路の道幅方向における候補を含む周囲の輝度パターンに基づいて、抽出した各候補が路面ペイントか否かを判定し、判定結果に応じて候補の除外を行う。そのため、図5のステップS15が輝度パターン除外部として機能する。 For example, in the candidate narrowing in step S15 in FIG. 5, each candidate in the image is narrowed down based on the luminance pattern in addition to the distance from the position indicated by the position information. When comparing road paint with dirt and scratches on the road, road paint shows a pattern in which the road color appears on both sides of the white line area, whereas dirt and scratches on the road can be such a pattern. The nature is low. Therefore, ECU20 determines whether each extracted candidate is road surface paint based on the surrounding luminance pattern containing the candidate in the road width direction of a road, and excludes a candidate according to a determination result. Therefore, step S15 in FIG. 5 functions as a luminance pattern exclusion unit.
図10は、輝度パターンを用いた候補の除外を説明する図である。輝度パターンの判定方法の一例として、ECU20は、候補周辺を含む周囲の画素をグレースケール化し、このグレースケール化した画素のヒストグラムを算出する。図10(a)において、路面ペイントである候補C1の周囲は、ペイント領域である白線(高輝度)領域と、この白線の両側に現れる路面(低輝度)領域と、で構成されている。そのため、図10(b)で示す候補C1の周囲のヒストグラムには、高輝度及び低輝度の画素数PNが多く、中輝度の画素数PNが少なくなる。一方、図10(a)において、路面上の傷である候補C3の周囲は、主に路面(低輝度)領域で構成されている。そのため、図10(c)で示す候補C3の周囲のヒストグラムには、高輝度の画素数PNが少なく、中輝度から低輝度の画素数PNが多くなる。そのため、ECU20は各候補の周囲のヒストグラムにより得られる輝度パターンを判定することで、路面ペイントではない候補を除外することができる。
FIG. 10 is a diagram for explaining candidate exclusion using a luminance pattern. As an example of the determination method of the luminance pattern, the
以上説明したようにこの第2実施形態では、ECU20は、道路の道幅方向における候補を含む周囲の輝度パターンに基づいて、候補が路面ペイントか否かを判定し、路面ペイントと判定しなかった候補を、絞り込みの対象から除外する。路面ペイントと道路上の汚れや傷とを比較した場合、路面ペイントでは白線領域の両側に路面色が現れる輝度パターンとなるのに対して、道路上の汚れや傷は、このような輝度パターンが表れない可能性が高くなる。この点、上記構成では、道路の道幅方向における候補周囲の輝度パターンにより、この候補が路面ペイントであるか否かを判定し、路面ペイントでない場合は絞込みの対象から除外することとした。この場合、路面ペイントにおける形状変化部と形状が近似した道路の汚れや傷を除外することができ、候補に対する絞り込みの精度を高めることができる。
As described above, in the second embodiment, the
(第3実施形態)
この第3実施形態では、カメラ32の撮像結果に基づいて抽出された候補の内、タイヤ痕に該当する候補を、候補から除外する。
(Third embodiment)
In the third embodiment, the candidates corresponding to the tire marks are excluded from the candidates extracted based on the imaging result of the
図11は、第3実施形態において候補の除外方法を説明する図である。路面上に道路に沿った方向で所定角度に延びたタイヤ痕TCが存在していると、このタイヤ痕を、車線の分岐点や合流点を示す部位として誤認識する場合がある。そこで、ECU20は、図5のステップS15の候補の絞込みにおいて、画像内の各候補を、位置情報で示される位置からの距離に加えて、タイヤ痕であるか否かの判定結果に基づいて候補の絞込みを行う。そのため、この第3実施形態において、図5のステップS15がタイヤ痕除外部として機能する。
FIG. 11 is a diagram for explaining a candidate exclusion method in the third embodiment. If there is a tire mark TC extending at a predetermined angle in the direction along the road on the road surface, the tire mark may be erroneously recognized as a part indicating a lane branch or merging point. Accordingly, the
例えば、ECU20は、各候補のテクスチャ等の特徴量を抽出し、タイヤ痕と類似する特徴量を備える候補を除外する。特徴量の算出方法の一例として、ECU20は、各候補を構成する画素の輝度分布を示すヒストグラムを算出し、このヒストグラムに基づいてタイヤ痕に該当するテクスチャであるか否かを判定する。そして、タイヤ痕と判定した候補(図11ではTC)を、形状変化部の候補から除外する。
For example, the
なお、各候補の特徴量の算出方法として、輝度のヒストグラムに代えて、周知のパターンマッチングを用いるものであってもよい。また、この第3実施形態で示したタイヤ痕であるかの判定と、第2実施形態で示した輝度パターンの判定とを組み合わせるものであってもよい。 As a method for calculating the feature amount of each candidate, a known pattern matching may be used instead of the luminance histogram. Moreover, you may combine the determination whether it is a tire trace shown in this 3rd Embodiment, and the determination of the luminance pattern shown in 2nd Embodiment.
以上説明したようにこの第3実施形態では、ECU20は、候補がタイヤ痕であるか否かを判定し、タイヤ痕と判定した候補を絞り込みの対象から除外する。路面上に道路に沿った方向で所定角度に延びたタイヤ痕が存在していると、このタイヤ痕を、形状変化部と誤認識する場合がある。この点、上記構成では、抽出された候補がタイヤ痕であるか否かを判定し、タイヤ痕と判定した候補を絞込みの対象から除外することとした。この場合、形状変化部と誤認識し易いタイヤ痕を候補から除外することができ、候補に対する絞り込みの精度を高めることができる。
As described above, in the third embodiment, the
(第4実施形態)
この第4実施形態では、候補を絞り込む範囲を設定するための位置情報を、カメラ32による撮像結果に基づいて取得する。
(Fourth embodiment)
In the fourth embodiment, position information for setting a range for narrowing candidates is acquired based on the imaging result of the
図12は、図5のステップS14で実施される処理を説明するフローチャートである。 FIG. 12 is a flowchart illustrating the process performed in step S14 of FIG.
ステップS31では、撮像画像内の路面の位置を推定する。例えば、ECU20は、図5のステップS11で認識された左右の道路境界を示す路面ペイントを用いて道路を示す領域を推定する。
In step S31, the position of the road surface in the captured image is estimated. For example, the
ステップS32では、道路に沿った方向において道幅の増加を検出する。ECU20は、ステップS31で推定した路面における左右の道路境界を示す路面ペイントを抽出し、この路面ペイントの車幅方向(道幅方向)での間隔の変化により道幅の増加を検出する。ステップS32が道幅判定部として機能する。 In step S32, an increase in road width is detected in the direction along the road. ECU20 extracts the road surface paint which shows the right and left road boundary in the road surface estimated by step S31, and detects the increase in road width by the change of the space | interval in the vehicle width direction (road width direction) of this road surface paint. Step S32 functions as a road width determination unit.
道幅の増加を検出しない場合(ステップS33:NO)、進路前方に道路の形状変化が生じる位置が存在しないと判断し、図5及び図12の処理を一旦終了する。一方、道幅の増加を検出した場合(ステップS33:YES)、ステップS34に進む。 If an increase in road width is not detected (step S33: NO), it is determined that there is no position where the road shape changes in front of the course, and the processing in FIGS. 5 and 12 is temporarily terminated. On the other hand, when an increase in road width is detected (step S33: YES), the process proceeds to step S34.
ステップS34では、道幅が増加している位置を位置情報として取得する。例えば、図13(a)では、ECU20は、ステップS32で検出された道幅が増加する位置の内、進路前方において自車両から最も近い位置を位置情報Piとして取得している。
In step S34, a position where the road width is increasing is acquired as position information. For example, in FIG. 13A, the
そして、図5に戻り、ステップS15では、図13(b)に示すように、ステップS34で算出された位置情報で示される位置から道路に沿った方向で所定距離の範囲を絞込み領域NAとして設定する。そして、ECU20は、絞込み領域NAに属する候補を絞り込みの対象とする。 Returning to FIG. 5, in step S15, as shown in FIG. 13B, a range of a predetermined distance in the direction along the road from the position indicated by the position information calculated in step S34 is set as a narrowed area NA. To do. And ECU20 makes the candidate which belongs to narrowing-down area | region NA the object of narrowing down.
以上説明したようにこの第4実施形態では、ECU20は、カメラ32の撮像結果に基づいて、進路前方において道幅が増加する位置を検出し、道幅が増加する領域が検出された場合に、この位置を位置情報として取得する。進路前方に道路の形状変化が生じる位置が出現する場合、道幅の増加によりこの位置の出現を判定することができる。この点、上記構成では、撮像結果に基づいて進路前方で道幅が増加する位置を検出し、検出した位置を位置情報として取得することとした。この場合、地図を用いることなく、候補を絞り込むための位置情報を取得することができるため、地図上に道路の形状変化が生じる位置が記録されていない場合でも、候補を絞り込むための範囲を設定することが可能となる。
As described above, in the fourth embodiment, the
(その他の実施形態)
道路上の形状変化部としては、車線の分岐点や車線の合流点に加えて、路側に設けられた退避路の入口又は出口であってもよい。この場合、ECU20は、図5のステップS12において、路面標示の内、退避路の入口又は出口を示す形状変化部を認識する。
(Other embodiments)
The shape changing portion on the road may be an entrance or exit of a retreat path provided on the road side in addition to a lane junction or a lane junction. In this case, the
ECU20は、特定した路面標示における形状変化部に基づいて地図上の自車位置を特定することに代えて、この形状変化部に基づいて自車両を自車線に維持させるレーンキープコントロールや、形状変化部を周囲の車両に通知する車車間通信を行うものであってもよい。 ECU20 replaces with specifying the own vehicle position on a map based on the shape change part in the specified road marking, lane keep control which maintains the own vehicle on the own lane based on this shape change part, shape change Vehicle-to-vehicle communication for notifying the vehicle to the surrounding vehicle may be performed.
21…標示認識部、22…抽出部、23…情報取得部、24…絞込み部、25…標示特定部、26…位置推定部。
DESCRIPTION OF
Claims (6)
認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する抽出部と、
前記自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得する情報取得部と、
抽出された前記候補を、前記位置情報で示される位置から自車線に沿った方向で所定距離内に存在する前記候補に絞り込む絞込み部と、
絞り込まれた前記候補を、前記進路前方での前記車線の分岐点又は合流点として特定する標示特定部と、
特定された前記候補に基づいて、地図上の自車位置を推定する位置推定部と、を備える自車位置推定装置。 A sign recognition unit for recognizing a road marking indicating a boundary of a lane in front of the course of the host vehicle based on an image pickup result by the image pickup unit (32);
In the recognized road marking, the shape changes at an angle corresponding to the angle of the branch lane relative to the main line at the lane branch point on the map or the angle of the merging lane relative to the main line at the lane junction. An angle changing unit to extract as candidates,
An information acquisition unit for acquiring position information indicating a position of a branch point or a merging point of the lane in front of the course of the host vehicle;
A narrowing unit that narrows down the extracted candidates to the candidates existing within a predetermined distance in a direction along the own lane from the position indicated by the position information;
A sign identifying unit that identifies the narrowed candidates as a branch point or a merge point of the lane in front of the course;
A vehicle position estimation apparatus comprising: a position estimation unit that estimates a vehicle position on a map based on the identified candidate.
前記情報取得部は、前記測位位置取得部により取得された前記地図上での前記自車位置から所定距離内に位置する前記車線の分岐点又は合流点を探索し、探索した前記車線の分岐点又は合流点の位置を前記位置情報として取得する、請求項1に記載の自車位置推定装置。 Based on the output from the positioning sensor (31, 35, 36), a positioning position acquisition unit that acquires the vehicle position on the map is provided.
The information acquisition unit searches for a branch point or a merge point of the lane located within a predetermined distance from the vehicle position on the map acquired by the positioning position acquisition unit, and searches for the branch point of the lane Or the own vehicle position estimation apparatus of Claim 1 which acquires the position of a confluence | merging point as said position information.
前記情報取得部は、前記道幅判定部により前記道幅が増加する位置が検出された場合に、前記位置情報を取得する、請求項1に記載の自車位置推定装置。 A road width determination unit that determines whether or not the road width has increased in front of the course based on the imaging result,
The host vehicle position estimation apparatus according to claim 1, wherein the information acquisition unit acquires the position information when a position where the road width increases is detected by the road width determination unit.
道路の道幅方向における前記候補を含む周囲の輝度パターンに基づいて、前記候補が前記路面ペイントか否かを判定し、前記路面ペイントと判定しなかった前記候補を、前記絞込み部による絞り込みの対象から除外する輝度パターン除外部を備える、請求項1から請求項3のいずれか一項に記載の自車位置推定装置。 The road marking is road paint,
Based on the surrounding luminance pattern including the candidate in the width direction of the road, it is determined whether or not the candidate is the road surface paint, and the candidate that is not determined to be the road surface paint is selected from the targets to be narrowed by the narrowing unit. The own vehicle position estimation apparatus according to any one of claims 1 to 3, further comprising a luminance pattern exclusion unit to be excluded.
認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する抽出工程と、
前記自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得する情報取得工程と、
抽出された前記候補を、前記位置情報で示される位置から自車線に沿った方向で所定距離内に存在する前記候補に絞り込む絞込み工程と、
絞り込まれた前記候補を、前記進路前方での前記車線の分岐点又は合流点として特定する標示特定工程と、
特定された前記候補に基づいて、地図上の自車位置を特定する位置推定工程と、を備える自車位置推定方法。 A sign recognition step for recognizing a road marking indicating a boundary of a lane in front of the course of the host vehicle based on an imaging result by the imaging unit;
In the recognized road marking, the shape changes at an angle corresponding to the angle of the branch lane relative to the main line at the lane branch point on the map or the angle of the merging lane relative to the main line at the lane junction. An extraction step of extracting the angle changing part as a candidate;
An information acquisition step of acquiring position information indicating a position of a branch point or a merging point of the lane in front of the course of the host vehicle;
A narrowing step of narrowing down the extracted candidates to the candidates existing within a predetermined distance in a direction along the own lane from the position indicated by the position information;
An indication specifying step for specifying the narrowed candidates as a branch point or a junction of the lane in front of the course;
A vehicle position estimation method comprising: a position estimation step of identifying a vehicle position on a map based on the identified candidate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175006A JP6649859B2 (en) | 2016-09-07 | 2016-09-07 | Vehicle position estimation device and vehicle position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016175006A JP6649859B2 (en) | 2016-09-07 | 2016-09-07 | Vehicle position estimation device and vehicle position estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018040692A true JP2018040692A (en) | 2018-03-15 |
JP6649859B2 JP6649859B2 (en) | 2020-02-19 |
Family
ID=61625884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016175006A Active JP6649859B2 (en) | 2016-09-07 | 2016-09-07 | Vehicle position estimation device and vehicle position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6649859B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019196970A (en) * | 2018-05-09 | 2019-11-14 | トヨタ自動車株式会社 | Own vehicle position estimating device |
JP2019207190A (en) * | 2018-05-30 | 2019-12-05 | 株式会社Soken | Self-position estimation device |
CN111886477A (en) * | 2018-03-30 | 2020-11-03 | 日立汽车系统株式会社 | Vehicle control device |
JP2022024740A (en) * | 2020-07-28 | 2022-02-09 | 株式会社Soken | Vehicle position estimation device and vehicle position estimation method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010197279A (en) * | 2009-02-26 | 2010-09-09 | Aisin Aw Co Ltd | Navigation system and program for navigation |
JP2011033572A (en) * | 2009-08-05 | 2011-02-17 | Nissan Motor Co Ltd | Device and method for determining entry into fork road |
WO2014027478A1 (en) * | 2012-08-13 | 2014-02-20 | 本田技研工業株式会社 | Road environment recognition device |
-
2016
- 2016-09-07 JP JP2016175006A patent/JP6649859B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010197279A (en) * | 2009-02-26 | 2010-09-09 | Aisin Aw Co Ltd | Navigation system and program for navigation |
JP2011033572A (en) * | 2009-08-05 | 2011-02-17 | Nissan Motor Co Ltd | Device and method for determining entry into fork road |
WO2014027478A1 (en) * | 2012-08-13 | 2014-02-20 | 本田技研工業株式会社 | Road environment recognition device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111886477A (en) * | 2018-03-30 | 2020-11-03 | 日立汽车系统株式会社 | Vehicle control device |
CN111886477B (en) * | 2018-03-30 | 2024-04-26 | 日立安斯泰莫株式会社 | Vehicle control device |
JP2019196970A (en) * | 2018-05-09 | 2019-11-14 | トヨタ自動車株式会社 | Own vehicle position estimating device |
CN110470309A (en) * | 2018-05-09 | 2019-11-19 | 丰田自动车株式会社 | This truck position apparatus for predicting |
JP7052543B2 (en) | 2018-05-09 | 2022-04-12 | トヨタ自動車株式会社 | Vehicle position estimation device |
JP2019207190A (en) * | 2018-05-30 | 2019-12-05 | 株式会社Soken | Self-position estimation device |
WO2019230038A1 (en) * | 2018-05-30 | 2019-12-05 | 株式会社Soken | Self-position estimation device |
JP2022024740A (en) * | 2020-07-28 | 2022-02-09 | 株式会社Soken | Vehicle position estimation device and vehicle position estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP6649859B2 (en) | 2020-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7461720B2 (en) | Vehicle position determination method and vehicle position determination device | |
KR101241651B1 (en) | Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method | |
JP4321821B2 (en) | Image recognition apparatus and image recognition method | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
US9460352B2 (en) | Lane boundary line recognition device | |
JP6626410B2 (en) | Vehicle position specifying device and vehicle position specifying method | |
US8180561B2 (en) | Vehicle-installation obstacle detection apparatus | |
EP2958054B1 (en) | Hazard detection in a scene with moving shadows | |
JP5747787B2 (en) | Lane recognition device | |
JP4973736B2 (en) | Road marking recognition device, road marking recognition method, and road marking recognition program | |
US9569673B2 (en) | Method and device for detecting a position of a vehicle on a lane | |
EP2963634B1 (en) | Stereo camera device | |
US20160363647A1 (en) | Vehicle positioning in intersection using visual cues, stationary objects, and gps | |
JP6468136B2 (en) | Driving support device and driving support method | |
JP6548893B2 (en) | Roadway recognition device and travel support system using the same | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
JP6649859B2 (en) | Vehicle position estimation device and vehicle position estimation method | |
JP2006208223A (en) | Vehicle position recognition device and vehicle position recognition method | |
Liu et al. | Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions | |
WO2015186294A1 (en) | Vehicle-mounted image-processing device | |
US20180012083A1 (en) | Demarcation line recognition apparatus | |
JP4775658B2 (en) | Feature recognition device, vehicle position recognition device, navigation device, feature recognition method | |
JP6622664B2 (en) | Self-vehicle position specifying device and self-vehicle position specifying method | |
KR102003387B1 (en) | Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program | |
WO2020113425A1 (en) | Systems and methods for constructing high-definition map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6649859 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |