Nothing Special   »   [go: up one dir, main page]

JP2018040692A - Self-vehicle position estimation device and self-vehicle position estimation method - Google Patents

Self-vehicle position estimation device and self-vehicle position estimation method Download PDF

Info

Publication number
JP2018040692A
JP2018040692A JP2016175006A JP2016175006A JP2018040692A JP 2018040692 A JP2018040692 A JP 2018040692A JP 2016175006 A JP2016175006 A JP 2016175006A JP 2016175006 A JP2016175006 A JP 2016175006A JP 2018040692 A JP2018040692 A JP 2018040692A
Authority
JP
Japan
Prior art keywords
lane
road
candidate
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016175006A
Other languages
Japanese (ja)
Other versions
JP6649859B2 (en
Inventor
直輝 川嵜
Naoteru Kawasaki
直輝 川嵜
宏次朗 立石
Kojiro Tateishi
宏次朗 立石
俊輔 鈴木
Shunsuke Suzuki
俊輔 鈴木
広 水野
Hiroshi Mizuno
広 水野
武藤 健二
Kenji Muto
健二 武藤
幹郎 清水
Mikiro Shimizu
幹郎 清水
雄介 田中
Yusuke Tanaka
雄介 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2016175006A priority Critical patent/JP6649859B2/en
Publication of JP2018040692A publication Critical patent/JP2018040692A/en
Application granted granted Critical
Publication of JP6649859B2 publication Critical patent/JP6649859B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a self-vehicle position estimation device and a self-vehicle position estimation method capable of reducing a possibility to erroneously recognize a start position of branching or confluence.SOLUTION: An ECU 20 includes: a sign recognition section 21 for recognizing a road surface sign indicating a boundary of a lane in front of a course of a self- vehicle on the basis of an imaging result by an imaging section 32; an extraction section 22 for extracting an angle change part to be changed at a predetermined angle with respect to a direction along a lane within a recognized road surface sign as a candidate of a shape change part indicating a road shape change; an information acquisition section 23 for acquiring position information indicating a position where a road shape change occurs in front of a course; a narrowing section 24 for narrowing extracted candidates to a candidate present within a predetermined distance in a direction along a lane from a position indicated by the position information; a sign identification section 25 for identifying a narrowed candidate as a shape change part in front of a course; and a position estimation section 26 for identifying a self-vehicle position on a map on the basis of an identified branch point or confluence point of a lane.SELECTED DRAWING: Figure 1

Description

道路の形状を認識する自社位置推定装置、及び自車位置推定方法に関する。   The present invention relates to an in-house position estimation device that recognizes the shape of a road and a vehicle position estimation method.

従来、高精度なデジタル地図をもち、その地図上で自車の緯度経度(位置)、方位を推定することで、進路前方の道路形状を知り、自車両を操舵する方法が知られている。   2. Description of the Related Art Conventionally, a method is known in which a highly accurate digital map is provided, and the latitude / longitude (position) and direction of the host vehicle are estimated on the map to know the road shape ahead of the course and to steer the host vehicle.

特許文献1には、自車両の進路前方を撮像した撮像画像に基づいて、分岐路の位置で自車位置を合わせる手法が開示されている。特許文献1で開示された装置では、撮像画像から道路上の本線と分岐路との境界を示す太枠線やゼブラゾーンの特徴点を抽出した場合に、進路前方に分岐路が存在すると判定する。   Patent Document 1 discloses a method of adjusting the position of the host vehicle at the position of the branch road based on a captured image obtained by capturing the front of the path of the host vehicle. In the apparatus disclosed in Patent Document 1, when a feature point of a thick frame line indicating a boundary between a main line and a branch road on a road or a zebra zone is extracted from a captured image, it is determined that a branch road exists ahead of the course. .

特開2007−3286号公報Japanese Patent Laid-Open No. 2007-3286

特許文献1で記載されたように、分岐を示す破線で位置合わせする手法には以下のような問題がある。実環境では、破線がかすれて見えない分岐路、また破線が引かれていない分岐路が存在する。このような条件下の道路では、特許文献1で開示した手法は用いることが出来ない。   As described in Patent Document 1, the method of aligning with a broken line indicating a branch has the following problems. In a real environment, there are branch paths in which the broken line is not visible, and branch paths in which the broken line is not drawn. On the road under such conditions, the method disclosed in Patent Document 1 cannot be used.

一方で、画像から抽出した区画線等の形状に基づいて、地図上の車線の分岐等の開始位置を認識する場合、路面の汚れや路面の傷等をこの分岐等の開始位置として誤認識する場合がある。例えば、コールタールなどの路面補修跡や、トラックの2重タイヤのブレーキ痕の黒筋ではさまれた白い線状の領域など、路面の汚れが分岐に似た方向で延びている場合に、これらを、分岐開始位置を示す区画線として誤認識してしまう場合がある。自車位置推定において、分岐位置手前で前後位置を正確に合わさないと、例えば、分岐路へのレーンチェンジのタイミングがずれ、ドライバの大きな違和感につながる場合がある。区画線による認識に代えて、標識などで前後位置を合わせる手法もあるが、標識が無い場合や、先行車などの遮蔽で標識を認識できない場合も想定される。そのため、車線の分岐や合流位置を適正に認識することは、地図上の自車位置を推定する上で重要な技術となる。   On the other hand, when recognizing the start position of a lane branch or the like on the map based on the shape of a lane line or the like extracted from the image, a road surface dirt or a scratch on the road surface is erroneously recognized as the start position of this branch or the like. There is a case. For example, if the dirt on the road surface extends in a direction resembling a branch, such as a road surface repair mark such as coal tar or a white lined area between the black lines of the brake marks of a double tire on a truck May be misrecognized as a lane marking indicating the branch start position. In the vehicle position estimation, if the front and rear positions are not accurately matched before the branch position, for example, the timing of the lane change to the branch road may be shifted, leading to a great sense of discomfort for the driver. In place of recognition by lane markings, there is a method of aligning the front and rear positions with a sign or the like. However, there are cases where there is no sign or the sign cannot be recognized by shielding a preceding vehicle or the like. For this reason, appropriately recognizing the lane branching and merging position is an important technique for estimating the position of the vehicle on the map.

本発明は上記課題に鑑みたものであり、分岐や合流の開始位置を誤認識する可能性を低減することができる自車位置推定装置、及び自車位置推定方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a host vehicle position estimation device and a host vehicle position estimation method that can reduce the possibility of misrecognizing the start position of branching or merging. .

上記課題を解決するために本発明では、撮像部による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識する標示認識部と、認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する抽出部と、前記自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得する情報取得部と、抽出された前記候補を、前記位置情報で示される位置から自車線に沿った方向で所定距離内に存在する前記候補に絞り込む絞込み部と、絞り込まれた前記候補を、前記進路前方での前記車線の分岐点又は合流点を示す位置として特定する標示特定部と、特定された前記候補に基づいて、地図上の自車位置を推定する位置推定部と、を備える。   In order to solve the above problem, in the present invention, a map recognition unit that recognizes a road marking indicating a boundary of a lane in front of the course of the host vehicle based on a result of imaging by the imaging unit, and a map in the recognized road marking, An angle change part whose shape changes at an angle corresponding to the angle of the branch lane relative to the main line at the lane junction above or the angle of the merging lane relative to the main line at the lane junction is extracted as a candidate. And an information acquisition unit for acquiring position information indicating a position of a branching point or a merging point of the lane in front of the course of the host vehicle, and the extracted candidate from the position indicated by the position information. A narrowing-down part that narrows down to the candidates existing within a predetermined distance in a direction along the lane, and an indication that identifies the narrowed-down candidates as a position indicating a branch point or a merging point of the lane in front of the course Comprising a tough, based on the identified said candidate, a position estimation unit for estimating a vehicle position on the map, the.

本願発明者は、自車位置推定をする際には、地図をそもそも持っている点、また、誤認識を生じさせ易いタイヤ痕はトラックが本線手前でブレーキをかけながら分岐路に進入していく際に作られるため、本線の区画線と成す角度は分岐路の角度と一致し難い点、更には、路面補修跡やひび割れも、角度のばらつきがあり分岐路の角度と一致し難い点に着目した。そこで、地図で既知である分岐や合流の角度の情報を用いて、この分岐や合流に応じた角度となる部位を候補として抽出し、抽出した候補を位置情報に基づいて絞り込むことで、自車位置の特定に用いる分岐や合流の位置を特定することとした。そのため、事前にある程度推定されている自車位置から、前方の分岐や合流の存在とその角度を地図情報から得ることで、その角度以外を絞り込む。そして、絞り込んだ候補を用いて自車位置を推定する。その結果、分岐や合流の開始位置を誤認識する可能性を低減し、地図上の自車位置を適正に推定することができる。   The inventor of the present application has a map in the first place when estimating the vehicle position, and tire marks that tend to cause misrecognition enter the branch road while braking the truck before the main line. Because it is made at the time, the angle formed with the lane marking of the main line is difficult to coincide with the angle of the branch road, and further, attention is paid to the point that road surface repair marks and cracks are also uneven and difficult to coincide with the angle of the branch road did. Therefore, by using the information on the angles of branching and merging that are already known on the map, the part having the angle corresponding to the branching and merging is extracted as a candidate, and the extracted candidate is narrowed down based on the position information, so that the vehicle We decided to specify the position of branching and merging used to specify the position. For this reason, from the vehicle position that has been estimated to some extent in advance, the presence and angle of the front branch or merging and its angle are obtained from the map information to narrow down other than the angle. Then, the vehicle position is estimated using the narrowed candidates. As a result, it is possible to reduce the possibility of misrecognizing the start position of branching or merging, and to appropriately estimate the vehicle position on the map.

また、区画線の折れ曲がり点だけでなく、道路端のガードレールなどの折れ曲がり点でも同様の前後方向の自車位置推定が可能である。これにより、万一区画線がかすれている場合や、逆光で見えない場合でもマッチングが可能となる。また地図にも道路端情報を出力する手段を備えることで、同様の自車位置推定が可能となり、その際に外乱となる道路端の樹木などによる形状のゆらぎを、既に知られている角度で絞り込むことで誤りを抑制することが出来る。   In addition, it is possible to estimate the vehicle position in the front-rear direction in the same way not only at the folding point of the lane marking but also at the bending point of the guardrail at the road edge. This makes it possible to match even when the lane marking is faint or when it cannot be seen by backlight. Also, by providing a means for outputting road edge information on the map, it is possible to estimate the position of the vehicle in the same way, and the fluctuation of the shape due to trees at the road edge that becomes a disturbance at that time, at an already known angle By narrowing down, errors can be suppressed.

車両制御装置の構成図。The block diagram of a vehicle control apparatus. 外部メモリに記録されている地図を説明する図。The figure explaining the map currently recorded on the external memory. 自車位置の特定を説明する図。The figure explaining specification of the own vehicle position. 角度変化部を備える路面標示の抽出方法を説明する図。The figure explaining the extraction method of a road marking provided with an angle change part. ECUが実施する自車位置の特定を説明するフローチャート。The flowchart explaining the specification of the own vehicle position which ECU implements. 図5のステップS13の処理を詳細に示すフローチャート。The flowchart which shows the process of FIG.5 S13 in detail. 角度変化部の角度を説明する図。The figure explaining the angle of an angle change part. 候補の抽出を説明する図。The figure explaining extraction of a candidate. 候補の絞込みを説明する図。The figure explaining narrowing down of a candidate. 輝度パターンを用いた候補の除外を説明する図。The figure explaining exclusion of the candidate using a luminance pattern. タイヤ痕の判定による候補の除外方法を説明する図。The figure explaining the exclusion method of the candidate by determination of a tire mark. 図4のステップS14で実施される処理を説明するフローチャート。The flowchart explaining the process implemented by FIG.4 S14. 第3実施形態において、道路の形状変化が生じる位置を探索する処理を説明する図。The figure explaining the process which searches the position where the shape change of a road produces in 3rd Embodiment.

本発明にかかる自車位置推定装置、及び自車位置推定方法の実施形態を図面と共に説明する。なお、以下の実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。   Embodiments of a host vehicle position estimation apparatus and a host vehicle position estimation method according to the present invention will be described with reference to the drawings. In the following embodiments, parts that are the same or equivalent to each other are denoted by the same reference numerals in the drawings, and the description of the same reference numerals is used.

(第1実施形態)
図1は、自車位置推定装置、及び自車位置推定方法を適用した車両制御装置100を示している。車両制御装置100は、例えば、車両に搭載される車両システムの一例であり、地図上での自車位置を推定し、推定結果に基づいて自車両の運転を支援する。また、この実施形態において、路面標示とは、路面上に形成された道路境界線を形成する表示体であって、路面ペイント、道路鋲、縁石等を意味している。
(First embodiment)
FIG. 1 shows a vehicle control device 100 to which the vehicle position estimation device and the vehicle position estimation method are applied. The vehicle control apparatus 100 is an example of a vehicle system mounted on a vehicle, for example, estimates the position of the host vehicle on a map, and supports driving of the host vehicle based on the estimation result. Further, in this embodiment, the road marking is a display body that forms a road boundary line formed on the road surface, and means road paint, road fences, curbs, and the like.

図1に示すように、車両制御装置100は、各種センサ30と、自車位置推定装置として機能するECU20と、運転支援装置40と、を備えている。   As shown in FIG. 1, the vehicle control device 100 includes various sensors 30, an ECU 20 that functions as a host vehicle position estimation device, and a driving support device 40.

各種センサ30は、GPS受信機31、カメラ32、車速センサ35、ヨーレートセンサ36、を備えている。   The various sensors 30 include a GPS receiver 31, a camera 32, a vehicle speed sensor 35, and a yaw rate sensor 36.

GPS受信機31は、周知の衛星測位システム(GNSS)の一部として機能することで、衛星から送信される電波をGPS情報として受信する。GPS情報には、衛星の位置や電波が送信された時刻や、衛星の位置の誤差を示す情報であるDOP(誤差情報)が含まれている。GPS受信機31は、GPS情報を受信した受信時刻とGPS情報に含まれる発信時刻との差に基づいて、衛星から自車両までの距離を算出する。そして、算出した距離と衛星の位置とをECU20に出力する。   The GPS receiver 31 functions as part of a well-known satellite positioning system (GNSS), thereby receiving radio waves transmitted from the satellite as GPS information. The GPS information includes DOP (error information) that is information indicating an error in the position of the satellite, the time when the radio wave is transmitted, and the position of the satellite. The GPS receiver 31 calculates the distance from the satellite to the host vehicle based on the difference between the reception time when the GPS information is received and the transmission time included in the GPS information. Then, the calculated distance and the position of the satellite are output to the ECU 20.

カメラ32は、撮像部として機能し、自車両の進行方向前方を撮像できるよう撮像軸を自車両の前方に向けた状態で車室内に設置されている。この実施形態では、カメラ32は、単眼カメラであり、例えば、CCDイメージセンサやCMOSイメージセンサで構成されている。また、カメラ32で撮像された画像は、所定周期でECU20に出力される。なお、カメラ32は、車幅方向において並列する右カメラと左カメラとを有するステレオカメラであってもよい。   The camera 32 functions as an imaging unit, and is installed in the vehicle interior with the imaging axis facing the front of the host vehicle so that the front of the host vehicle can be captured. In this embodiment, the camera 32 is a monocular camera, and is composed of, for example, a CCD image sensor or a CMOS image sensor. Moreover, the image imaged with the camera 32 is output to ECU20 with a predetermined period. The camera 32 may be a stereo camera having a right camera and a left camera arranged in parallel in the vehicle width direction.

車速センサ35は、自車両の車輪に動力を伝達する回転軸に設けられており、その回転軸の回転数に基づいて自車両の速度を検出する。ヨーレートセンサ36は、自車両の単位時間当たりでの向きの変化を、自車両に実際に発生したヨーレート、すなわち車両の重心点回りの角速度により検出する。   The vehicle speed sensor 35 is provided on a rotating shaft that transmits power to the wheels of the host vehicle, and detects the speed of the host vehicle based on the number of rotations of the rotating shaft. The yaw rate sensor 36 detects a change in the direction of the host vehicle per unit time based on the yaw rate actually generated in the host vehicle, that is, the angular velocity around the center of gravity of the vehicle.

ECU20は、CPU、ROM、RAMを備えたコンピュータとして構成されている。そして、CPUが、内部メモリに記憶されているプログラムを実行することにより、図1に示す各部として機能することができる。また、ECU20は、地図が記録された外部メモリ45に接続されており、この外部メモリ45から地図に記録された各情報を読み出すことができる。   ECU20 is comprised as a computer provided with CPU, ROM, and RAM. The CPU can function as each unit shown in FIG. 1 by executing a program stored in the internal memory. The ECU 20 is connected to an external memory 45 in which a map is recorded, and can read each piece of information recorded on the map from the external memory 45.

図2に示す地図では、道路上の車線を示すリンクLと車線の連結点を示すノードNとを記録している。このノードNには地図上の座標が記録されており、ノードNの位置を参照することにより、地図上での道路の形状変化が生じる位置を検出することができる。   In the map shown in FIG. 2, a link L indicating a lane on the road and a node N indicating a connection point of the lane are recorded. The coordinates on the map are recorded in the node N, and by referring to the position of the node N, it is possible to detect the position where the shape change of the road on the map occurs.

地図上での道路の形状変化として、図2(a)では車線の分岐を示し、図2(c)では車線の合流をそれぞれ示している。図2(a)に示すように、分岐点を示すノードN1には、本線を示すリンクL1,L2に加えて、分岐路を示すリンクL3が連結している。また、図2(c)に示すように、合流点を示すノードN11には、本線を示すリンクL11,L12に加えて、合流路を示すリンクL13が記録されている。また、地図は、車線の連結を示すノードNに加えて、所定距離毎に、道路上の位置を示す補助点を備えるものであってもよい。   As a change in the shape of the road on the map, FIG. 2A shows a lane branch, and FIG. 2C shows a lane merge. As shown in FIG. 2A, a link L3 indicating a branch path is connected to a node N1 indicating a branch point in addition to links L1 and L2 indicating the main line. In addition, as shown in FIG. 2C, a node L11 indicating a junction is recorded with a link L13 indicating a merge channel in addition to the links L11 and L12 indicating the main line. In addition to the node N indicating the lane connection, the map may include auxiliary points indicating the position on the road for each predetermined distance.

更に、地図は、道路情報として、道路上の地物の形状や位置を示す形状情報と、地物の名称や関連する情報を示す属性情報とを記録している。形状情報や属性情報は、地図上の各位置や地物に関連づけてその値が参照できるようデータベース化されている。例えば、形状情報として、図2(b)では、道路の境界線を示す路面ペイントの形状(近似曲線)や、本線から分岐する分岐路の分岐角θrが、地図上の位置に関連づけて記録されている。例えば、路面ペイントの形状は、代表点の座標と、各代表点を繋ぐ線の近似曲線とを備える周知のベクターデータにより形成されている。   Further, the map records, as road information, shape information indicating the shape and position of the feature on the road, and attribute information indicating the name of the feature and related information. The shape information and attribute information are stored in a database so that the values can be referred to in association with each position or feature on the map. For example, as shape information, in FIG. 2B, the shape (approximate curve) of the road surface paint indicating the road boundary line and the branch angle θr of the branch road branched from the main line are recorded in association with the position on the map. ing. For example, the shape of the road surface paint is formed by well-known vector data including coordinates of representative points and approximate curves of lines connecting the representative points.

また、ECU20は、路面標示において、道路の形状変化が生じる位置を示す形状変化部を認識する。形状変化部は、道路の境界線を示す路面標示の内、車線に沿った方向に対して所定角度で傾く部位を有しており、この実施形態では、車線の分岐点や合流点等を示す部位である。ECU20は、カメラ32による撮像結果により得られるエッジ点により、進路前方の形状変化部における、自車両を基準とする相対位置を認識する。また、認識した形状変化部を、地図上の自車位置の推定に使用する。   Moreover, ECU20 recognizes the shape change part which shows the position where the shape change of a road arises in a road marking. The shape changing portion has a portion inclined at a predetermined angle with respect to the direction along the lane in the road marking indicating the boundary line of the road. In this embodiment, the shape changing portion indicates a lane branch point, a merging point, or the like. It is a part. ECU20 recognizes the relative position on the basis of the own vehicle in the shape change part ahead of a course by the edge point obtained from the imaging result by the camera 32. FIG. In addition, the recognized shape changing portion is used for estimating the vehicle position on the map.

図3を用いて、ECU20が認識した形状変化部を用いて、自車位置を認識する手法を説明する。まず、ECU20は、認識した形状変化部の相対位置に、GPS情報等に基づいて地図上で取得されている自車両の位置EPを加えることで、絶対座標上の検出位置DPを算出する。そして、算出した検出位置DPと、この検出位置DPに対応する地図上での形状変化部の位置MPとマッチングさせることで、両位置DP,MPのずれ量を算出する。例えば、検出位置DPと地図上での位置MPとの関係をずれ量を要素とする行列式を用いてマッチングさせるとともに、この行列式の各要素を解くことでずれ量を算出することができる。そして、算出されたずれ量により、位置EPを補正することで、自車位置CPの推定を行う。ここで、形状変化部の一部は、車線に沿った方向から所定角度で傾いており、この部位を用いて進行方向において両位置DP,MPをマッチングさせることができる。そのため、形状変化部を自車位置の推定に用いることで、進行方向でのずれ量を精度良く算出することができる。   A method for recognizing the vehicle position using the shape change unit recognized by the ECU 20 will be described with reference to FIG. First, the ECU 20 calculates the detected position DP on the absolute coordinates by adding the position EP of the host vehicle acquired on the map based on the GPS information or the like to the relative position of the recognized shape changing unit. Then, the amount of deviation between the two positions DP and MP is calculated by matching the calculated detection position DP with the position MP of the shape changing portion on the map corresponding to the detection position DP. For example, the relationship between the detected position DP and the position MP on the map is matched using a determinant having the shift amount as an element, and the shift amount can be calculated by solving each element of the determinant. Then, the vehicle position CP is estimated by correcting the position EP based on the calculated deviation amount. Here, a part of the shape changing portion is inclined at a predetermined angle from the direction along the lane, and both positions DP and MP can be matched in the traveling direction using this portion. Therefore, the amount of deviation in the traveling direction can be calculated with high accuracy by using the shape changing portion for estimating the vehicle position.

運転支援装置40は、ECU20が推定した自車位置CPに基づいて、自車両の走行を制御する。例えば、運転支援装置40は、推定された自車位置CP、車速及びヨーレートにより自車両の将来の位置を予測し、予測した将来の位置と道路の認識結果とを用いて、自車両が区画線等の路面ペイントにより区画される自車線を逸脱するおそれがあるか否かを判断する。例えば、運転支援装置40が警報機能を有していれば、自車両が自車線を逸脱するおそれがあると判断した場合、自車両が備えるディスプレイにより警告表示を行ったり、自車両が備えるスピーカにより警告音を発生させたりする。また、運転支援装置40が運転補助機能を有していれば、自車両が自車線を逸脱するおそれがあると判断した場合、操舵装置に操舵力を加える。   The driving support device 40 controls the traveling of the host vehicle based on the host vehicle position CP estimated by the ECU 20. For example, the driving support device 40 predicts the future position of the host vehicle based on the estimated host vehicle position CP, the vehicle speed, and the yaw rate, and uses the predicted future position and the road recognition result to determine whether the host vehicle is a lane marking. It is determined whether or not there is a risk of deviating from the own lane divided by the road surface paint. For example, if the driving support device 40 has an alarm function, if it is determined that the host vehicle may deviate from the host lane, a warning is displayed on a display included in the host vehicle, or a speaker included in the host vehicle is used. A warning sound is generated. Further, if the driving support device 40 has a driving assist function, when it is determined that the host vehicle may deviate from the own lane, a steering force is applied to the steering device.

ECU20が、カメラ32の撮像結果に基づいて、路面標示における形状変化部を認識する場合、路面の汚れや傷等をこの形状変化部として誤認識する場合がある。例えば、図3の例では、路面の汚れが道路に沿った方向で所定角度に延びており、カメラ32がこの汚れの位置Diを形状変化部として誤認識している。汚れを誤認識した位置Diにより自車位置CPを特定すると、地図上の自車位置CPに誤差が生じるおそれがある。また、自車位置推定において、分岐位置手前で前後位置を正確に合わさないと、例えば、分岐路へのレーンチェンジのタイミングがずれ、運転者の違和感を大きくする。そのため、自車位置の推定に用いる道路上の部位を適正に認識することは、正確なマッチングを実現する上で重要な技術となる。そこで、ECU20は、図1に示す各機能を備えることで、道路の形状変化が生じる位置を誤認識する可能性を低減している。   When the ECU 20 recognizes the shape change portion in the road marking based on the imaging result of the camera 32, dirt or scratches on the road surface may be erroneously recognized as the shape change portion. For example, in the example of FIG. 3, the dirt on the road surface extends at a predetermined angle in the direction along the road, and the camera 32 misrecognizes the dirt position Di as the shape change portion. If the vehicle position CP is specified based on the position Di in which dirt is erroneously recognized, an error may occur in the vehicle position CP on the map. Further, in the vehicle position estimation, if the front and rear positions are not accurately matched before the branch position, for example, the timing of the lane change to the branch road is shifted, and the driver feels uncomfortable. Therefore, appropriately recognizing a part on the road used for estimating the position of the vehicle is an important technique for realizing accurate matching. Therefore, the ECU 20 is provided with each function shown in FIG. 1 to reduce the possibility of erroneously recognizing a position where a road shape change occurs.

次に、図1に示すECU20の各機能を説明する。標示認識部21は、カメラ32による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識する。標示認識部21は、例えば、カメラ32により撮像された撮像画像を鳥瞰処理することで、当該撮像画像内の物体等の位置を自車上方から俯瞰した場合の位置関係となるよう変換する。そして、この鳥瞰処理後の撮像画像からエッジ点等の特徴点を抽出する。そして、抽出された特徴点をその形状や輝度パターン等によりグループ化することで、グループ化された特徴点を路面表示として認識する。   Next, each function of the ECU 20 shown in FIG. 1 will be described. The sign recognition unit 21 recognizes a road marking indicating the boundary of the lane ahead of the course of the host vehicle based on the imaging result of the camera 32. For example, the sign recognition unit 21 performs bird's-eye processing on a captured image captured by the camera 32 to convert the position of an object or the like in the captured image into a positional relationship when viewed from above the host vehicle. Then, feature points such as edge points are extracted from the captured image after the bird's-eye view processing. Then, the extracted feature points are grouped according to their shapes, luminance patterns, etc., so that the grouped feature points are recognized as road surface display.

抽出部22は、標示認識部21により認識された路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する。例えば、図4では、抽出部22は、撮像画像内で認識された各路面標示の内、車線に沿った方向に対して所定の傾き角θbで形状が変化する形状変化点HPを有する角度変化部ACPを、形状変化部の候補として抽出する。このとき、傾き角θbは、自車両の前方に存在する道路の形状変化を示す角度に基づいて決定される。図4では、道路の中心線Mに平行な直線部Ssに対して形状変化点HPから傾き角θbで傾く傾き部Sbを備える角度変化部ACPを形状変化部の候補として抽出している。なお、傾き角θbを算出するための各部Ss,Sbの算出方法としては、例えば、路面標示の特徴点を周知のハフ(Hough)変換することで算出することができる。   In the road marking recognized by the sign recognition unit 21, the extraction unit 22 determines the angle of the branch lane with respect to the main line at the branch point of the lane on the map, or the merging lane with reference to the main line at the merging point of the lane. An angle changing portion whose shape changes at an angle corresponding to the angle is extracted as a candidate. For example, in FIG. 4, the extraction unit 22 changes the angle having a shape change point HP whose shape changes at a predetermined inclination angle θb with respect to the direction along the lane among the road markings recognized in the captured image. The part ACP is extracted as a candidate for the shape change part. At this time, the inclination angle θb is determined based on an angle indicating a change in the shape of the road existing ahead of the host vehicle. In FIG. 4, an angle change portion ACP including an inclination portion Sb inclined at an inclination angle θb from the shape change point HP with respect to the straight portion Ss parallel to the center line M of the road is extracted as a shape change portion candidate. In addition, as a calculation method of each part Ss and Sb for calculating inclination-angle (theta) b, it can calculate by well-known Hough (Hough) transformation of the feature point of a road marking, for example.

情報取得部23は、自車両の位置を基準として、進路前方での道路の形状変化が生じる車線の分岐点の位置や車線の合流点の位置を示す位置情報を取得する。この第1実施形態では、情報取得部23は、地図上で推定された自車両の位置を基準として、地図に記録された車線の分岐点や合流点を示すノードNの位置を位置情報として取得する。   The information acquisition unit 23 acquires position information indicating the position of a lane branch point or a lane junction point where a change in the shape of the road ahead of the course occurs based on the position of the host vehicle. In the first embodiment, the information acquisition unit 23 acquires, as position information, the position of a node N indicating a lane junction or merging point recorded on the map, based on the position of the host vehicle estimated on the map. To do.

絞込み部24は、抽出部22により抽出された形状変化部の候補を、位置情報で示される位置から車線に沿った方向で所定距離内に存在する候補に絞り込む。情報取得部23で取得される位置情報には誤差を含んでいるため、絞込み部24はこの誤差を考慮して、絞り込みの対象となる候補が存在する位置を設定する。例えば、絞込み部24は位置情報により示される位置を基準として各候補を絞り込むための領域を設定し、この領域に属する候補を絞り込みの対象とする。   The narrowing-down unit 24 narrows down the shape change unit candidates extracted by the extraction unit 22 to candidates existing within a predetermined distance in the direction along the lane from the position indicated by the position information. Since the position information acquired by the information acquisition unit 23 includes an error, the narrowing unit 24 sets a position where a candidate to be narrowed exists in consideration of this error. For example, the narrowing-down unit 24 sets an area for narrowing down each candidate based on the position indicated by the position information, and uses candidates belonging to this area as a narrowing target.

標示特定部25は、絞り込まれた候補を、進路前方での形状変化部として特定する。即ち、絞り込まれた路面標示の角度変化部の位置を、道路上で実際に分岐や合流等の形状変化が生じている位置として特定する。   The sign specifying unit 25 specifies the narrowed candidates as a shape changing unit in front of the course. That is, the position of the angle change portion of the narrowed road marking is specified as a position where a shape change such as branching or merging actually occurs on the road.

位置推定部26は、特定された形状変化部の候補を用いて、地図上の自車位置CPを推定する。この実施形態では、位置推定部26は、測位センサとして機能するGPS受信機31の出力に基づいて取得された地図上での位置、又は車速センサ35及びヨーレートセンサ36の出力に基づいて取得された地図上の位置を補正することで自車位置CPを特定する。   The position estimating unit 26 estimates the vehicle position CP on the map using the identified candidate shape changing unit. In this embodiment, the position estimation unit 26 is acquired based on the position on the map acquired based on the output of the GPS receiver 31 functioning as a positioning sensor, or based on the outputs of the vehicle speed sensor 35 and the yaw rate sensor 36. The vehicle position CP is specified by correcting the position on the map.

次に、ECU20が実施する自車位置CPの特定を、図5を用いて説明する。図5に示す処理は、ECU20により所定周期で実施される処理である。また、図5に示す処理では、道路の形状変化部として車線の分岐点を用い、この分岐点を示す路面ペイントを特定する場合を例に説明を行う。   Next, the identification of the own vehicle position CP performed by the ECU 20 will be described with reference to FIG. The process shown in FIG. 5 is a process performed by the ECU 20 at a predetermined cycle. Further, in the process shown in FIG. 5, a case where a lane branch point is used as a road shape changing portion and a road surface paint indicating the branch point is specified will be described as an example.

ステップS10では、GPS情報に基づいてい地図上の自車両の位置を取得する。例えば、ECU20は、周知のマップマッチング処理を用いて地図上で推定された推定位置を取得する。ステップS10が測位位置取得部として機能する。   In step S10, the position of the host vehicle on the map is acquired based on the GPS information. For example, the ECU 20 acquires an estimated position estimated on a map using a well-known map matching process. Step S10 functions as a positioning position acquisition unit.

ステップS11では、ステップS10で取得した位置から進路前方の所定距離内に車線の分岐点が存在しているか否かを判定する。ここで、所定距離は、推定位置から10メートル以上かつ100メートル未満の距離であればよく、例えば50メートル以内の位置である。ECU20は地図上での推定位置から所定距離内に分岐点を示すノードNが存在していれば、車線の分岐点が存在していると判定する。一方、推定位置から所定距離内に分岐点が存在しない場合(ステップS11:NO)、図5の処理を一旦終了する。   In step S11, it is determined whether or not a lane branch point exists within a predetermined distance ahead of the course from the position acquired in step S10. Here, the predetermined distance may be a distance of 10 meters or more and less than 100 meters from the estimated position, for example, a position within 50 meters. If there is a node N indicating a branch point within a predetermined distance from the estimated position on the map, the ECU 20 determines that a lane branch point exists. On the other hand, when a branch point does not exist within a predetermined distance from the estimated position (step S11: NO), the process of FIG. 5 is once ended.

推定位置から進路前方の所定距離内に車線の分岐点が存在している場合(ステップS11:YES)、ステップS12では、カメラ32による撮像結果である撮像画像に基づいて、自車両の進路前方の路面ペイントの位置を認識する。ステップS12が標示認識工程として機能する。   When a branch point of the lane exists within a predetermined distance ahead of the course from the estimated position (step S11: YES), in step S12, based on the captured image that is the imaging result of the camera 32, the vehicle ahead of the course Recognize the position of road paint. Step S12 functions as a sign recognition process.

ステップS13では、認識された路面ペイントにおいて、車線に沿った方向に対して所定角度で変化する角度変化部を、車線の分岐や合流を示す形状変化部の候補として抽出する。図6は、ステップS13の処理を詳細に示すフローチャートである。ステップS13が抽出工程として機能する。   In step S13, in the recognized road surface paint, an angle changing portion that changes at a predetermined angle with respect to the direction along the lane is extracted as a candidate for a shape changing portion that indicates lane branching or merging. FIG. 6 is a flowchart showing in detail the process of step S13. Step S13 functions as an extraction process.

ステップS21では、撮像画像を鳥瞰処理する。ステップS22では、鳥瞰処理後の画像に含まれる角度変化部を抽出する。例えば、ECU20は、路面ペイントにおいて、形状変化点を有する部位を角度変化部として抽出する。   In step S21, the captured image is subjected to bird's-eye processing. In step S22, an angle change part included in the image after bird's-eye view processing is extracted. For example, the ECU 20 extracts a part having a shape change point as an angle change part in the road surface paint.

ステップS23では、地図上に車線の分岐点における本線を基準とした分岐車線の分岐角θrが記録されているか否かを判定する。図7(a)に示すように、分岐車線の分岐角θrが地図上に形状情報として記録されていれば(ステップS23:YES)、ステップS24では、この分岐角θrを地図に記録された形状情報から取得する。   In step S23, it is determined whether or not the branching angle θr of the branching lane based on the main line at the branching point of the lane is recorded on the map. As shown in FIG. 7A, if the branch angle θr of the branch lane is recorded as shape information on the map (step S23: YES), in step S24, this branch angle θr is recorded on the map. Obtain from information.

なお、道路の形状変化が生じる位置として車線の合流点を用いる場合、ステップS23において、ECU20は、車線の合流点における本線を基準とした合流車線の角度を取得することとなる。   When the lane junction is used as a position where the road shape changes, in step S23, the ECU 20 obtains the angle of the merging lane with respect to the main line at the lane junction.

地図に分岐車線の分岐角θrが形状情報として記録されていない場合(ステップS23:NO)、ステップS25では、地図上で分岐路を表すリンクLと本線を示すリンクLとで形成される角度に基づいて分岐車線の分岐角θrを算出する。例えば、図7(b)に示すように、ECU20は、分岐点を示すノードN21に連結し、本線を示すリンクL21と分岐路を示すリンクL22とで形成される角度を算出し、この角度を分岐車線の分岐角θrとする。   When the branching angle θr of the branch lane is not recorded as shape information on the map (step S23: NO), in step S25, the angle formed by the link L indicating the branch road and the link L indicating the main line is set. Based on this, the branch angle θr of the branch lane is calculated. For example, as shown in FIG. 7B, the ECU 20 is connected to a node N21 indicating a branch point, calculates an angle formed by a link L21 indicating a main line and a link L22 indicating a branch path, and calculates the angle. The branch angle of the branch lane is θr.

ステップS26では、ステップS24又はステップS25で取得された分岐角θrと、ステップS22で抽出された角度変化部の傾き角θbとを対比し、対比結果に基づいて形状変化部の候補を抽出する。例えば、ECU20は、角度変化部の傾き角θbと分岐車線の分岐角θrとの差分が閾値Th以下である角度変化部を形状変化部の候補として抽出する。なお、閾値Thは、5度以上10度以下の値で設定することができるが、カメラ32の認識精度や地図に記録された分岐角θrの精度によってもその値が変化する。図8の例では、ステップS26の判定により、撮像画像から形状変化部の候補C1〜C3が抽出されている。   In step S26, the branching angle θr acquired in step S24 or step S25 is compared with the inclination angle θb of the angle changing unit extracted in step S22, and a candidate for the shape changing unit is extracted based on the comparison result. For example, the ECU 20 extracts an angle change unit in which the difference between the inclination angle θb of the angle change unit and the branch angle θr of the branch lane is equal to or less than a threshold Th as a shape change unit candidate. The threshold value Th can be set to a value between 5 degrees and 10 degrees, but the value varies depending on the recognition accuracy of the camera 32 and the accuracy of the branching angle θr recorded on the map. In the example of FIG. 8, the shape change portion candidates C <b> 1 to C <b> 3 are extracted from the captured image by the determination in step S <b> 26.

図5に戻り、ステップS14では、自車両の位置を基準として、進路前方での道路の形状変化が生じる位置を示す位置情報を取得する。カメラ32による撮像結果は、自車両から遠ざかる程その認識精度が低下する。そのため、図9(a)に示すように、この第1実施形態では、ECU20は、地図上において、ステップS10で取得した位置EPから所定距離D1内での車線の分岐点(ノードN)の位置を探索し、探索した位置を位置情報として取得する。ここで、所定距離D1は、カメラ32による撮像精度に応じて設定される距離である。ステップS14が情報取得工程として機能する。   Returning to FIG. 5, in step S <b> 14, position information indicating the position where the shape change of the road in front of the course occurs is acquired with reference to the position of the host vehicle. The recognition accuracy of the imaging result obtained by the camera 32 decreases as the distance from the host vehicle increases. Therefore, as shown in FIG. 9A, in the first embodiment, the ECU 20 on the map, the position of the lane branch point (node N) within the predetermined distance D1 from the position EP acquired in step S10. And the searched position is acquired as position information. Here, the predetermined distance D1 is a distance set according to the imaging accuracy of the camera 32. Step S14 functions as an information acquisition process.

ステップS15では、撮像画像内の各候補を、位置情報で示される位置から道路に沿った方向で所定距離内に存在する候補に絞り込む。位置情報は誤差が存在するため、図9(b)に示すように、ECU20は、ステップS14で取得した位置情報Piから道路に沿った方向で前後に距離D2だけ広がる領域を、候補を絞り込むための絞込み領域NAとして設定する。そして、設定した絞込み領域NA内の候補Cを絞り込み対象とする。なお、距離D2は、位置情報の精度に応じて設定され、例えば、5メートル以上、及び20メートル以下の値とすることができる。   In step S15, each candidate in the captured image is narrowed down to candidates existing within a predetermined distance in the direction along the road from the position indicated by the position information. Since there is an error in the position information, as shown in FIG. 9B, the ECU 20 narrows down the candidates from the position information Pi acquired in step S14 in the direction along the road by a distance D2 back and forth. Is set as the narrowed-down area NA. Then, the candidate C within the set narrowing area NA is set as a narrowing target. The distance D2 is set according to the accuracy of the position information, and can be set to a value of 5 meters or more and 20 meters or less, for example.

ステップS15の絞込み結果により候補が存在しない場合(ステップS16:NO)、図5の処理を一旦終了する。一方、ステップS15の絞込み結果により候補が存在する場合(ステップS16:YES)、ステップS17に進む。図9(b)の例では、絞込み領域NAには、候補C1が位置しているため、各候補から候補C1に絞り込まれたこととなる。   If there is no candidate as a result of the narrowing down in step S15 (step S16: NO), the processing in FIG. On the other hand, if there is a candidate as a result of the narrowing down in step S15 (step S16: YES), the process proceeds to step S17. In the example of FIG. 9B, since the candidate C1 is located in the narrowed down area NA, each candidate is narrowed down to the candidate C1.

ステップS17では、ステップS16で絞り込まれた候補を、道路における形状変化部として特定する。図9(b)の例では、候補C1が分岐点に対応する形状変化部として特定される。ステップS18が標示特定工程として機能する。   In step S17, the candidates narrowed down in step S16 are specified as the shape changing part on the road. In the example of FIG. 9B, the candidate C1 is specified as the shape changing unit corresponding to the branch point. Step S18 functions as a sign specifying step.

ステップS18では、ステップS17で特定された形状変化部(候補)を用いて、自車位置CPを推定する。具体的には、ECU20は、形状変化部の検出位置DPと、この形状変化部の地図上の位置MPとをマッチングした結果によりずれ量を算出し、このずれ量により位置EPを補正することで、補正後の位置により自車位置を推定する。ステップS18が位置推定工程として機能する。   In step S18, the vehicle position CP is estimated using the shape change part (candidate) specified in step S17. Specifically, the ECU 20 calculates a deviation amount based on a result of matching the detected position DP of the shape change portion with a position MP on the map of the shape change portion, and corrects the position EP by using the deviation amount. The vehicle position is estimated from the corrected position. Step S18 functions as a position estimation step.

以上説明したようにこの第1実施形態では、ECU20は、カメラ32による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識し、認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度を有する角度変化部を、候補として抽出する。また、自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得し、抽出した候補を、位置情報で示される位置から自車線に沿った方向で所定距離内に存在する候補に絞り込む。そして、絞り込まれた候補を、進路前方での車線の分岐点又は合流点として特定し、特定した候補に基づいて、地図上の自車位置を推定することとした。この場合、角度変化部の角度と位置情報に基づく範囲との両条件を満たす候補を絞り込むことで、車線の分岐や合流の開始を示す路面標示を誤認識する可能性を低減することができる。その結果、適正に認識された路面標示により地図上の自車位置を特定することが可能となる。   As described above, in the first embodiment, the ECU 20 recognizes the road marking indicating the boundary of the lane in front of the course of the host vehicle based on the imaging result of the camera 32, and in the recognized road marking, An angle changing unit having an angle corresponding to the angle of the branch lane with respect to the main line at the branch point of the above lane or the angle of the merged lane with reference to the main line at the junction point of the lane is extracted as a candidate. In addition, position information indicating the position of a branch point or merging point of the lane in front of the course of the own vehicle is acquired, and the extracted candidates exist within a predetermined distance in the direction along the own lane from the position indicated by the position information. Narrow down to candidates. Then, the narrowed candidates are identified as lane junctions or merging points in front of the course, and the vehicle position on the map is estimated based on the identified candidates. In this case, by narrowing down candidates that satisfy both the angle of the angle changing unit and the range based on the position information, it is possible to reduce the possibility of misrecognizing road markings indicating the start of lane branching or merging. As a result, it is possible to specify the position of the vehicle on the map based on the road marking that has been properly recognized.

ECU20は、GPS受信機31からの出力に基づいて、地図上の自車位置を取得し、地図上における自車位置から所定距離内に位置する車線の分岐点又は合流点を探索する。そして、探索した車線の分岐点又は合流点の位置を位置情報として取得する。カメラ32による撮像結果は、自車両から遠ざかる程その認識精度が低下する。この点、上記構成では、地図上の自車位置から所定距離内に存在する形状変化部の位置を位置情報として取得することとした。この場合、候補が絞り込まれる範囲がカメラ32の認識精度が担保された範囲となるため、カメラ32の認識精度の低下に起因して、形状変化部を誤認識する可能性を抑制することができる。   The ECU 20 acquires the vehicle position on the map based on the output from the GPS receiver 31, and searches for a branch point or junction of lanes located within a predetermined distance from the vehicle position on the map. And the position of the branch point or merging point of the searched lane is acquired as position information. The recognition accuracy of the imaging result obtained by the camera 32 decreases as the distance from the host vehicle increases. In this regard, in the above configuration, the position of the shape changing portion existing within a predetermined distance from the vehicle position on the map is acquired as position information. In this case, since the range in which the candidates are narrowed down is a range in which the recognition accuracy of the camera 32 is ensured, it is possible to suppress the possibility of erroneously recognizing the shape change portion due to the decrease in the recognition accuracy of the camera 32. .

(第2実施形態)
この第2実施形態では、カメラ32の撮像結果に基づいて抽出された候補の内、道路上の汚れや傷に該当する候補を、候補から除外する。
(Second Embodiment)
In the second embodiment, candidates corresponding to dirt or scratches on the road among the candidates extracted based on the imaging result of the camera 32 are excluded from the candidates.

例えば、図5のステップS15の候補の絞込みにおいて、画像内の各候補を、位置情報で示される位置からの距離に加えて、輝度パターンに基づいて候補の絞込みを行う。路面ペイントと道路上の汚れや傷とを比較した場合、路面ペイントでは白線領域の両側に路面色が現れるパターンとなるのに対して、道路上の汚れや傷は、このようなパターンとなる可能性が低い。そのため、ECU20は、道路の道幅方向における候補を含む周囲の輝度パターンに基づいて、抽出した各候補が路面ペイントか否かを判定し、判定結果に応じて候補の除外を行う。そのため、図5のステップS15が輝度パターン除外部として機能する。   For example, in the candidate narrowing in step S15 in FIG. 5, each candidate in the image is narrowed down based on the luminance pattern in addition to the distance from the position indicated by the position information. When comparing road paint with dirt and scratches on the road, road paint shows a pattern in which the road color appears on both sides of the white line area, whereas dirt and scratches on the road can be such a pattern. The nature is low. Therefore, ECU20 determines whether each extracted candidate is road surface paint based on the surrounding luminance pattern containing the candidate in the road width direction of a road, and excludes a candidate according to a determination result. Therefore, step S15 in FIG. 5 functions as a luminance pattern exclusion unit.

図10は、輝度パターンを用いた候補の除外を説明する図である。輝度パターンの判定方法の一例として、ECU20は、候補周辺を含む周囲の画素をグレースケール化し、このグレースケール化した画素のヒストグラムを算出する。図10(a)において、路面ペイントである候補C1の周囲は、ペイント領域である白線(高輝度)領域と、この白線の両側に現れる路面(低輝度)領域と、で構成されている。そのため、図10(b)で示す候補C1の周囲のヒストグラムには、高輝度及び低輝度の画素数PNが多く、中輝度の画素数PNが少なくなる。一方、図10(a)において、路面上の傷である候補C3の周囲は、主に路面(低輝度)領域で構成されている。そのため、図10(c)で示す候補C3の周囲のヒストグラムには、高輝度の画素数PNが少なく、中輝度から低輝度の画素数PNが多くなる。そのため、ECU20は各候補の周囲のヒストグラムにより得られる輝度パターンを判定することで、路面ペイントではない候補を除外することができる。   FIG. 10 is a diagram for explaining candidate exclusion using a luminance pattern. As an example of the determination method of the luminance pattern, the ECU 20 grayscales surrounding pixels including the candidate periphery, and calculates a histogram of the grayscaled pixels. In FIG. 10A, the periphery of the candidate C1 that is a road surface paint is composed of a white line (high luminance) region that is a paint region, and a road surface (low luminance) region that appears on both sides of the white line. For this reason, in the histogram around the candidate C1 shown in FIG. 10B, the number of high- and low-luminance pixels PN is large and the number of medium-luminance pixels PN is small. On the other hand, in FIG. 10A, the periphery of the candidate C3, which is a scratch on the road surface, is mainly composed of a road surface (low luminance) region. For this reason, in the histogram around the candidate C3 shown in FIG. 10C, the number of high luminance pixels PN is small, and the number of medium luminance to low luminance pixels PN is large. Therefore, ECU20 can exclude the candidate which is not road surface paint by determining the luminance pattern obtained by the histogram around each candidate.

以上説明したようにこの第2実施形態では、ECU20は、道路の道幅方向における候補を含む周囲の輝度パターンに基づいて、候補が路面ペイントか否かを判定し、路面ペイントと判定しなかった候補を、絞り込みの対象から除外する。路面ペイントと道路上の汚れや傷とを比較した場合、路面ペイントでは白線領域の両側に路面色が現れる輝度パターンとなるのに対して、道路上の汚れや傷は、このような輝度パターンが表れない可能性が高くなる。この点、上記構成では、道路の道幅方向における候補周囲の輝度パターンにより、この候補が路面ペイントであるか否かを判定し、路面ペイントでない場合は絞込みの対象から除外することとした。この場合、路面ペイントにおける形状変化部と形状が近似した道路の汚れや傷を除外することができ、候補に対する絞り込みの精度を高めることができる。   As described above, in the second embodiment, the ECU 20 determines whether or not the candidate is road paint based on the surrounding luminance pattern including the candidate in the road width direction, and the candidate that has not been determined as road paint. Are excluded from narrowing down. When comparing road paint with dirt and scratches on the road, road paint shows a brightness pattern in which the road color appears on both sides of the white line area, whereas dirt and scratches on the road have such a brightness pattern. The possibility of not appearing is increased. In this regard, in the above configuration, whether or not the candidate is road surface paint is determined based on the luminance pattern around the candidate in the road width direction of the road, and if it is not road surface paint, it is excluded from the target of narrowing down. In this case, dirt and scratches on the road whose shape approximates that of the shape change portion in the road surface paint can be excluded, and the accuracy of narrowing down candidates can be improved.

(第3実施形態)
この第3実施形態では、カメラ32の撮像結果に基づいて抽出された候補の内、タイヤ痕に該当する候補を、候補から除外する。
(Third embodiment)
In the third embodiment, the candidates corresponding to the tire marks are excluded from the candidates extracted based on the imaging result of the camera 32.

図11は、第3実施形態において候補の除外方法を説明する図である。路面上に道路に沿った方向で所定角度に延びたタイヤ痕TCが存在していると、このタイヤ痕を、車線の分岐点や合流点を示す部位として誤認識する場合がある。そこで、ECU20は、図5のステップS15の候補の絞込みにおいて、画像内の各候補を、位置情報で示される位置からの距離に加えて、タイヤ痕であるか否かの判定結果に基づいて候補の絞込みを行う。そのため、この第3実施形態において、図5のステップS15がタイヤ痕除外部として機能する。   FIG. 11 is a diagram for explaining a candidate exclusion method in the third embodiment. If there is a tire mark TC extending at a predetermined angle in the direction along the road on the road surface, the tire mark may be erroneously recognized as a part indicating a lane branch or merging point. Accordingly, the ECU 20 narrows down candidates in step S15 in FIG. 5 based on the determination result of whether each candidate in the image is a tire mark in addition to the distance from the position indicated by the position information. Narrow down. Therefore, in this 3rd Embodiment, Step S15 of Drawing 5 functions as a tire mark exclusion part.

例えば、ECU20は、各候補のテクスチャ等の特徴量を抽出し、タイヤ痕と類似する特徴量を備える候補を除外する。特徴量の算出方法の一例として、ECU20は、各候補を構成する画素の輝度分布を示すヒストグラムを算出し、このヒストグラムに基づいてタイヤ痕に該当するテクスチャであるか否かを判定する。そして、タイヤ痕と判定した候補(図11ではTC)を、形状変化部の候補から除外する。   For example, the ECU 20 extracts a feature amount such as a texture of each candidate, and excludes a candidate having a feature amount similar to a tire mark. As an example of the feature amount calculation method, the ECU 20 calculates a histogram indicating the luminance distribution of the pixels constituting each candidate, and determines whether the texture corresponds to the tire mark based on the histogram. And the candidate (TC in FIG. 11) determined to be a tire mark is excluded from the candidates for the shape change portion.

なお、各候補の特徴量の算出方法として、輝度のヒストグラムに代えて、周知のパターンマッチングを用いるものであってもよい。また、この第3実施形態で示したタイヤ痕であるかの判定と、第2実施形態で示した輝度パターンの判定とを組み合わせるものであってもよい。   As a method for calculating the feature amount of each candidate, a known pattern matching may be used instead of the luminance histogram. Moreover, you may combine the determination whether it is a tire trace shown in this 3rd Embodiment, and the determination of the luminance pattern shown in 2nd Embodiment.

以上説明したようにこの第3実施形態では、ECU20は、候補がタイヤ痕であるか否かを判定し、タイヤ痕と判定した候補を絞り込みの対象から除外する。路面上に道路に沿った方向で所定角度に延びたタイヤ痕が存在していると、このタイヤ痕を、形状変化部と誤認識する場合がある。この点、上記構成では、抽出された候補がタイヤ痕であるか否かを判定し、タイヤ痕と判定した候補を絞込みの対象から除外することとした。この場合、形状変化部と誤認識し易いタイヤ痕を候補から除外することができ、候補に対する絞り込みの精度を高めることができる。   As described above, in the third embodiment, the ECU 20 determines whether or not the candidate is a tire mark, and excludes the candidate determined as the tire mark from the target of narrowing down. If tire marks extending at a predetermined angle in the direction along the road exist on the road surface, the tire marks may be erroneously recognized as a shape change portion. In this regard, in the above configuration, it is determined whether or not the extracted candidate is a tire mark, and the candidate determined as the tire mark is excluded from the narrowing targets. In this case, tire marks that are easily misrecognized as shape change portions can be excluded from the candidates, and the accuracy of narrowing down the candidates can be improved.

(第4実施形態)
この第4実施形態では、候補を絞り込む範囲を設定するための位置情報を、カメラ32による撮像結果に基づいて取得する。
(Fourth embodiment)
In the fourth embodiment, position information for setting a range for narrowing candidates is acquired based on the imaging result of the camera 32.

図12は、図5のステップS14で実施される処理を説明するフローチャートである。   FIG. 12 is a flowchart illustrating the process performed in step S14 of FIG.

ステップS31では、撮像画像内の路面の位置を推定する。例えば、ECU20は、図5のステップS11で認識された左右の道路境界を示す路面ペイントを用いて道路を示す領域を推定する。   In step S31, the position of the road surface in the captured image is estimated. For example, the ECU 20 estimates a region indicating a road using road surface paint indicating left and right road boundaries recognized in step S11 of FIG.

ステップS32では、道路に沿った方向において道幅の増加を検出する。ECU20は、ステップS31で推定した路面における左右の道路境界を示す路面ペイントを抽出し、この路面ペイントの車幅方向(道幅方向)での間隔の変化により道幅の増加を検出する。ステップS32が道幅判定部として機能する。   In step S32, an increase in road width is detected in the direction along the road. ECU20 extracts the road surface paint which shows the right and left road boundary in the road surface estimated by step S31, and detects the increase in road width by the change of the space | interval in the vehicle width direction (road width direction) of this road surface paint. Step S32 functions as a road width determination unit.

道幅の増加を検出しない場合(ステップS33:NO)、進路前方に道路の形状変化が生じる位置が存在しないと判断し、図5及び図12の処理を一旦終了する。一方、道幅の増加を検出した場合(ステップS33:YES)、ステップS34に進む。   If an increase in road width is not detected (step S33: NO), it is determined that there is no position where the road shape changes in front of the course, and the processing in FIGS. 5 and 12 is temporarily terminated. On the other hand, when an increase in road width is detected (step S33: YES), the process proceeds to step S34.

ステップS34では、道幅が増加している位置を位置情報として取得する。例えば、図13(a)では、ECU20は、ステップS32で検出された道幅が増加する位置の内、進路前方において自車両から最も近い位置を位置情報Piとして取得している。   In step S34, a position where the road width is increasing is acquired as position information. For example, in FIG. 13A, the ECU 20 obtains, as the position information Pi, the position closest to the host vehicle in front of the course among the positions where the road width detected in step S32 increases.

そして、図5に戻り、ステップS15では、図13(b)に示すように、ステップS34で算出された位置情報で示される位置から道路に沿った方向で所定距離の範囲を絞込み領域NAとして設定する。そして、ECU20は、絞込み領域NAに属する候補を絞り込みの対象とする。   Returning to FIG. 5, in step S15, as shown in FIG. 13B, a range of a predetermined distance in the direction along the road from the position indicated by the position information calculated in step S34 is set as a narrowed area NA. To do. And ECU20 makes the candidate which belongs to narrowing-down area | region NA the object of narrowing down.

以上説明したようにこの第4実施形態では、ECU20は、カメラ32の撮像結果に基づいて、進路前方において道幅が増加する位置を検出し、道幅が増加する領域が検出された場合に、この位置を位置情報として取得する。進路前方に道路の形状変化が生じる位置が出現する場合、道幅の増加によりこの位置の出現を判定することができる。この点、上記構成では、撮像結果に基づいて進路前方で道幅が増加する位置を検出し、検出した位置を位置情報として取得することとした。この場合、地図を用いることなく、候補を絞り込むための位置情報を取得することができるため、地図上に道路の形状変化が生じる位置が記録されていない場合でも、候補を絞り込むための範囲を設定することが可能となる。   As described above, in the fourth embodiment, the ECU 20 detects the position where the road width increases in front of the course based on the imaging result of the camera 32, and detects this position when the area where the road width increases is detected. Is acquired as position information. When a position where a road shape change appears in front of the course, the appearance of this position can be determined by an increase in road width. In this regard, in the above configuration, a position where the road width increases in front of the course is detected based on the imaging result, and the detected position is acquired as position information. In this case, position information for narrowing down candidates can be acquired without using a map, so a range for narrowing down candidates can be set even if the position at which the road shape change occurs is not recorded on the map. It becomes possible to do.

(その他の実施形態)
道路上の形状変化部としては、車線の分岐点や車線の合流点に加えて、路側に設けられた退避路の入口又は出口であってもよい。この場合、ECU20は、図5のステップS12において、路面標示の内、退避路の入口又は出口を示す形状変化部を認識する。
(Other embodiments)
The shape changing portion on the road may be an entrance or exit of a retreat path provided on the road side in addition to a lane junction or a lane junction. In this case, the ECU 20 recognizes the shape change portion indicating the entrance or exit of the retreat path in the road marking in step S12 of FIG.

ECU20は、特定した路面標示における形状変化部に基づいて地図上の自車位置を特定することに代えて、この形状変化部に基づいて自車両を自車線に維持させるレーンキープコントロールや、形状変化部を周囲の車両に通知する車車間通信を行うものであってもよい。   ECU20 replaces with specifying the own vehicle position on a map based on the shape change part in the specified road marking, lane keep control which maintains the own vehicle on the own lane based on this shape change part, shape change Vehicle-to-vehicle communication for notifying the vehicle to the surrounding vehicle may be performed.

21…標示認識部、22…抽出部、23…情報取得部、24…絞込み部、25…標示特定部、26…位置推定部。   DESCRIPTION OF SYMBOLS 21 ... Marking recognition part, 22 ... Extraction part, 23 ... Information acquisition part, 24 ... Narrowing part, 25 ... Marking specification part, 26 ... Position estimation part.

Claims (6)

撮像部(32)による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識する標示認識部と、
認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する抽出部と、
前記自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得する情報取得部と、
抽出された前記候補を、前記位置情報で示される位置から自車線に沿った方向で所定距離内に存在する前記候補に絞り込む絞込み部と、
絞り込まれた前記候補を、前記進路前方での前記車線の分岐点又は合流点として特定する標示特定部と、
特定された前記候補に基づいて、地図上の自車位置を推定する位置推定部と、を備える自車位置推定装置。
A sign recognition unit for recognizing a road marking indicating a boundary of a lane in front of the course of the host vehicle based on an image pickup result by the image pickup unit (32);
In the recognized road marking, the shape changes at an angle corresponding to the angle of the branch lane relative to the main line at the lane branch point on the map or the angle of the merging lane relative to the main line at the lane junction. An angle changing unit to extract as candidates,
An information acquisition unit for acquiring position information indicating a position of a branch point or a merging point of the lane in front of the course of the host vehicle;
A narrowing unit that narrows down the extracted candidates to the candidates existing within a predetermined distance in a direction along the own lane from the position indicated by the position information;
A sign identifying unit that identifies the narrowed candidates as a branch point or a merge point of the lane in front of the course;
A vehicle position estimation apparatus comprising: a position estimation unit that estimates a vehicle position on a map based on the identified candidate.
測位センサ(31,35,36)からの出力に基づいて、前記地図上の自車位置を取得する測位位置取得部を備え、
前記情報取得部は、前記測位位置取得部により取得された前記地図上での前記自車位置から所定距離内に位置する前記車線の分岐点又は合流点を探索し、探索した前記車線の分岐点又は合流点の位置を前記位置情報として取得する、請求項1に記載の自車位置推定装置。
Based on the output from the positioning sensor (31, 35, 36), a positioning position acquisition unit that acquires the vehicle position on the map is provided.
The information acquisition unit searches for a branch point or a merge point of the lane located within a predetermined distance from the vehicle position on the map acquired by the positioning position acquisition unit, and searches for the branch point of the lane Or the own vehicle position estimation apparatus of Claim 1 which acquires the position of a confluence | merging point as said position information.
前記撮像結果に基づいて、前記進路前方において道幅が増加しているか否かを判定する道幅判定部を備え、
前記情報取得部は、前記道幅判定部により前記道幅が増加する位置が検出された場合に、前記位置情報を取得する、請求項1に記載の自車位置推定装置。
A road width determination unit that determines whether or not the road width has increased in front of the course based on the imaging result,
The host vehicle position estimation apparatus according to claim 1, wherein the information acquisition unit acquires the position information when a position where the road width increases is detected by the road width determination unit.
前記路面標示は、路面ペイントであって、
道路の道幅方向における前記候補を含む周囲の輝度パターンに基づいて、前記候補が前記路面ペイントか否かを判定し、前記路面ペイントと判定しなかった前記候補を、前記絞込み部による絞り込みの対象から除外する輝度パターン除外部を備える、請求項1から請求項3のいずれか一項に記載の自車位置推定装置。
The road marking is road paint,
Based on the surrounding luminance pattern including the candidate in the width direction of the road, it is determined whether or not the candidate is the road surface paint, and the candidate that is not determined to be the road surface paint is selected from the targets to be narrowed by the narrowing unit. The own vehicle position estimation apparatus according to any one of claims 1 to 3, further comprising a luminance pattern exclusion unit to be excluded.
前記候補がタイヤ痕であるか否かを判定し、前記タイヤ痕と判定した前記候補を前記絞込み部による絞り込みの対象から除外するタイヤ痕除外部を備える、請求項1から請求項4のいずれか一項に記載の自車位置推定装置。   5. The tire mark removing unit according to claim 1, further comprising: a tire mark removing unit that determines whether the candidate is a tire mark and excludes the candidate determined as the tire mark from a target of narrowing by the narrowing unit. The vehicle position estimation device according to one item. 撮像部による撮像結果に基づいて、自車両の進路前方における車線の境界を示す路面標示を認識する標示認識工程と、
認識された前記路面標示において、地図上での車線の分岐点における本線を基準とした分岐車線の角度、又は車線の合流点における本線を基準とした合流車線の角度に対応した角度で形状が変化する角度変化部を、候補として抽出する抽出工程と、
前記自車両の進路前方での車線の分岐点又は合流点の位置を示す位置情報を取得する情報取得工程と、
抽出された前記候補を、前記位置情報で示される位置から自車線に沿った方向で所定距離内に存在する前記候補に絞り込む絞込み工程と、
絞り込まれた前記候補を、前記進路前方での前記車線の分岐点又は合流点として特定する標示特定工程と、
特定された前記候補に基づいて、地図上の自車位置を特定する位置推定工程と、を備える自車位置推定方法。
A sign recognition step for recognizing a road marking indicating a boundary of a lane in front of the course of the host vehicle based on an imaging result by the imaging unit;
In the recognized road marking, the shape changes at an angle corresponding to the angle of the branch lane relative to the main line at the lane branch point on the map or the angle of the merging lane relative to the main line at the lane junction. An extraction step of extracting the angle changing part as a candidate;
An information acquisition step of acquiring position information indicating a position of a branch point or a merging point of the lane in front of the course of the host vehicle;
A narrowing step of narrowing down the extracted candidates to the candidates existing within a predetermined distance in a direction along the own lane from the position indicated by the position information;
An indication specifying step for specifying the narrowed candidates as a branch point or a junction of the lane in front of the course;
A vehicle position estimation method comprising: a position estimation step of identifying a vehicle position on a map based on the identified candidate.
JP2016175006A 2016-09-07 2016-09-07 Vehicle position estimation device and vehicle position estimation method Active JP6649859B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016175006A JP6649859B2 (en) 2016-09-07 2016-09-07 Vehicle position estimation device and vehicle position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016175006A JP6649859B2 (en) 2016-09-07 2016-09-07 Vehicle position estimation device and vehicle position estimation method

Publications (2)

Publication Number Publication Date
JP2018040692A true JP2018040692A (en) 2018-03-15
JP6649859B2 JP6649859B2 (en) 2020-02-19

Family

ID=61625884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016175006A Active JP6649859B2 (en) 2016-09-07 2016-09-07 Vehicle position estimation device and vehicle position estimation method

Country Status (1)

Country Link
JP (1) JP6649859B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019196970A (en) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 Own vehicle position estimating device
JP2019207190A (en) * 2018-05-30 2019-12-05 株式会社Soken Self-position estimation device
CN111886477A (en) * 2018-03-30 2020-11-03 日立汽车系统株式会社 Vehicle control device
JP2022024740A (en) * 2020-07-28 2022-02-09 株式会社Soken Vehicle position estimation device and vehicle position estimation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197279A (en) * 2009-02-26 2010-09-09 Aisin Aw Co Ltd Navigation system and program for navigation
JP2011033572A (en) * 2009-08-05 2011-02-17 Nissan Motor Co Ltd Device and method for determining entry into fork road
WO2014027478A1 (en) * 2012-08-13 2014-02-20 本田技研工業株式会社 Road environment recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197279A (en) * 2009-02-26 2010-09-09 Aisin Aw Co Ltd Navigation system and program for navigation
JP2011033572A (en) * 2009-08-05 2011-02-17 Nissan Motor Co Ltd Device and method for determining entry into fork road
WO2014027478A1 (en) * 2012-08-13 2014-02-20 本田技研工業株式会社 Road environment recognition device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111886477A (en) * 2018-03-30 2020-11-03 日立汽车系统株式会社 Vehicle control device
CN111886477B (en) * 2018-03-30 2024-04-26 日立安斯泰莫株式会社 Vehicle control device
JP2019196970A (en) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 Own vehicle position estimating device
CN110470309A (en) * 2018-05-09 2019-11-19 丰田自动车株式会社 This truck position apparatus for predicting
JP7052543B2 (en) 2018-05-09 2022-04-12 トヨタ自動車株式会社 Vehicle position estimation device
JP2019207190A (en) * 2018-05-30 2019-12-05 株式会社Soken Self-position estimation device
WO2019230038A1 (en) * 2018-05-30 2019-12-05 株式会社Soken Self-position estimation device
JP2022024740A (en) * 2020-07-28 2022-02-09 株式会社Soken Vehicle position estimation device and vehicle position estimation method

Also Published As

Publication number Publication date
JP6649859B2 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
JP7461720B2 (en) Vehicle position determination method and vehicle position determination device
KR101241651B1 (en) Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method
JP4321821B2 (en) Image recognition apparatus and image recognition method
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US9460352B2 (en) Lane boundary line recognition device
JP6626410B2 (en) Vehicle position specifying device and vehicle position specifying method
US8180561B2 (en) Vehicle-installation obstacle detection apparatus
EP2958054B1 (en) Hazard detection in a scene with moving shadows
JP5747787B2 (en) Lane recognition device
JP4973736B2 (en) Road marking recognition device, road marking recognition method, and road marking recognition program
US9569673B2 (en) Method and device for detecting a position of a vehicle on a lane
EP2963634B1 (en) Stereo camera device
US20160363647A1 (en) Vehicle positioning in intersection using visual cues, stationary objects, and gps
JP6468136B2 (en) Driving support device and driving support method
JP6548893B2 (en) Roadway recognition device and travel support system using the same
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP6649859B2 (en) Vehicle position estimation device and vehicle position estimation method
JP2006208223A (en) Vehicle position recognition device and vehicle position recognition method
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
WO2015186294A1 (en) Vehicle-mounted image-processing device
US20180012083A1 (en) Demarcation line recognition apparatus
JP4775658B2 (en) Feature recognition device, vehicle position recognition device, navigation device, feature recognition method
JP6622664B2 (en) Self-vehicle position specifying device and self-vehicle position specifying method
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
WO2020113425A1 (en) Systems and methods for constructing high-definition map

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200117

R150 Certificate of patent or registration of utility model

Ref document number: 6649859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250