JP2004310522A - Vehicular image processor - Google Patents
Vehicular image processor Download PDFInfo
- Publication number
- JP2004310522A JP2004310522A JP2003104206A JP2003104206A JP2004310522A JP 2004310522 A JP2004310522 A JP 2004310522A JP 2003104206 A JP2003104206 A JP 2003104206A JP 2003104206 A JP2003104206 A JP 2003104206A JP 2004310522 A JP2004310522 A JP 2004310522A
- Authority
- JP
- Japan
- Prior art keywords
- line
- vehicle
- lane
- edge
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、自車両の走行する車線を認識するための車両用画像処理装置に関する。
【0002】
【従来の技術】
設定された車線上を自動的に走行する自動走行装置や、車両の車線からの不用意な逸脱を警告したり、逸脱後の衝突を予想して乗員を保護するシステムを作動させる技術等の開発が進められている。こうした技術においては、自車両の走行すべき車線を正確に認識する必要があり、そのための技術として、車両進行方向の映像を取得して、画像認識によって車線を区画する境界線(白線)を検出する装置が知られている(例えば、特許文献1参照)。
【0003】
この技術は、路面画像中の明から暗に変化するエッジ点と、暗から明に変化するエッジ点をそれぞれ検出し、これらをハフ変換してハフ空間中からこれらのエッジ点それぞれに対応するピークをペアとして探索することにより白線を検出するものである。これによって、複雑な形状、例えば、道路上に二重白線が存在する場合であっても、白線位置を正確に検出することができる、と記載されている。
【0004】
【特許文献1】
特開平11−85999号公報(段落0056〜0059、図3)
【0005】
【発明が解決しようとする課題】
しかしながら、この特許文献1の技術では、道路上の白線検出精度は向上するが、複数の白線を検出した場合に、それらをどのように区別すべきか、どの白線を道路区画線として認識すべきかについては記載されていない。
【0006】
そこで本発明は、自車が走行する車線を画像認識によって認識する車両用画像処理装置において、道路に複数の白線が描かれている場合の認識精度を向上させた車両用画像処理装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る車両用画像処理装置は、車両に搭載された撮像手段によって取得した画像中からエッジ抽出によって自車の走行する車線の道路区画線を検出する車両用画像処理装置において、エッジ抽出によって車線の片側に複数の候補が検出された場合には、エッジ周期を比較して最も連続線に近い候補を道路区画線と判定することを特徴とする車両用画像処理装置。
【0008】
自車両が走行している車線の区画線が二重白線だった場合、一方が本来の区画線であって、他方は視線誘導線等の補助線である。そして、補助線と本来の区画線とを視覚上区別可能とするため、補助線側は破線等の不連続線とされている。したがって、エッジ検出で検出された複数の線(候補)のうち最も連続線に近い線を選択することで、本来の区画線を選別することができる。
【0009】
所定周期中で最もエッジ間隔の短い候補を最も連続線に近いと判定することが好ましい。あるいは、破線周期を比較して破線周期の最も長い候補を最も連続線に近いと判定することが好ましい。連続線に近い線ほどエッジ間隔は短く、破線周期は長くなる。したがって、エッジ間隔あるいは破線周期を比較することで複数の線の中から最も連続線に近い線を選択することができる。
【0010】
【発明の実施の形態】
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。
【0011】
図1は、本発明に係る車両用画像処理装置を含む車両制御装置のブロック構成図であり、図2は、それを搭載した車両を示す斜視図である。この車両制御装置100は、車両前方の画像を取得する前方カメラ11と、この前方カメラ11で取得した画像から画像処理により車両の前方進路上の白線を認識する白線認識ECU1(本発明に係る車両用画像処理装置を含む。)と、を備える。白線認識ECU1には、ヨーレートセンサ12、舵角センサ13、車速センサ14の出力信号が入力されており、白線認識ECU1の認識結果は、車内LAN2を介してPCS(Pre−Crash Safety)システム3、逸脱警報システム4、レーンキープシステム5等に送られる。これらPCSシステム3、逸脱警報システム4、レーンキープシステム5の詳細については、後述する。車内LAN2を介することなく、同一のECU内に機能をまとめてもよい。
【0012】
前方カメラ11は、図2に示されるように車両200のフロントウィンドウ上部(例えば、バックミラーの裏側)に配置されており、車両200前方の画像、つまり、車両前方の走行レーン300の画像(区画線301を含む。)を取得するものである。なお、前方カメラ11は、前方画像が取り込める場所であれば、車体のどの位置に設けても問題ない。
【0013】
図3(a)(b)は、この前方カメラ11で取得した画像の例を示す図である。図3(a)に示される走行レーン300は、両側を区画線301R、301Lにより区画され、運転者が区画線301R、301Lを容易に視認できるよう、その内側に視線誘導線302R、302Lが各区画線301R、301Lに並行して設けられている。また、図3(b)に示される走行レーン300も、両側を区画線301R、301Lにより区画されているが、区画線301Rの内側に、右側から車両が合流してくることを示す合流線303が並行して設けられている。いずれの場合でも、本来の区画線301R、301Lは連続線であり、視線誘導線302R、302Lや合流線303は、不連続線とされる。これらは、通常白色に塗装されているため、以下、塗装部分を白線と称するが、白色以外に黄色に塗装されている場合や鋲、ブロック等により区画されている場合もこの白線に含まれる。なお、区画線301R、301Lは不連続線である場合もあるが、その場合も視線誘導線302R、302Lや合流線303(以下、これらをまとめて称するときは、他の道路上の白線と称する。)と容易に区別できるよう、区画線301R、301L側の白線部分の長さは、他の道路上の白線より長く、その白線部分の間隔も他の道路上の白線より短く設定されている。言い換えると、本来の区画線のほうが他の白線より連続線に近い形状を有している。
【0014】
以下、取得画像から画像処理によって区画線301R、301L位置を認識する処理について具体的に説明する。図4は、この画像処理の処理フローであり、図5〜図8はその処理内容を説明する図である。以下に説明する処理は、特に記載のない限り、白線認識ECU1によって行われる。
【0015】
まず、前方カメラ11によって図5に示されるような画像が取得される(ステップS1)。この画像中には、左右の区画線301L、301Rとその内側に設けられた視線誘導線302L、302Rが含まれる。
【0016】
取得した画像は、AD変換により、所定の画素数(例えば、図5の横方向をx方向、縦方向をy方向として、x×yが320×240画素とする。)のモノクロ階調(例えば8階調)のデジタル画像データに変換されて白線認識ECU1に送られる(ステップS2)。もちろん、所定の画素数、階調を有するデジタルデータを直接出力可能なデジタルカメラを前方カメラ11に用いてもよく、前方カメラ11のアナログ出力を白線認識ECU1内部でAD変換してもよい。変換されたデジタル画像は、図5に示されるアナログ画像と実質的には同一である。
【0017】
次に、白線認識ECU1は、受信したデジタル画像をエッジ抽出処理することによって画像内の白線候補を抽出する(ステップS3)。例えば、画像内の平均輝度をしきい値とし、左側の画素の輝度がしきい値未満で右側の画素の輝度がしきい値以上の画素をエッジとして抽出する。これにより、白線(区画線301L、301Rと視線誘導線302L、302Rの両方を含む。)の左側境界線に対応する位置の画素位置が抽出される。エッジ抽出はこれに限られるものではなく、例えば、左側の画素との輝度の差がしきい値以上となる画素をエッジとして抽出してもよい。これらは暗から明に変化するエッジを抽出することで白線の左側境界線に対応する位置の画素位置を抽出するものであったが、逆に明から暗に変化するエッジを抽出することで白線の右側境界線に対応する位置の画素位置を抽出してもよい。
【0018】
図6は、この抽出されたエッジ位置を元画像に重ね合わせて示している。黒丸が抽出されたエッジ位置であり、破線は、Y方向の画素位置を示している。以下、ハッチングのついた丸で囲まれた領域のエッジ、すなわち、区画線301Lと視線誘導線302Lに対応する抽出エッジ画素を対象に説明する。
【0019】
取得された走行レーン300の画像は、走行レーン300を前方カメラ11の画像面に投影したものである。これに対して、実際に求めたい区画線301L、301Rの位置は、走行レーン300上の車両に対する位置である。そこで、幾何変換によって、車両を原点(0,0)として、X軸方向に横方向(車両から見て右方向がプラスとなる。)を、Y軸方向に車両からの距離(数値が大きいほど前方、つまり車両から離れていることを示す。)を採って表した走行平面上のエッジ画素位置に対応する位置を求める(ステップS4)。この幾何変換は、前方カメラ11の取り付け位置、撮像方向、撮像領域を基にして行うことができる。なお、車体の傾き等を複数の車高センサで検出することにより、撮像方向等の補正を行ってもよい。また、前方カメラ11の撮像系の光学的な収差等に起因する画像の歪曲についても補正を行うことが好ましい。図7は、こうして幾何変換によって得られた区画線301Lと視線誘導線302Lに対応する抽出エッジ画素の車両に対する位置を示している。
【0020】
次に、幾何変換した結果をハフ変換することで、直線抽出を行う(ステップS5)。具体的には、抽出したエッジ点の走行平面上の位置を(x,y)で表すとき、各エッジ点に対して、傾きθを0度から180度まで所定の角度Δθごとに変更し、それぞれのθに対応するρ=xcosθ+ysinθとなるρを求める。そして、このようにして求めた(ρ,θ)が、ハフ空間を所定間隔ごとに区切った領域のどの領域内に位置するかを探索し、探索した領域に投票する。つまり、各領域の投票数とは、この領域にエッジ点のハフ変換結果が存在する個数を示していることになる。この投票は、走行レーン300の左側と右側とで分けて行うことが好ましい。走行レーン300の左右の分割を行うのに必要とされる走行レーン300の中心線の把握は、これまでのレーン認識結果や車両の進行方向、ヨーレート、舵角等を参照することで行うことができる。図8は、こうして得られた走行レーン300の左側のハフ変換領域内の投票結果を示している。
【0021】
投票数が複数ある(ρ,θ)領域がエッジ点から抽出された直線(途中断続している場合にも1本の線として抽出される。)を示している。この直線は(x,y)平面上では、y=ρ/sinθ−x×cosθ/sinθに対応する。ここで、投票結果が多い(ρ,θ)ほど多くのエッジ点が近接している直線を示すことになる。ノイズの影響等を考えて閾値(3、好ましくは )以上の投票数を有する直線を抽出結果(白線候補)とする(ステップS6)。そして、走行レーン300の片側に存在する白線候補の数を調べる(ステップS7)。白線候補が一つだけの場合には、その候補を区画線として位置情報を出力する(ステップS11)。走行レーン300の片側に白線候補が複数存在する場合には、白線候補内の区画線選別処理に移る。
【0022】
ここで、区画線301L(301R)とその内側に設けられた視線誘導線302L(302R)とは並行に設けられているから、両者のエッジから抽出される直線の傾きθは同一となる。さらに、連続線に近いほどエッジ点が多く検出されることから、これは、ハフ変換の対象領域中においてエッジ周期が短いことを意味する。その投票数は多くなる。そのため、同一の傾きで投票数が最大の白線候補が、並行して走る白線候補のうちでは最も連続線に近いと判定し得る。そこで、白線候補が複数存在する場合には、抽出された白線候補同士の投票数、傾きを比較して、傾きの差が閾値以内に属するグループのうちでは、投票数が最大のものを白線候補として残し、他を白線候補から除外する(ステップS8)。そして、再び、残った白線候補の数を調べる(ステップS9)。グループが1つで、残った白線候補が1つの場合には、その候補を区画線として位置情報を出力する(ステップS11)。
【0023】
グループが複数存在する場合には、区画線と交差し得る線を認識した場合と考えられる。こうした交差し得る線からの白線候補の選択は、それまでの認識結果との比較や車両の進行方向や走行レーン300の反対側の区画線情報との比較(通常、走行レーン300の両側の区画線301R、301Lも並行に配置される。)により行う(ステップS10)。こうして白線候補が一つに絞られたらステップS11へと移行して、その候補を区画線として位置情報を出力する。
【0024】
本発明によれば、本来の区画線に他の白線が並行して設けられている場合でも、区画線を自動的に選別して認識することができるため、区画線の認識精度が向上する。このため、車線情報を利用した各種の車両制御も精度良く行うことが可能となる。また、区画線が連続線でない場合や、エッジ抽出時に連続している区画線を不連続線と認識した場合であっても、区画線の選別精度を維持しうる利点がある。
【0025】
上述の説明では、幾何変換した領域の全てを対象としてハフ変換を実施したが、ハフ変換を行う領域を車両前方の所定の領域に限定してもよい(図9参照)。ここでは、ハフ変換を行う対象領域を制御周期と称している。そして、各エッジ間の間隔がエッジ周期に該当する。この制御周期は、例えば、車速センサ14の出力を基にしてt1〜t2秒後に車両が到達しうる領域とすればよい。このようにしてハフ変換の対象となる領域を限定することにより、エッジ周期の比較が確実に行えることになり、白線候補が車両に近い位置のみに複数存在するような場合でも正確な検出を行うことができる。
【0026】
以上の説明では、並行する白線候補の中から最も投票数の多い白線候補を区画線として選択する例を説明したが、白線候補の選択方法はこれに限られるものではない。
【0027】
図10は、この選別処理の別の形態を示す処理フローであり、図11はその処理の説明図である。この処理では、図4に示される処理のステップS8の処理を置き換えたものである。まず、ステップS21では、ハフ変換結果を(x,y)平面上に投影し、さらにこれを前方カメラ11の画像面への投影へと幾何変換する(ステップS4の幾何変換の逆になることから、以下、逆幾何変換と称する。)ことで、図11に示されるような画像を得る。これは、図6に示されるエッジ抽出画像中に白線候補線を描いた画像に相当する。
【0028】
次に、同一白線候補線上の各エッジ点(所定の範囲内に近接するエッジ点も含む。)について、エッジ周期(隣接するエッジ点との間隔)を求める。具体的には、Y座標方向の距離、つまりY座標の隣接エッジ点間での差分を求める(ステップS22)。連続線からエッジ抽出した場合には、エッジ点間のY座標方向の距離は1画素になる。これに対して、不連続線である場合には、線が途切れている部分にはエッジ点が存在しないため、同じ白線候補上の隣接エッジ点間のY座標方向の距離、つまり、差分が大きくなる場所が存在する。この差分は、塗装部間の間隔が広いほど大きくなり、塗装部分の長さが短いほど、この差分が大きくなる場所が高い頻度で現れる。したがって、白線候補間で変化の大きい差分(例えば、隣接エッジ間のY座標方向の距離が3画素以上)の個数(差分発生頻度)、差分の大きさ(隣接エッジ間のY座標方向の最大値または平均値)を比較し、差分発生頻度が低く、発生頻度が同程度の場合にはより差分の小さい白線候補が連続線に近いと判定し、それ以外を白線候補から除外する(ステップS23)。こうして白線候補が一つに絞られたらステップS8へと移行して、その候補を区画線として位置情報を出力する。
【0029】
この場合も、上述の場合と同様に、差分を比較する領域を所定の範囲に限定してもよい。また、隣接エッジとの差分が大きな領域にはさまれた領域を塗装部とみて、この塗装部に含まれるエッジ点の数(塗装部の長さに相当する)を比較することにより、連続線に近い線を白線候補中から絞り込んでもよい。この場合、白線候補の所定範囲内に差分が大きくなる領域が存在しない場合(連続線である場合)には、この白線候補においては所定範囲中に含まれる全てのエッジの数が塗装部に含まれるエッジの数として算出される。
【0030】
次に、こうして得られた白線情報を利用した本発明に係る車両制御装置における車両制御について説明する。図12〜図14は、図1に示されるPCSシステム3、逸脱警報システム4、レーンキープシステム5それぞれのブロック構成図である。
【0031】
まず、図12に示されるPCSシステム3から説明する。このPCSシステムは、制動力を制御する制動系32、運転者の操舵力にアシスト力を付与するステアリングアシストモータ33、シートベルトの巻き上げを行うシートベルトプリテンショナー34、乗員保護用のエアバッグ35と、これらの制御を行うPCS・ECU31を備えており、PCS・ECU31には先行車両や障害物を検出するレーザレーダ16のほか、ヨーレートセンサ12、舵角センサ13、車速センサ14と、ブレーキペダルの操作、非操作状態を検出するためのブレーキペダルスイッチ15の出力が入力されている。
【0032】
PCS・ECU31は、車線認識ECU1から送られた車線情報(白線情報)と、各センサ12〜15およびレーザレーダ16の出力を基にして、自車両の進路上の先行車両、障害物を検知し、衝突可能性を予測する。そして、衝突不可避と判定したら、制動系32に指示してブレーキ操作時に付与されるアシスト力を予め増大する設定に切り替えることで、運転者が危険を察知してブレーキペダルを操作した際に、大きな制動力が得られるようにする。
【0033】
また、ステアリングアシストモータ33によるアシスト操舵力を増大させて、運転者がより弱い力で操舵を行えるようにする。必要ならば、自動的に操舵を行い、衝突を回避する。
【0034】
さらに、シートベルトプリテンショナー34によってシートベルトの余分長を衝突前に予め巻き取っておくことで、乗員を座席により強く拘束し、衝突時のダメージを軽減する。また、エアバッグを衝突を検知してからではなく、衝突前後の最適なタイミングで作動させることで、衝突時の乗員へのダメージを軽減する。これらの制御により、衝突が避けられない場合でも、車両、乗員への深刻なダメージを抑制し、衝突のショックを軽減することが可能となる。
【0035】
次に、図13に示される逸脱警報システム4について、説明する。この逸脱警報システム4は、逸脱警報ECU41と、表示用のモニタ装置42と、音声出力用のスピーカー43から構成されており、逸脱警報ECU41には、車線情報(白線情報)と、車速情報、ヨーレート情報が入力されている。
【0036】
逸脱警報ECU41は、車速・ヨーレート情報から自車両の進路を予測し、これと車線情報とを比較する。そして、車線逸脱が予想される場合には、モニタ装置42に車線から逸脱が予想される旨を表示するとともに、スピーカー43により、アラーム音、または音声出力によって警報を発することで、運転者にその旨報知する。
【0037】
続いて、図14に示されるレーンキープシステム5について説明する。このレーンキープシステム5は、レーンキープECU51と、制動力を制御する制動系32と、運転者の操舵力にアシスト力を付与するステアリングアシストモータ33と、トランスミッションの変速状態を変更する変速手段52と、電子制御スロットル53と、を備えており、レーンキープECU51には、先行車両や障害物を検出するレーザレーダ16のほか、ヨーレートセンサ12、舵角センサ13、車速センサ14と、ブレーキペダルの操作、非操作状態を検出するためのブレーキペダルスイッチ15、アクセルペダルの操作量を検出するためのアクセル開度センサ17の各出力が入力されている。
【0038】
このレーンキープシステム5は、現在走行中の走行レーン300内での車両の位置を維持して走行するものである。具体的には、ヨーレートセンサ12、舵角センサ13、車速センサ14の出力から自車両の進路を予測し、これと車線情報を比較することによって、走行レーン300内の走行が維持できているか否かを判定する。そして、前方車線情報を基に、自車と白線位置から自車が白線内を走行するようにステアリングアシストモータ33を制御することで、走行レーン300内の走行を維持する。
【0039】
このように本発明に係る車両用画像処理装置を用いて自車両の走行車線の道路区画線を検出することで、区画線、ひいては走行車線の認識精度が向上し、それを用いた各種の車両の挙動制御を精度良く行うことが可能となる。
【0040】
以上の説明では、ハフ変換で直線を検出する場合のみを例示して説明したが、公知のハフ変換を利用した曲線検出技術を利用すれば、カーブを含む走行レーンの検出が可能である。この場合も複数の白線は並行して描かれているため、上述の手法と同様の手法で区画線の選別が可能となる。
【0041】
【発明の効果】
以上説明したように本発明によれば、エッジ抽出値によって区画線として複数の候補が検出された場合には、エッジの周期を比較して最も連続線に近いと判断される候補を区画線と判定するので、本来の区画線に並行して他の白線が描かれているような場合でも本来の区画線を精度良く認識することが可能となる。
【図面の簡単な説明】
【図1】本発明に係る車両用画像処理装置を含む車両制御装置のブロック構成図である。
【図2】図1の車両制御装置を搭載した車両を示す斜視図である。
【図3】図1、図2の前方カメラ11で取得した画像の例を示す図であり、(a)が視線誘導線付きの車線を、(b)が合流線付きの車線を示している。
【図4】本発明に係る画像処理装置における画像処理の処理フローである。
【図5】前方カメラによって取得した画像の一例である。
【図6】画像処理によって抽出されたエッジ位置を示す図である。
【図7】幾何変換によって得られた抽出エッジ画素の車両に対する位置を示す図である。
【図8】図7のハフ変換領域内の投票結果を示す説明図である。
【図9】ハフ変換の対象領域を限定した場合の対象領域の説明図である。
【図10】図4の処理における選別処理の別の形態を示す処理フローである。
【図11】図10の処理における逆幾何変換を説明する図である。
【図12】図1に示されるPCSシステムのブロック構成図である。
【図13】図1に示される逸脱警報システムのブロック構成図である。
【図14】図1に示されるレーンキープシステムのブロック構成図である。
【符号の説明】
1…白線認識ECU、2…車内LAN、3…PCS(Pre−Crash Safety)システム、4…逸脱警報システム、5…レーンキープシステム、11…前方カメラ、12…ヨーレートセンサ、13…舵角センサ、14…車速センサ、15…ブレーキペダルスイッチ、16…レーザレーダ、17…アクセル開度センサ、31…PCS・ECU、32…制動系、33…ステアリングアシストモータ、34…シートベルトプリテンショナー、35…エアバッグ、41…逸脱警報ECU、42…モニタ装置、43…スピーカー、51…レーンキープECU、52…変速手段、53…電子制御スロットル、100…車両制御装置、200…車両、300…走行レーン、301…区画線、302…視線誘導線、303…合流線。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicular image processing device for recognizing a lane in which a vehicle travels.
[0002]
[Prior art]
Development of automatic driving equipment that automatically runs on the set lane, technology to warn of inadvertent departure from the lane of the vehicle, and to activate a system that protects occupants by predicting collision after departure Is being promoted. In such a technique, it is necessary to accurately recognize the lane in which the host vehicle should travel. As a technique for this, an image in the traveling direction of the vehicle is acquired, and a boundary line (white line) that separates the lane is detected by image recognition. There is known an apparatus for performing such processing (for example, see Patent Document 1).
[0003]
This technology detects an edge point that changes from light to dark and an edge point that changes from dark to light in a road surface image, and performs a Hough transform on them to obtain peaks corresponding to each of these edge points from the Hough space. Are detected as a pair to detect a white line. This describes that the position of a white line can be accurately detected even if the road has a complicated shape, for example, a double white line on a road.
[0004]
[Patent Document 1]
JP-A-11-85999 (paragraphs 0056 to 0059, FIG. 3)
[0005]
[Problems to be solved by the invention]
However, in the technique of
[0006]
Accordingly, the present invention provides a vehicular image processing device that recognizes a lane in which a vehicle is traveling by image recognition and that has improved recognition accuracy when a plurality of white lines are drawn on a road. That is the task.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problems, a vehicular image processing apparatus according to the present invention provides a vehicular image processing device that detects a road lane marking of a lane in which a vehicle travels by extracting edges from an image acquired by an imaging unit mounted on the vehicle. In the processing apparatus, when a plurality of candidates are detected on one side of a lane by edge extraction, the edge cycle is compared, and a candidate closest to a continuous line is determined as a road division line. apparatus.
[0008]
If the lane in which the vehicle is traveling is a double white line, one of the lanes is the original lane line, and the other is an auxiliary line such as a gaze guidance line. The auxiliary line is a discontinuous line such as a broken line so that the auxiliary line and the original division line can be visually distinguished. Therefore, by selecting the line closest to the continuous line from the plurality of lines (candidates) detected by the edge detection, the original division line can be selected.
[0009]
It is preferable to determine that the candidate having the shortest edge interval in the predetermined cycle is closest to the continuous line. Alternatively, it is preferable to compare the dashed line periods and determine that the candidate with the longest dashed line period is closest to the continuous line. The closer the line is to the continuous line, the shorter the edge interval and the longer the broken line period. Therefore, the line closest to the continuous line can be selected from the plurality of lines by comparing the edge interval or the broken line period.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate understanding of the description, the same components are denoted by the same reference numerals as much as possible in each drawing, and redundant description is omitted.
[0011]
FIG. 1 is a block diagram of a vehicle control device including a vehicle image processing device according to the present invention, and FIG. 2 is a perspective view showing a vehicle equipped with the same. The
[0012]
The
[0013]
FIGS. 3A and 3B are diagrams illustrating examples of images acquired by the
[0014]
Hereinafter, the process of recognizing the positions of the division lines 301R and 301L from the acquired image by image processing will be specifically described. FIG. 4 is a processing flow of this image processing, and FIGS. 5 to 8 are diagrams for explaining the processing contents. The processing described below is performed by the white
[0015]
First, an image as shown in FIG. 5 is obtained by the front camera 11 (step S1). This image includes left and right division lines 301L and 301R and
[0016]
The acquired image is subjected to AD conversion to obtain a predetermined number of pixels (for example, the horizontal direction in FIG. 5 is the x direction, the vertical direction is the y direction, and x × y is 320 × 240 pixels) (for example, monochrome gray scale). The image data is converted into digital image data (8 gradations) and sent to the white line recognition ECU 1 (step S2). Of course, a digital camera capable of directly outputting digital data having a predetermined number of pixels and gradation may be used for the
[0017]
Next, the white
[0018]
FIG. 6 shows the extracted edge position superimposed on the original image. Black circles indicate the extracted edge positions, and broken lines indicate pixel positions in the Y direction. Hereinafter, an explanation will be given of the edge of the area surrounded by the hatched circle, that is, the extracted edge pixels corresponding to the
[0019]
The acquired image of the traveling
[0020]
Next, straight line extraction is performed by performing Hough transformation on the result of the geometric transformation (step S5). Specifically, when the position of the extracted edge point on the traveling plane is represented by (x, y), the inclination θ is changed from 0 degree to 180 degrees for each edge point at a predetermined angle Δθ, Ρ corresponding to each θ is obtained as ρ = xcos θ + ysin θ. Then, the (ρ, θ) obtained in this manner is searched for in which of the areas divided at predetermined intervals in the Huff space, and a vote is made on the searched area. In other words, the number of votes in each area indicates the number of Hough transform results of edge points in this area. This voting is preferably performed separately for the left side and the right side of the traveling
[0021]
A (ρ, θ) region having a plurality of votes is shown as a straight line extracted from an edge point (even if the region is intermittent, it is also extracted as one line). This straight line corresponds to y = ρ / sin θ−x × cos θ / sin θ on the (x, y) plane. Here, the larger the voting result (ρ, θ), the closer the edge point is to a straight line. Considering the influence of noise and the like, a straight line having the number of votes equal to or more than a threshold value (3, preferably) is set as an extraction result (white line candidate) (step S6). Then, the number of white line candidates existing on one side of the traveling
[0022]
Here, since the
[0023]
When there are a plurality of groups, it is considered that a line that can intersect with the division line is recognized. Selection of a white line candidate from such intersecting lines is performed by comparing with a recognition result up to that time, and comparing with a traveling direction of a vehicle or lane line information on the opposite side of the traveling lane 300 (usually, a section on both sides of the traveling lane 300). The
[0024]
According to the present invention, even when another white line is provided in parallel with the original marking line, the marking line can be automatically selected and recognized, so that the recognition accuracy of the marking line is improved. For this reason, various vehicle controls using the lane information can be performed with high accuracy. Further, even when the lane markings are not continuous lines, or when the lane markings that are continuous during edge extraction are recognized as discontinuous lines, there is an advantage that the lane marking selection accuracy can be maintained.
[0025]
In the above description, the Hough transform is performed on all the geometrically transformed areas, but the area where the Hough transform is performed may be limited to a predetermined area in front of the vehicle (see FIG. 9). Here, the target area where the Hough transform is performed is called a control cycle. The interval between the edges corresponds to the edge period. This control cycle may be, for example, an area where the vehicle can reach after t1 to t2 seconds based on the output of the
[0026]
In the above description, an example in which the white line candidate with the largest number of votes is selected as the division line from the parallel white line candidates has been described, but the method of selecting the white line candidate is not limited to this.
[0027]
FIG. 10 is a processing flow showing another form of the selection processing, and FIG. 11 is an explanatory diagram of the processing. In this process, the process of step S8 of the process shown in FIG. 4 is replaced. First, in step S21, the result of the Hough transform is projected on the (x, y) plane, and this is geometrically transformed into the projection on the image plane of the front camera 11 (since the geometric transformation is the reverse of the geometric transformation in step S4). , Hereinafter referred to as an inverse geometric transformation) to obtain an image as shown in FIG. This corresponds to an image in which a white line candidate line is drawn in the edge extraction image shown in FIG.
[0028]
Next, for each edge point on the same white line candidate line (including an edge point that is close to a predetermined range), an edge cycle (interval between adjacent edge points) is determined. Specifically, a distance in the Y coordinate direction, that is, a difference between adjacent edge points of the Y coordinate is obtained (step S22). When edges are extracted from a continuous line, the distance between edge points in the Y coordinate direction is one pixel. On the other hand, in the case of a discontinuous line, since there is no edge point in a portion where the line is interrupted, the distance in the Y coordinate direction between adjacent edge points on the same white line candidate, that is, the difference is large. There exists a place. This difference increases as the distance between the coating portions increases, and the frequency at which the difference increases increases as the length of the coating portion decreases. Therefore, the number of differences (for example, the distance in the Y coordinate direction between adjacent edges is 3 pixels or more) between the white line candidates (the difference occurrence frequency) and the magnitude of the difference (the maximum value in the Y coordinate direction between adjacent edges) Or the average value), and when the frequency of occurrence of the difference is low and the frequency of occurrence is almost the same, it is determined that the white line candidate having a smaller difference is close to a continuous line, and the other is excluded from the white line candidates (step S23). . When the number of white line candidates is reduced to one in this way, the process proceeds to step S8, and position information is output using the candidates as partition lines.
[0029]
Also in this case, as in the case described above, the area for comparing the differences may be limited to a predetermined range. In addition, a region sandwiched between regions having a large difference from an adjacent edge is regarded as a painted portion, and the number of edge points (corresponding to the length of the painted portion) included in the painted portion is compared to form a continuous line. May be narrowed down from the white line candidates. In this case, when there is no region where the difference is large within the predetermined range of the white line candidate (when the region is a continuous line), the number of all the edges included in the predetermined range is included in the painted portion in the white line candidate. Calculated as the number of edges to be processed.
[0030]
Next, vehicle control in the vehicle control device according to the present invention using the white line information thus obtained will be described. 12 to 14 are block diagrams of the
[0031]
First, the
[0032]
The PCS /
[0033]
Further, the assist steering force by the steering assist
[0034]
Further, by winding the extra length of the seat belt in advance by the
[0035]
Next, the
[0036]
The
[0037]
Subsequently, the
[0038]
The
[0039]
As described above, by detecting the lane marking of the traveling lane of the vehicle using the image processing apparatus for a vehicle according to the present invention, the recognition accuracy of the lane marking, and thus the traveling lane, is improved, and various types of vehicles using the lane marking are improved. Can be controlled accurately.
[0040]
In the above description, only the case where a straight line is detected by Hough transform has been described as an example. However, if a known curve detection technique using Hough transform is used, a traveling lane including a curve can be detected. Also in this case, since the plurality of white lines are drawn in parallel, the division lines can be selected by the same method as described above.
[0041]
【The invention's effect】
As described above, according to the present invention, when a plurality of candidates are detected as demarcation lines based on an edge extraction value, a candidate determined to be closest to a continuous line by comparing the cycle of edges is determined as a demarcation line. Since the determination is made, even when another white line is drawn in parallel with the original division line, the original division line can be accurately recognized.
[Brief description of the drawings]
FIG. 1 is a block diagram of a vehicle control device including a vehicle image processing device according to the present invention.
FIG. 2 is a perspective view showing a vehicle equipped with the vehicle control device of FIG. 1;
FIGS. 3A and 3B are diagrams showing examples of images acquired by the
FIG. 4 is a processing flow of image processing in the image processing apparatus according to the present invention.
FIG. 5 is an example of an image acquired by a front camera.
FIG. 6 is a diagram showing edge positions extracted by image processing.
FIG. 7 is a diagram showing positions of extracted edge pixels obtained by geometric transformation with respect to a vehicle.
FIG. 8 is an explanatory diagram showing a voting result in the Hough transform area of FIG. 7;
FIG. 9 is an explanatory diagram of a target area when the target area of the Hough transform is limited.
FIG. 10 is a processing flow showing another form of the selection processing in the processing of FIG. 4;
11 is a diagram illustrating the inverse geometric transformation in the process of FIG.
FIG. 12 is a block diagram of the PCS system shown in FIG. 1;
FIG. 13 is a block diagram of the departure warning system shown in FIG. 1;
FIG. 14 is a block diagram of the lane keeping system shown in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
エッジ抽出によって車線の片側に複数の道路区画線候補が検出された場合には、エッジ周期を比較して最も連続線に近い候補を道路区画線と判定することを特徴とする車両用画像処理装置。An image processing device for a vehicle that detects a road lane marking of a lane in which the vehicle travels by extracting an edge from an image acquired by an imaging unit mounted on the vehicle,
When a plurality of road lane marking candidates are detected on one side of a lane by edge extraction, an edge cycle is compared, and a candidate closest to a continuous line is determined as a road lane marking. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003104206A JP2004310522A (en) | 2003-04-08 | 2003-04-08 | Vehicular image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003104206A JP2004310522A (en) | 2003-04-08 | 2003-04-08 | Vehicular image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004310522A true JP2004310522A (en) | 2004-11-04 |
Family
ID=33467099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003104206A Pending JP2004310522A (en) | 2003-04-08 | 2003-04-08 | Vehicular image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004310522A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006260358A (en) * | 2005-03-18 | 2006-09-28 | Honda Elesys Co Ltd | Traffic lane recognition system |
WO2007033627A1 (en) | 2005-09-20 | 2007-03-29 | Adc Automotive Distance Control System Gmbh | Method for detecting lane markings |
JP2009237901A (en) * | 2008-03-27 | 2009-10-15 | Zenrin Co Ltd | Method of creating road marker map |
US7860652B2 (en) | 2006-11-14 | 2010-12-28 | Toyota Jidosha Kabushiki Kaisha | Lane detecting apparatus |
JP2011053808A (en) * | 2009-08-31 | 2011-03-17 | Fuji Heavy Ind Ltd | White line recognition device for vehicle |
JP2011053809A (en) * | 2009-08-31 | 2011-03-17 | Fuji Heavy Ind Ltd | White line recognition device for vehicle |
JP2011186722A (en) * | 2010-03-08 | 2011-09-22 | Nippon Soken Inc | In-vehicle white line recognition apparatus |
JP2011258131A (en) * | 2010-06-11 | 2011-12-22 | Fuji Heavy Ind Ltd | White line recognition apparatus for vehicle |
US8224031B2 (en) | 2005-04-26 | 2012-07-17 | Fuji Jukogyo Kabushiki Kaisha | Road line recognition apparatus |
JP2013012044A (en) * | 2011-06-29 | 2013-01-17 | Nippon Soken Inc | On-vehicle white line recognition apparatus |
JP2013120458A (en) * | 2011-12-06 | 2013-06-17 | Fujitsu Ltd | Road shape estimating device and program |
US8600112B2 (en) | 2010-03-15 | 2013-12-03 | Aisin Seiki Kabushiki Kaisha | Crosswalk detection device, crosswalk detection method and recording medium |
US8687063B2 (en) | 2007-08-30 | 2014-04-01 | Industrial Technology Research Institute | Method for predicting lane line and lane departure warning system using the same |
JP2014075145A (en) * | 2013-12-02 | 2014-04-24 | Honda Motor Co Ltd | Vehicle traveling support device |
KR20140068475A (en) * | 2012-11-28 | 2014-06-09 | 현대모비스 주식회사 | System by detection of lane marking |
US20150310283A1 (en) * | 2014-04-25 | 2015-10-29 | Honda Motor Co., Ltd. | Lane recognition device |
JP2020064046A (en) * | 2018-10-16 | 2020-04-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Vehicle position determining method and vehicle position determining device |
-
2003
- 2003-04-08 JP JP2003104206A patent/JP2004310522A/en active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7889887B2 (en) | 2005-03-18 | 2011-02-15 | Honda Elesys Co., Ltd. | Lane recognition apparatus |
JP4637618B2 (en) * | 2005-03-18 | 2011-02-23 | 株式会社ホンダエレシス | Lane recognition device |
JP2006260358A (en) * | 2005-03-18 | 2006-09-28 | Honda Elesys Co Ltd | Traffic lane recognition system |
US8224031B2 (en) | 2005-04-26 | 2012-07-17 | Fuji Jukogyo Kabushiki Kaisha | Road line recognition apparatus |
WO2007033627A1 (en) | 2005-09-20 | 2007-03-29 | Adc Automotive Distance Control System Gmbh | Method for detecting lane markings |
US8239085B2 (en) | 2005-09-20 | 2012-08-07 | Adc Automotive Distance Control Systems Gmbh | Method for detecting road lane markings |
US7860652B2 (en) | 2006-11-14 | 2010-12-28 | Toyota Jidosha Kabushiki Kaisha | Lane detecting apparatus |
US8687063B2 (en) | 2007-08-30 | 2014-04-01 | Industrial Technology Research Institute | Method for predicting lane line and lane departure warning system using the same |
JP2009237901A (en) * | 2008-03-27 | 2009-10-15 | Zenrin Co Ltd | Method of creating road marker map |
JP2011053808A (en) * | 2009-08-31 | 2011-03-17 | Fuji Heavy Ind Ltd | White line recognition device for vehicle |
JP2011053809A (en) * | 2009-08-31 | 2011-03-17 | Fuji Heavy Ind Ltd | White line recognition device for vehicle |
JP2011186722A (en) * | 2010-03-08 | 2011-09-22 | Nippon Soken Inc | In-vehicle white line recognition apparatus |
US8600112B2 (en) | 2010-03-15 | 2013-12-03 | Aisin Seiki Kabushiki Kaisha | Crosswalk detection device, crosswalk detection method and recording medium |
JP2011258131A (en) * | 2010-06-11 | 2011-12-22 | Fuji Heavy Ind Ltd | White line recognition apparatus for vehicle |
JP2013012044A (en) * | 2011-06-29 | 2013-01-17 | Nippon Soken Inc | On-vehicle white line recognition apparatus |
JP2013120458A (en) * | 2011-12-06 | 2013-06-17 | Fujitsu Ltd | Road shape estimating device and program |
KR20140068475A (en) * | 2012-11-28 | 2014-06-09 | 현대모비스 주식회사 | System by detection of lane marking |
KR101976392B1 (en) | 2012-11-28 | 2019-05-09 | 현대모비스 주식회사 | System by detection of lane marking |
JP2014075145A (en) * | 2013-12-02 | 2014-04-24 | Honda Motor Co Ltd | Vehicle traveling support device |
US20150310283A1 (en) * | 2014-04-25 | 2015-10-29 | Honda Motor Co., Ltd. | Lane recognition device |
CN105022985A (en) * | 2014-04-25 | 2015-11-04 | 本田技研工业株式会社 | Lane recognition device |
JP2015210618A (en) * | 2014-04-25 | 2015-11-24 | 本田技研工業株式会社 | Lane recognition device |
US9690994B2 (en) * | 2014-04-25 | 2017-06-27 | Honda Motor Co., Ltd. | Lane recognition device |
CN105022985B (en) * | 2014-04-25 | 2018-09-28 | 本田技研工业株式会社 | Lane recognition device |
JP2020064046A (en) * | 2018-10-16 | 2020-04-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Vehicle position determining method and vehicle position determining device |
JP7461720B2 (en) | 2018-10-16 | 2024-04-04 | 三星電子株式会社 | Vehicle position determination method and vehicle position determination device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4420011B2 (en) | Object detection device | |
US8311283B2 (en) | Method for detecting lane departure and apparatus thereof | |
EP1564703B1 (en) | Vehicle driving assist system | |
US8340866B2 (en) | Vehicle and steering control device for vehicle | |
JP5172314B2 (en) | Stereo camera device | |
JP4788778B2 (en) | Deviation warning device and deviation warning program | |
US20190370609A1 (en) | Image processing apparatus and external environment recognition apparatus | |
US20050125121A1 (en) | Vehicle driving assisting apparatus | |
US20190073540A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US10810877B2 (en) | Vehicle control device | |
EP2960131A2 (en) | Warning device and travel control device | |
CN108027422A (en) | Automatic detection of a dangerous departing vehicle by means of a vehicle sensor | |
US10410514B2 (en) | Display device for vehicle and display method for vehicle | |
KR20200016958A (en) | Parking Assistance Method and Parking Assistance Device | |
JP2004310522A (en) | Vehicular image processor | |
US11052910B2 (en) | Vehicle control apparatus | |
JP5363920B2 (en) | Vehicle white line recognition device | |
US20150191120A1 (en) | Warning device for vehicle and outside mirror device for vehicle | |
JP2008222153A (en) | Merging support device | |
US10565869B2 (en) | Vehicle driving assistance apparatus and vehicle driving assistance method | |
JP2006318093A (en) | Vehicular moving object detection device | |
US11701967B2 (en) | Display control device, display control method, and storage medium | |
JP6885022B2 (en) | Driving support device | |
JP4951481B2 (en) | Road marking recognition device | |
US12033403B2 (en) | Vehicle control device, vehicle control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070703 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070925 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080205 |