Nothing Special   »   [go: up one dir, main page]

JP5410730B2 - 自動車の外界認識装置 - Google Patents

自動車の外界認識装置 Download PDF

Info

Publication number
JP5410730B2
JP5410730B2 JP2008262600A JP2008262600A JP5410730B2 JP 5410730 B2 JP5410730 B2 JP 5410730B2 JP 2008262600 A JP2008262600 A JP 2008262600A JP 2008262600 A JP2008262600 A JP 2008262600A JP 5410730 B2 JP5410730 B2 JP 5410730B2
Authority
JP
Japan
Prior art keywords
area
pedestrian
vehicle
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008262600A
Other languages
English (en)
Other versions
JP2010093610A (ja
Inventor
和利 土屋
博史 坂本
健人 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2008262600A priority Critical patent/JP5410730B2/ja
Publication of JP2010093610A publication Critical patent/JP2010093610A/ja
Application granted granted Critical
Publication of JP5410730B2 publication Critical patent/JP5410730B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、カメラやレーダなどの自車に搭載されたセンサからの情報に基づいて自車周囲の物体を検知する自動車の外界認識装置及び外界認識方法に関する。
交通事故による死傷者数および交通事故そのものの低減に向けて、近年、研究開発が進められているプリクラッシュ・セーフティ・システムやACC(Adaptive Cruise Control)といった自動車の予防安全技術において、レーダやカメラなどのセンサからの情報及びナビゲーション装置を利用した道路情報などが必要となる。例えば、上記のACCの場合、レーダを利用して前方車両の相対速度や相対距離を検出し、前車との適切な車間距離を維持するように自車の速度を制御する。
従来、レーダやカメラ等のセンサを利用して物体を検知する場合、その検知対象領域は各センサの検知対象領域そのものであり、特に、車載カメラによる物体認識では、カメラの全画面にわたって、予め設定した所定の形状パターンと画面上の物体の形状とを比較して物体を認識するパターンマッチング手法などが用いられる。
例えば、特許文献1に記載の車両周辺監視システムでは、車両に搭載した赤外線カメラから得られた画像において、歩行者などの対象物体が背景にまぎれ込んだ場合でも高精度で該対象物体を認識する。その際に、検知領域として前記カメラの画角および歩行者の相対速度に基づく三角形領域を設定する。この三角形領域は、車両正面前方に設けた一定幅の接近判定領域と、その接近判定領域の左右両サイドに設ける侵入判定領域とから構成されており、前記領域内にいる歩行者の速度ベクトルから接触可能性を判定する方法が開示されている。
特開2008−42779号公報
しかしながら、特許文献1に記載されている車両周辺監視システムでは、赤外線カメラで得られる時系列の測定位置情報から歩行者の速度ベクトルを演算するので、相対速度の測定精度が低く、正確な衝突判定が困難である。また、歩行者の相対速度情報に基づいて検知領域を設定するため、歩行者や自車が急な速度変化をした場合に、検知領域が前後方向にばらつき、歩行者が検知領域から外れてしまう可能性がある。
本発明は、上記の点に鑑みてなされたものであり、その目的は、物体を高精度に認識する自動車の外界認識装置及び外界認識方法を提供する。
本発明は、自車の前方画像に基づいて自車前方の移動物体を検知する自動車の外界認識装置及び外界認識方法であって、画像内に第1領域と第2領域を設定し、第1領域の画像に対して移動物体を識別するための画像処理を行い、第2領域の画像に対して移動物体の挙動を把握するための画像処理を行うことを特徴としている。
本発明によれば、移動物体が第2領域を通過して第1領域に進入してきた場合に、第2領域における移動物体の挙動に関する情報を利用して、第1領域内の移動物体を容易に特定することができる。従って、第1領域内で移動物体を識別するための画像処理を迅速に行うことができる。従って、外界認識装置の画像処理負荷及び処理時間を低減することができ、精度良く移動物体を検知することが可能である。
次に、本発明の実施の形態について図面を用いて説明する。
[第1実施の形態]
図1は、第1実施の形態における外界認識装置10の構成を説明するブロック図である。外界認識装置10は、自動車に搭載されるコンピュータにプログラミングされた外界認識用のプログラムを実行することによって実現され、その処理内容が予め定められた周期で繰り返し実行される。
外界認識装置10は、外界認識センサ1を構成するカメラセンサ(撮影部)2で撮影した自車の前方画像の情報を、カメラセンサ2から取得する画像情報取得部101と、自車の車両状態量に基づいて自車の予測進路を演算する自車進路演算部20と、予測進路に基づいて前方画像内に自車の正面とその左右外側にそれぞれ画像処理領域を設定する処理領域設定部30と、各画像処理領域において移動物体を検知するための所定の画像処理を行う物体検知部40を有する。
物体検知部40による移動物体の検知情報は、外界認識装置10から警報部108に出力され、警報部108では、外界認識装置10から入力した検知情報に基づき、自車と移動物体との衝突時間TTC(Time to Collision)[sec]に応じた所定の警報が実行される。
また、外界認識装置10には、自車の車両状態を示す情報として、自車のステアリングホイールの角度(ステア角)αと車速V[m/s]の情報が入力され、更に、自車幅Wc[m]、カメラセンサの視野角θCA[rad](センサ検知角)、センサ検知距離[m]の情報が入力される。
カメラセンサ2は、自車の車体前部に取り付けられており、自車前方を撮影して移動物体の画像情報を取得し、外界認識装置10に出力する。カメラセンサ2は、1つのカメラから構成される単眼カメラであり、該単眼カメラを複数台利用しても良い。カメラセンサ2で取得する移動物体の画像情報とは、移動物体の形状、相対位置や速度ベクトルなどである。また、移動物体には、歩行者の他に、車両、自転車、犬や猫などの人間以外の動物も含まれる。
自車進路演算部20は、ステア角α[rad]及び車速V[m/s]の情報を取得する車両挙動情報取得部102と、車両挙動情報取得部102で取得したステア角α[rad]及び車速V[m/s]の情報に基づいて自車の進路(旋回半径R[m])を演算する進路演算部103とから構成され、自車進路の演算結果を処理領域設定部30に出力する。なお、自車進路を演算する際に、車両挙動情報取得部102で取得するステア角αや車速Vの他に、自車のヨーレートおよびヨー角、加速度などを利用してもよい。
処理領域設定部30は、自車の正面の移動物体を検知するための画像処理領域(以下、第1領域と称する)を設定する第1領域設定部104と、第1領域の左右外側の移動物体を検知するための画像処理領域(以下、第2領域と称する)を設定する第2領域設定部105を有する。第1領域設定部104は、自車進路演算部20で演算した自車の予測進路と自車幅Wcに基づき第1領域を設定し、第2領域設定部105は、車速Vとカメラセンサの視野角θCAと第1領域に基づき第2領域を設定する。
第1領域は、運転者の操舵操作に応じて変化する自車進路に対応して変化し、その際に第2領域も第1領域に対応して変化する。また、第1領域設定部104は第1領域内に少なくとも自車幅Wc以上の横幅を有する警報領域(例えば図9の警報領域904を参照)を設定する。
物体検知部40は、第1領域内および第2領域内の移動物体を所定の画像処理手法を利用して検知するものであり、第1領域内の移動物体を検知する第1の物体検知部106と、第2領域内の移動物体を検知する第2の物体検知部107とから構成される。
第1の物体検知部106は、第1領域内の移動物体に対して、当該移動物体を含む所定の範囲のカメラ画像を切り出して、その切り出したカメラ画像を正規化するためのサイズ調整を行う。
そして、サイズ調整により正規化したカメラ画像を走査し、予め記憶しておいた複数の物体形状パターンに基づいて、移動物体の対応する特徴量を比較するパターンマッチング処理を行う。そして、パターンマッチングの結果、移動物体が物体形状パターンのうち少なくとも1つ以上の形状パターンと近似している場合には、第1領域内に所定の移動物体があると認識する。
第2の物体検知部107は、第2領域内の移動物体に対して、移動物体を検知した時刻における移動物体の画像と、当該検知時刻より所定の時間前の時刻における移動物体の画像とを比較し、当該2つの画像に共通する移動物体の特徴部の移動(画素の変化)から、移動物体のオプティカルフローを演算する。第2の物体検知部107で演算されたオプティカルフローの情報は、第2領域における移動物体の挙動に関する情報として、第1の物体検知部106に提供され、第1の物体検知部106で移動物体を検知する処理に用いられる。
警報部108は、物体検知部40から第1領域において移動物体を検知したとの情報を受けた場合に、自車と移動物体との衝突時間TTCに応じて、運転者および同乗者に対して所定の警報を実行する。なお、警報は「ピピピ・・・」などのビープ音の他に、音声メッセージなどを発する警報でもよく、また、カーナビゲーションシステムのモニタ画面や、インストゥルメントパネル、ヘッドアップディスプレイ等に表示する視覚的な警報でも良い。
次に、図2を用いて自車進路演算部20の処理内容について詳細に説明する。図2は、自車の予測進路を演算する処理の内容を示すフローチャートである。
処理S201において、自車のステア角α[rad]および車速V[m/s]などのパラメータを読み込み、処理S202において、ステア角αとステアリングギヤ比gから(1)式を用いて自車の操舵角δ[rad]を算出する。
Figure 0005410730
次に、処理S203において、(1)式で演算した操舵角δと車速Vから(2)式を用いて自車の旋回半径R[m]を演算して処理を終了する。ここで、Aはスタビリティファクタ[s/m]と呼ばれるものであり、Hは自車のホイールベース[m]である。
Figure 0005410730
以上、説明したように、ステア角αおよび車速Vから自車の旋回半径Rを演算することができ、自車の予測進路を得ることができる。
次に、図3を用いて処理領域設定部30の処理内容について説明する。図3は、画像内に複数の画像処理領域を設定する処理の内容を示すフローチャートである。処理領域設定部30では、自車前方に存在する移動物体のうち、自車と衝突する可能性がある移動物体を絞り込むための画像処理領域が設定される。画像処理領域は、自車の車速に応じて自車の進行方向に拡大または収縮するように設定される。
まず、処理S301において、カメラセンサ2で撮影した自車前方の画像情報を画像情報取得部101にて予め定められた周期で取得し、処理S302に進む。処理S302では、カメラセンサ2の視野角θCA[rad]および検知角度(自車に対する左右方向の最大検知範囲)や検知距離(自車に対する前後方向の最大検知範囲D[m])などの情報を読み込む。なお、外界認識センサとしてカメラセンサを使用しているが、このカメラセンサは単眼カメラおよびステレオカメラであり、1台もしくは複数台使用しても良い。
次に、処理S303において、自車幅Wcの情報を読み込み、処理S304において、自車の車速Vおよび自車進路演算部20で演算した自車の予測進路(旋回半径R[m])を読み込む。
そして、処理S305において、車速Vが予め設定された閾値Vr未満か否かを判定する。本実施の形態では、閾値Vrは、40km/hに設定されている。処理S305の判定条件が成立していると判断した場合は、自車が40km/h未満の低速走行をしていると判断して、第2領域の大きさを自車の進行方向に収縮させるべく、処理S306に進み、処理S306において車速フラグfCARVSPをクリア(fCARVSP=0)する。
そして、処理S307において、自車の前方20mもしくはカメラセンサ2の前後方向の最大検知範囲Dの半分の距離D/2[m]の範囲内に、自車の予測進路および自車幅Wcに基づいて低速用の第1領域を設定し、処理S308に進む。処理S308において、カメラセンサ2の視野角に基づき、処理S307にて設定した第1領域の左右外側に低速用の第2領域を設定する。
一方、処理S305の判定条件が不成立の場合は、自車が40km/h以上の高速走行をしていると判断して、第2領域を自車の進行方向に拡大させるべく、処理S309に進み、処理S309において車速フラグfCARVSPをセット(fCARVSP=1)する。
そして、処理S310において、自車の前方40mもしくはカメラセンサ2の前後方向の最大検知範囲D[m]の範囲内に、自車の予測進路および自車幅Wcに基づいて高速用の第1領域を設定し、処理S311に進む。
処理S307、S308もしくは処理S310、S311で設定した第1領域および第2領域の情報は、処理S312において、物体検知部40に出力され、また、カメラセンサ2により撮影した前方画像を映す所定のモニタ画面に出力表示され、画像処理領域設定の処理を終了する(RETURN)。
なお、処理S305で用いられる閾値Vrは、40km/hに限定されるものではなく、以下の(3)式で演算される閾値を用いてもよい。ここで、D[m]は制動距離と空走距離の合計、TTCは衝突時間[sec](相対距離÷相対速度)である。
Figure 0005410730
以上説明したように、自車の予測進路とカメラセンサ2の仕様に基づき、自車の速度に応じた画像処理領域が設定される。
次に、図4を用いて第1領域設定部104の処理内容について説明する。図4は、画像内に第1領域を設定する処理の内容を示すフローチャートである。第1領域設定部104は、自車の予測進路上もしくは該進路に進入する直前の移動物体を検知するための画像処理領域を第1領域として設定する。
まず、処理S401において、自車幅Wcを読み込み、処理S402に進む。そして、処理S402において、自車の車速Vおよび自車進路演算部20で演算した自車の予測進路(旋回半径R[m])を読み込み、処理S403に進む。
処理S403において、車速Vが予め設定された閾値Vr未満か否かを判定する。本実施の形態では、閾値Vrは、40km/hに設定されている。処理S403の判定条件が成立していると判断した場合は、自車が40km/h未満の低速走行をしていると判断して、第1領域の大きさを自車の進行方向に収縮させるべく、処理S404に進み、処理S404において車速フラグfCARVSPをクリア(fCARVSP=0)する。
そして、処理S405において、低速用の警報領域(図9の領域904)を設定する。低速用の警報領域は、処理S402で読み込んだ予測進路Rおよび自車幅Wから(4)−1式、(4)−2式に基づいて算出され、自車の前方20mもしくはカメラセンサ2の前後方向の最大検知範囲Dの半分の距離D/2[m]の範囲内に設定される。
ここで、L20 AL[m]は低速用警報領域の前後(縦)幅、W20 AL[m]は低速用警報領域の左右(横)幅、R[m]は(2)式で算出する自車の旋回半径を示す。なお、低速用警報領域は(2)式で算出する予測進路に応じて進路方向に変化し、低速用警報領域内の移動物体との衝突時間TTC[sec]が所定の値になった場合に、警報部108により運転者に対して警報がなされる。
Figure 0005410730
そして、処理S406において、処理S405で設定した低速用警報領域の左右に低速用注意領域(図9の領域905)を設定する。低速用警報領域は、(5)−1式と(5)−2式に基づいて算出される。ここで、L20 CT[m]は低速用注意領域の前後(縦)幅、W20 CT[m]は低速用注意領域の片側一方の左右(横)幅を示す。
Figure 0005410730
一方、処理S403の判定条件が成立していないと判断した場合は、自車が40km/h以上の高速走行をしていると判断して、第1領域の大きさを自車の進行方向に拡大すべく、処理S407に進み、処理S407において車速フラグfCARVSPをセット(fCARVSP=1)する。
そして、処理S408において、高速用警報領域(図9の領域904)を設定する。高速用警報領域は、処理S402で読み込んだ予測進路Rおよび自車幅Wを用いて(6)−1式、(6)−2式に基づいて算出され、自車の前方40mもしくはカメラセンサ2の前後方向の最大検知範囲D[m]の範囲内に設定される。
ここで、L40 AL[m]は高速用警報領域の前後(縦)幅、W40 AL[m]は高速用警報領域の左右(横)幅、R[m]は(2)式で算出する自車の旋回半径を示す。なお、高速用警報領域は(2)式で算出する予測進路に応じて進路方向に変化し、高速用警報領域内の移動物体との衝突時間TTC[sec]が所定の値になった場合に、警報部108により運転者に対して警報がなされる。
Figure 0005410730
次に、処理S409において、処理S408で設定した高速用警報領域の左右に高速側注意領域(図9の領域905)を設定する。高速用警報領域は、(7)−1式と(7)−2式に基づいて算出される。ここで、L40 CT[m]は高速側注意領域の前後(縦)幅、W40 CT[m]は高速側注意領域の片側一方の左右(横)幅を示す。
Figure 0005410730
処理S405、処理S406もしくは処理S408、S409で設定した警報領域および注意領域の情報は、処理S410において、物体検知部40に出力され、また、カメラセンサ2により撮影した前方画像を映す所定のモニタ画面に出力表示され、画像処理領域設定の処理を終了する(RETURN)。
なお、処理S403で用いられる閾値Vrは、V=40km/hに限定されるものではなく、前述した(3)式で演算される閾値を用いてもよい。以上説明したように、自車の予測進路および自車幅に基づき、自車の車速Vに応じた警報領域および注意領域が設定される。
次に、図5を用いて第2領域設定部105の処理内容について説明する。図5は、画像内に第2領域を設定する処理の内容を示すフローチャートである。第2領域設定部105は、第1領域の左右外側に、自車の予測進路に接近する移動物体を検知するための画像処理領域を第2領域として設定する。
まず、処理S501において、カメラセンサ2の視野角θCAを読み込み、処理S502において、カメラセンサ2の検知距離の最大値(限界値)D[m]を読み込み、処理S503において、第1領域設定部104で設定した第1領域を読み込む。
そして、低速用と高速用のいずれの第2領域を設定すべきかを判断すべく、処理S504以降に進む。処理S504において、車速Vが予め設定された閾値Vr未満か否かを判定する。本実施の形態では、閾値Vrは、40km/hに設定されている。
処理S504の判定条件が成立していると判断した場合は、自車が40km/h未満の低速走行をしていると判断して、低速用の第2領域を設定すべく、処理S505以降に進む。
処理S505では、車速フラグfCARVSPがクリア(fCARVSP=0)され、処理S506において、処理S503で読み込んだ第1領域の左右外側に低速用の第2領域(図9の領域906)が設定される。
低速用の第2領域は、(8)−1式、(8)−2式に基づいて算出され、自車の前方20メートルもしくはカメラセンサ2の前後方向の最大検知範囲Dの半分の距離D/2[m]、及び処理S501で読み込んだカメラセンサ2の視野角θCA[rad]の範囲内に設定される。なお、(8)−1式の+記号は自車中心線よりも右側の第2領域であり、−記号は自車中心線よりも左側の第2領域である。
Figure 0005410730
一方、処理S504の判定条件が成立していないと判断した場合は、自車が40km/h以上の高速走行をしていると判断して、高速用の第2領域を設定すべく、処理S507に進む。
処理S507では、車速フラグfCARVSPがセット(fCARVSP=1)され、処理S508において、処理S503で読み込んだ第1領域の左右外側に高速用の第2領域が設定される。
高速用の第2領域は、(9)−1式、(9)−2式に基づいて算出され、自車の前方40メートルもしくはカメラセンサ2の前後方向の最大検知範囲D、および処理S501で読み込んだカメラセンサ2の視野角θCA[rad]の範囲内に設定される。
ここで、Cは定数である。なお、(9)式は自車からの距離が20m<Y≦40mもしくはD/2<Y≦Dの範囲の第2領域である。
Figure 0005410730
処理S506もしくは処理S508で設定した第2領域の情報は、処理S509において、物体検知部40に出力され、また、カメラセンサ2により撮影した前方画像を映す所定のモニタ画面に出力表示され、画像処理領域設定の処理を終了する(RETURN)。なお、処理S504で用いられる閾値Vrは、V=40km/hに限定されるものではなく、前述した(3)式で演算される閾値を用いてもよい。
以上説明したように、第1領域設定部104で設定された第1領域とカメラセンサ2の視野角と車速Vに基づいて第2領域が設定される。
次に、図6を用いて物体検知部40の処理内容について説明する。図6は、画像処理領域内の移動物体を検知する処理の内容を示すフローチャートである。物体検知部40は、第2領域における移動物体のオプティカルフローの検出と、第1領域におけるパターンマッチングによる移動物体の識別を行う。
まず、処理S601において、第1領域設定部104で設定された第1領域の情報を読み込み、処理S602において、第2領域設定部105で設定された第2領域の情報を読み込む。
そして、処理S603において、第2領域内の移動物体に対するオプティカルフローを演算し、移動物体の挙動に関する情報として、移動物体の相対速度、相対距離、および相対移動方向などを算出する。そして、処理S604において、処理S603にて算出した移動物体の挙動に関する情報を取得する。
処理S605では、処理S604で取得した移動物体の挙動に関する情報に基づいて移動物体が第1領域内に進入したか否かを判定する。そして、処理S605の判定条件が成立した場合は、移動物体が第1領域に進入したと判断して、処理S606に進み、処理S606において、第1領域内の移動物体を認識する処理が行われる。
処理S606における移動物体の認識処理は、予め記憶した物体形状パターンと第1領域に進入した移動物体とを比較するパターンマッチングにより行われる。処理S607では、処理S606で認識した移動物体の情報、及びその移動物体の相対距離や相対速度の情報等を警報部108に出力して、物体検知処理を終了する。
一方、処理S605の判定条件が不成立の場合は、移動物体が第1領域に進入していないと判断して、処理S608に進み、処理S608において、移動物体が第2領域から外れたか否かを判定する。そして、処理S608の判定条件が成立する場合は、移動物体が第2領域及び第1領域で構成される画像処理領域から外れたと判断して、物体検知処理を終了する(RETURN)。
一方、処理S608の判定条件が不成立の場合は、移動物体がまだ第2領域内にいると判断して処理S603に戻り、処理S603にて引き続き移動物体のオプティカルフローを演算する。
以上説明したように、画像処理領域を第1領域と第2領域に分割し、第2領域において移動物体のオプティカルフローを演算して移動物体の相対情報を取得し、オプティカルフロー演算の結果に基づいて、自車進路上の第1領域に進入した移動物体に対してパターンマッチングを適用して移動物体を識別することにより、画像処理負荷および処理時間を低減し、精度良く移動物体を検知することが可能である。
次に、図7を用いて第1の物体検知部106の処理内容について説明する。図7は、第1領域内の移動物体を検知する処理の内容を示すフローチャートである。第1の物体検知部106は、第1領域の移動物体に対して、パターンマッチングによる画像処理を実行し、第1領域内の移動物体を認識する。
まず、処理S701において、第1領域設定部104で設定した第1領域の情報を読み込み、処理S702において、第2の物体検知部107において第2領域内で検知した移動物体に関する情報(相対速度ベクトルおよび相対距離など)を読み込む。
そして、処理S703において、第2領域にて検知された後に第1領域内に進入した移動物体に対して、カメラセンサ2の画像上にて移動物体を含む所定の切り出し範囲を設定し、切り出し範囲内の画像を切り出して処理S704に進む。
画像上の移動物体の大きさは自車との相対距離に応じて変化することから、処理S704では、処理S703で切り出した所定の切り出し画像のサイズを、相対距離に応じてサイズ調整して正規化し、処理S705に進む。
処理S705では、処理S704で正規化された画像に対して、局所的なエッジなどの移動物体が有する外形の特徴量を抽出し、その抽出した特徴量と予め記憶した物体形状パターンとを比較するパターンマッチングを行い、移動物体を識別する。そして、処理S706にて、処理S705の移動物体認識結果を警報部108へ出力し、第1の物体検知部106の処理を終了する。
以上説明したように、第1領域において、移動物体をパターンマッチング手法で認識することにより、例えば歩行者を検知対象とする場合には、歩行者のみを精度良く認識し、警報などの制御を実行することが可能となる。
次に、図8を用いて第2の物体検知部107の処理内容について説明する。図8は、第2領域内の移動物体を検知する処理の内容を示すフローチャートである。第2の物体検知部107では、第2領域内の移動物体に対して、移動物体のオプティカルフローを演算する処理が行われる。
まず、処理S801では、第2領域設定部105で設定した第2領域の情報を読み込み、処理S802に進む。そして、処理S802では、第2領域において移動物体を検知したある時刻をTとするとき、時刻Tより所定の時間ΔTだけ前の時刻T−ΔTに検知した移動物体の特徴量(局所エッジなど)を複数抽出し、処理S803に進む。
処理S803において、時刻Tに検知した移動物体の特徴量を複数抽出し、処理S804に進む。処理S804では、処理S802で抽出した時刻T−ΔTにおける移動物体の特徴量と、処理S803で抽出した時刻Tにおける移動物体の特徴量について、それぞれ対応する箇所の特徴量を比較し、処理S805に進む。
処理S805において、処理S804の特徴量の比較結果より移動物体のオプティカルフローを算出し、処理S806に進む。処理S806において、処理S805で算出した移動物体のオプティカルフローを第1の物体検知部106に出力し、第2の物体検知部107の処理を終了する。
以上説明したように、自車進路の左右外側の第2領域において移動物体のオプティカルフローを演算することにより、移動物体の相対速度ベクトルを算出し、移動物体の挙動を把握することが可能である。従って、移動物体が第2領域から第1領域に進入した場合に、第1の物体検知部106において移動物体を迅速且つ正確に把握し、移動物体に対するパターンマッチングを行うことができる。
次に、図9、図10を用いて画像処理領域の具体的な設定方法について説明する。
図9は、第1領域901と第2領域902をXY座標(世界座標)にプロットした図、図10は、モニタ画面911に自車の前方画像と各画像処理領域901、902を表示した場合の模式図である。
図9は、自車先頭の中心位置を原点Oにとり、自車の前後(縦)方向にY軸、左右(横)方向にX軸をとり、カメラセンサ2の視野角に相当する直線式903と、第1領域設定部104で設定される第1領域901と、第2領域設定部105で設定される第2領域902が示される。また、直線式908は、レーダセンサを搭載した場合におけるレーダ検知角に相当する直線である。
第1領域901は、自車幅Wcに等しい横幅を有する警報領域904と、その左右に自車幅Wcの半分の横幅Wc/2を有する注意領域905とからなり、これら警報領域904と注意領域905は、それぞれ図4に示す領域設定のフローチャートにしたがって設定される。低速側の第1領域901は、前後方向の長さがY≦20mもしくはY≦D/2に設定され、高速側の第1領域901は、前後方向の長さが20m<Y≦40mもしくはD/2<Y≦Dに設定される。
そして、低速側の第2領域906は、前後方向の長さがY≦20mもしくはY≦D/2に設定され、横幅がカメラ視野角903、903との間とされる。そして、高速側の第2領域906は、前後方向の長さが20m<Y≦40mもしくはD/2<Y≦Dに設定され、横幅は、画像処理負荷を低減するために一定の領域幅とされる。
図10に示す第1領域901の警報領域904及び注意領域905、第2領域902の低速用第2領域906及び高速用第2領域907は、図9の各領域に対応しており、処理領域設定部30で設定した各領域を、カメラ画像を映す所定のモニタ画面911に出力表示している。
なお、所定のモニタ画面911としては、自車に搭載するナビゲーション装置のモニタ画面の他に、インスツルメントパネル、ヘッドアップディスプレイでもよく、また、カメラ画像は前記モニタに表示しなくてもよい。
次に、図11を用いて移動物体の1つである歩行者を検知する場合の実施例について説明する。図11は、自車が道路1013上にいる場合に、自車の前方を右から左へ横断する歩行者1018を検知する場合の実施例を説明する図である。
図11は所定のモニタ画面1011に、カメラセンサ2で撮影したカメラ画像(歩行者1018、道路1013、背景など)と、処理領域設定部30で設定した第1領域1001(警報領域1004、注意領域1005)と、第2領域1002(低速側第2領域1006、高速側第2領域1007)を出力表示しており、これらの画像処理領域に進入した歩行者1018を検知する様子を示している。
例えば、図11に示すように、歩行者1018が第2領域1006に進入すると(図11では歩行者1018a)、第2の物体検知部107により、歩行者1018のオプティカルフロー1009が演算され、歩行者1018の相対速度ベクトル及び相対距離などが算出される。
そして、歩行者1018が第2領域1006から注意領域1005に進入すると(図11では歩行者1018b)、第1の物体検知部106によって、切り取り画像1010が切り出されてパターンマッチング処理が実行され、移動物体が歩行者1018であると識別される。
そして、歩行者1018が、警報領域1004を通過し、左側の注意領域1005を越えるまで(図11では歩行者1018c)、パターンマッチング処理が実行される。そして、歩行者1018が左側の第2領域1006に入ると(図11では歩行者1018d)、パターンマッチング処理を終了し、歩行者1018のオプティカルフロー1009が演算される。
以上説明したように、自車進路の左右の第2領域1002では移動物体のオプティカルフローを演算して前記移動物体の動きを検知し、自車正面の第1領域1001ではパターンマッチングにより移動物体を識別する。
ここで、パターンマッチングは、検知対象とする移動物体から抽出した特徴を複数個組み合わせて作成したテンプレートを予め記憶しておき、そのテンプレートを用いてカメラセンサで撮影した移動物体を照合することにより、その移動物体を識別する方法である。
そのため、全領域の画像処理をパターンマッチングで実行した場合、画面上の全ての移動物体を識別するためにテンプレートとのマッチング処理が行われることとなり、画像処理負荷が大きくなる。
一方、オプティカルフローは移動物体の動きを検知するだけであり、「その物体が何であるか」という識別を行う必要がないことから、比較的処理負荷が小さい。従って、全領域の画像処理をパターンマッチングで実行する場合と比較して、オプティカルフローを適用する本装置は画像処理負荷を低減することができ、警報等の制御を迅速且つ正確に行うことができる。
[第2実施の形態]
次に、第2実施の形態について以下に説明する。図12は、第2実施の形態における外界認識装置10の構成を説明するブロック図である。尚、第1実施の形態と同様の構成要素には、同一の符号を付することでその詳細な説明を省略する。
本実施の形態において特徴的なことは、外界認識センサ1として、カメラセンサ2に加えてレーダセンサ3を設けたことである。
レーダセンサ3は、カメラセンサ2と同様に車両前部に取り付けられており、自車前方の移動物体を検知することができる。レーダセンサ3は、レーザー光を使用するレーザレーダの他に、ミリ波を使用するミリ波レーダや赤外線を使用する赤外線レーダでもよい。
外界認識装置10には、レーダ検知情報取得部111が設けられている。レーダ検知情報取得部111は、レーダセンサ3で検知した移動物体と自車との相対速度ベクトル、相対距離(相対位置)、及び移動物体の幅などの情報を取得し、処理領域設定部30の第2領域設定部105に出力する。
次に、オプティカルフローで検知した移動物体の速度ベクトルを利用して、レーダセンサ3で検知した移動物体の横速度を補正する場合の実施例について図13を用いて説明する。
図13は、レーダ3を用いて自車前方を左から右へ移動する移動物体(歩行者とする)を検知した場合に、レーダ3の検知結果に基づき演算した歩行者の横位置X[m]に対する横速度VX[m/s]の変化をプロットしたグラフである。
図13では、横軸が左右の位置X[m]、縦軸が歩行者の横速度VX[m/s]とされる。そして、X=±0[m]が自車の中心位置であり、破線枠1203(BからCの間の範囲)は、図9で示した第1領域901の横幅に対応している。
図13(a)の点線1204は歩行者の実際の横速度VXを示すものであり、実線1202は、自車前方を左から右に向かって移動する歩行者を地点Aにてレーダセンサ3で検出して以降のレーダ検知結果に基づいて演算された横速度VXを示すものである。実線1202で示される横速度VXは、レーダセンサ3で検知した歩行者の相対位置(距離)を微分して算出され、その際、算出結果のバラつきを防ぐためにフィルタ処理も行われる。
フィルタ処理は、演算時の数値のバラつきをなくし、実線1202で示されるように、横速度の立ち上がりが滑らかな曲線になる一方で、演算処理の時間が増加する。従って、図13(a)に示すように、実線1202で示される演算上の横速度VXが、点線1204で示される実際の横速度VXと等しくなるまでに時間がかかり、遅れを生じる。
横速度VXを演算している間にも実際の歩行者は右へ進むため、歩行者が第1領域に進入した時点(地点B:相対位置は直接測定しているため遅れがない)で、演算上での横速度VX(実線1202)は、実際の横速度VX(点線1204)に比べて値が小さく、その結果、検知遅れや未検知(第1領域内で検知しない)の原因となる可能性がある。
そこで、カメラセンサ2の画像情報を用いて図9に示すような第2領域において、歩行者のオプティカルフローを演算し、歩行者の速度ベクトルを算出する。オプティカルフローに基づいて算出した歩行者の横速度をレーダ検知に基づいて演算する横速度(実線1202)の補正値もしくは初期値とし、図13(b)に示すように点Pから点P’へと横速度VXを補正することにより、歩行者が第1領域に進入する前に、演算する横速度VX(実線1202)を実際の横速度(点線1204)に対応させることが可能となる。
このように、第2領域でオプティカルフローに基づいて算出した移動物体の横速度を初期値もしくは補正値として用いることにより、第1領域内での検知遅れおよび未検知を防ぐことができる。
[第3実施の形態]
次に、第3実施の形態について以下に説明する。図14は、第3実施の形態における外界認識装置10の構成を説明するブロック図である。尚、第1及び第2実施の形態と同様の構成要素には、同一の符号を付することでその詳細な説明を省略する。
本実施の形態において特徴的なことは、ナビゲーション装置4から外界認識装置10に道路情報及び自車位置情報を提供される構成としたことである。ナビゲーション装置4は、地図情報を有しており、また、GPSや車速Vなどの車両情報に基づく自車位置情報を有している。地図情報には、自車が走行する道路の情報(道路情報:道路幅、車線数、制限速度、交差点や横断歩道の位置)が含まれている。地図情報は、コンピュータが読み取り可能なCD−ROM,DVD−ROM,ハードディスク等の記憶媒体に記憶されているが、所定の情報センタから通信手段により入手しても良い。
上記構成によれば、ナビゲーション装置4から道路情報や自車位置情報を取得できるので、第2領域設定部において、第2領域を道路の大きさや、横断歩道の形状等に一致させるように設定することができる。従って、第2領域においてオプティカルフローの演算に基づいて移動物体の動きを算出する場合に、その処理負荷及び処理時間を低減し、精度良く移動物体を検知することが可能である。
尚、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、上述の各実施の形態では、第2領域を第1領域の左右外側に設定した場合を例に説明したが、第2領域を第1領域の左右のいずれか一方に設定してもよい。
第1実施の形態における外界認識装置の構成を説明するブロック図。 自車の予測進路を演算する処理の内容を示すフローチャート。 処理領域設定部の処理内容を示すフローチャート。 第1領域設定部の処理内容を示すフローチャート。 第2領域設定部の処理内容を示すフローチャート。 物体検知部の処理内容を示すフローチャート。 第1の物体検知部の処理内容を示すフローチャート。 第2の物体検知部の処理内容を示すフローチャート。 第1領域と第2領域をXY座標(世界座標)にプロットした図。 モニタ画面に自車の前方画像と各画像処理領域を表示した場合の模式図。 自車の前方を横断する歩行者を検知する場合の実施例を説明する図。 第2実施の形態における外界認識装置の構成を説明するブロック図。 自車前方を横断する歩行者の実際の速度と、レーダの検知結果に基づき演算した速度の変化を示すグラフ。 第3実施の形態における外界認識装置の構成を説明するブロック図。
符号の説明
1 外界認識センサ
2 カメラセンサ
3 レーダセンサ
4 カーナビゲーション装置
10 外界認識装置
20 自車進路演算部
30 処理領域設定部
40 物体検知部
101 画像情報取得部
102 車両挙動情報取得部
103 進路演算部
104 第1領域設定部
105 第2領域設定部
106 第1の物体検知部
107 第2の物体検知部
108 警報部
901、1001 第1領域
902、1002 第2領域
904、1004 警報領域
905、1005 注意領域
906、1006 低速側第2領域
907、1007 高速側第2領域

Claims (6)

  1. 単眼カメラセンサ及びレーダセンサもしくはステレオカメラによって自車前方の歩行者を検知する自動車の外界認識装置であって、
    前記単眼カメラセンサ又は前記ステレオカメラで撮像した自車前方の画像情報を取得する画像情報取得部と、
    前記レーダセンサもしくは前記ステレオカメラの検知距離及び前記単眼カメラセンサの視野角の情報を取得するセンサ情報取得部と、
    前記検知距離の情報に基づいて自車の正面に設定され、前記自車前方の歩行者を検知するための第1領域と、前記視野角の情報に基づいて前記第1領域の左右の少なくとも一方に設定され、前記第1領域の外側の歩行者を検知するための第2領域と、を設定する処理領域設定部と、
    該処理領域設定部により設定された前記第2領域内の画像に対して前記歩行者に対するオプティカルフローを算出して歩行者を検知し、前記歩行者の相対距離及び相対速度ベクトルを算出する第2物体検知部と、該第2物体検知部により算出された相対距離及び相対速度ベクトルに基づいて検知された前記歩行者が前記第1領域内に進入したか否かを判定し、進入したと判定された場合、前記第1領域内の画像に対してパターンマッチングの画像処理を実行し、前記第1領域内の前記歩行者を認識する第1物体検知部と、を有する物体検知部と、
    を有することを特徴とする自動車の外界認識装置。
  2. 前記第1物体検知部は、前記第1領域内の前記歩行者に対して、前記歩行者を含む所定の範囲の画像を切り出し、予め記憶しておいた複数の物体形状パターンと前記歩行者を含む所定の範囲の画像とを比較し、前記歩行者が前記物体形状パターンのうち少なくとも1つ以上の形状パターンと近似している場合に、前記第1領域内に歩行者が存在すると認識することを特徴とする請求項1に記載の自動車の外界認識装置。
  3. 前記第2物体検知部は、前記第2領域内の前記歩行者に対して、前記歩行者を検知した検知時刻における前記歩行者を含む画像と、当該検知時刻より所定の時間前の時刻における前記歩行者を含む画像とを比較し、当該2つの画像に共通する前記歩行者の特徴部の移動から、前記歩行者の有無を認識することを特徴とする請求項1または請求項2に記載の自動車の外界認識装置。
  4. 前記処理領域設定部は、自車の車速に応じて前記第1領域または前記第2領域の少なくとも一方を自車の進行方向に拡大または収縮させることを特徴とする請求項1に記載の自動車の外界認識装置。
  5. 自車の操舵角と車速に基づいて自車の予測進路を演算する自車進路演算部を備え、
    前記処理領域設定部は、前記予測進路と自車幅に基づいて前記第1領域を設定する第1領域設定部と、前記第1領域と前記単眼カメラセンサ又は前記ステレオカメラの視野角に基づいて前記第2領域を設定する第2領域設定部と、を有することを特徴とする請求項4に記載の自動車の外界認識装置。
  6. 前記第1領域内に前記歩行者を認識した場合に、前記自車と前記歩行者が衝突する可能性があることを運転者に報知する警報部を備え、
    前記警報部は、前記第1領域内で前記歩行者を認識した場合に、前記自車と前記歩行者との相対距離および相対速度から演算する衝突時間TTCに応じて、音声あるいはビープ音のうち少なくとも1つ以上を利用して前記第1領域に前記歩行者が存在することを前記運転者に報知することを特徴とする請求項1から請求項5のいずれか一つに記載の自動車の外界認識装置。
JP2008262600A 2008-10-09 2008-10-09 自動車の外界認識装置 Expired - Fee Related JP5410730B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008262600A JP5410730B2 (ja) 2008-10-09 2008-10-09 自動車の外界認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008262600A JP5410730B2 (ja) 2008-10-09 2008-10-09 自動車の外界認識装置

Publications (2)

Publication Number Publication Date
JP2010093610A JP2010093610A (ja) 2010-04-22
JP5410730B2 true JP5410730B2 (ja) 2014-02-05

Family

ID=42255899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008262600A Expired - Fee Related JP5410730B2 (ja) 2008-10-09 2008-10-09 自動車の外界認識装置

Country Status (1)

Country Link
JP (1) JP5410730B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379543B2 (ja) * 2009-04-09 2013-12-25 日立オートモティブシステムズ株式会社 自動車の外界認識装置
JP5259647B2 (ja) * 2010-05-27 2013-08-07 本田技研工業株式会社 車両の周辺監視装置
JP5746695B2 (ja) * 2010-06-29 2015-07-08 本田技研工業株式会社 車両の進行路推定装置
JP5445719B2 (ja) * 2011-09-29 2014-03-19 トヨタ自動車株式会社 画像表示装置及び画像表示方法
US9393908B2 (en) 2011-11-01 2016-07-19 Aisin Seiki Kabushiki Kaisha Obstacle alarm device
WO2013065120A1 (ja) * 2011-11-01 2013-05-10 アイシン精機株式会社 障害物警報装置
US10068142B2 (en) * 2013-04-03 2018-09-04 Toyota Jidosha Kabushiki Kaisha Detection apparatus, detection method, driving assistance apparatus, and driving assistance method
CN105579289B (zh) * 2013-08-19 2018-01-19 金泰克斯公司 具有自身运动检测的成像系统和方法
JP6083368B2 (ja) * 2013-11-19 2017-02-22 株式会社デンソー 物標認識装置
JP6439913B2 (ja) * 2014-08-29 2018-12-19 株式会社富士通ゼネラル 移動体検出装置
JP6425014B2 (ja) * 2014-08-29 2018-11-21 株式会社富士通ゼネラル 移動体検出装置
JP6281460B2 (ja) * 2014-09-24 2018-02-21 株式会社デンソー 物体検出装置
JP6432447B2 (ja) * 2015-05-27 2018-12-05 株式会社デンソー 車両制御装置、及び車両制御方法
JP6451619B2 (ja) * 2015-12-17 2019-01-16 株式会社デンソー 物体検出装置
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
JP7047418B2 (ja) 2018-01-31 2022-04-05 富士通株式会社 判定プログラム、判定方法および判定装置
US11975731B2 (en) 2019-05-31 2024-05-07 Murakami Corporation Driving assistance system, driving assistance method, and program
CN112312068B (zh) * 2019-07-31 2022-04-15 杭州海康威视数字技术股份有限公司 目标检测方法、装置、设备及存储介质
JP2023022415A (ja) 2021-08-03 2023-02-15 株式会社Subaru 物体認識装置、コンピュータプログラム及び記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452268B2 (ja) * 1993-08-06 2003-09-29 矢崎総業株式会社 車両用後側方監視方法
JP4694441B2 (ja) * 2006-08-09 2011-06-08 本田技研工業株式会社 車両周辺監視システム
JP4869835B2 (ja) * 2006-08-24 2012-02-08 本田技研工業株式会社 車両周辺監視システム
JP4258539B2 (ja) * 2006-08-31 2009-04-30 株式会社日立製作所 複数画角カメラ

Also Published As

Publication number Publication date
JP2010093610A (ja) 2010-04-22

Similar Documents

Publication Publication Date Title
JP5410730B2 (ja) 自動車の外界認識装置
KR101996419B1 (ko) 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법
CN106945669B (zh) 在交通十字路口处确定驾驶员意图以避免汽车碰撞
US8190355B2 (en) Driving assistance and monitoring
JP4775391B2 (ja) 障害物検出装置
JP5004865B2 (ja) 自動車用障害物検知装置
US9074906B2 (en) Road shape recognition device
JP4420011B2 (ja) 物体検知装置
JP5379543B2 (ja) 自動車の外界認識装置
CN109841088B (zh) 车辆驾驶辅助系统及方法
JP5454695B2 (ja) 危険度算出装置
JP5094658B2 (ja) 走行環境認識装置
JP6269606B2 (ja) 車両制御装置
JP5938569B2 (ja) 方位情報を考慮する高度運転者支援システム、及びその動作方法
JP4722777B2 (ja) 障害物認識判定装置
EP1564703B1 (en) Vehicle driving assist system
US7480570B2 (en) Feature target selection for countermeasure performance within a vehicle
JP6254690B2 (ja) 自動車のための運転者アシストシステムで真の障害物と見かけの障害物との間の区別をする方法
US20150298621A1 (en) Object detection apparatus and driving assistance apparatus
CN107444406A (zh) 车辆辅助驾驶系统及方法
JP2010030513A (ja) 車両の運転支援装置
EP3190021A1 (en) System and method for collision warning
JP4948338B2 (ja) 車間距離計測装置
JP4116643B2 (ja) 車両周囲の少なくとも1つの物体を分類する装置
JP2020134981A (ja) 運転支援装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130625

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131107

R150 Certificate of patent or registration of utility model

Ref document number: 5410730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees