JP2004153627A - 車両用外界認識装置 - Google Patents
車両用外界認識装置 Download PDFInfo
- Publication number
- JP2004153627A JP2004153627A JP2002317474A JP2002317474A JP2004153627A JP 2004153627 A JP2004153627 A JP 2004153627A JP 2002317474 A JP2002317474 A JP 2002317474A JP 2002317474 A JP2002317474 A JP 2002317474A JP 2004153627 A JP2004153627 A JP 2004153627A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image processing
- distance measuring
- output
- recognition device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Input (AREA)
- Closed-Circuit Television Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
【解決手段】自車周辺の物体を検知して、自車と検知した物体との相対位置を出力するスキャニング式測距手段と、自車周辺の状況を撮像する撮像手段と、前記スキャニング式測距手段を用いて前記撮像手段の撮像結果から画像処理を行う画像処理手段とを備えた車両用外界認識装置において、前記スキャニング式測距手段の出力に基づき各物体の測距状況を把握する測距状況把握手段と、該測距状況把握手段の出力に応じて前記画像処理手段の処理を変更する画像処理変更手段とを設けた。
【選択図】 図3
Description
【発明の属する技術分野】
本発明は、レーザなどの電磁波を用いてスキャニングすることにより、物体との相対位置を検知する装置と、カメラ等の撮像結果から画像処理を行う装置とをフュージョンする技術に関する。
【0002】
【従来の技術】
レーザの照射範囲を複数の検知エリアに区切り、各検知エリアの受信強度から物体の存在を判定する物体検知装置が提案されている(特許文献1参照)。この装置では、各検知エリアの受信強度の加算値と閾値との比較を行うため、物体との相対距離に関わらず確実に物体を検知することが可能となるものである。
【0003】
【特許文献1】
特開2000−28718号公報(第4〜6頁)
【0004】
【発明が解決しようとする課題】
しかしながら、上述の特許文献1に記載のような装置では、レーダからの電磁波を反射する反射物が、その全体で完全に電磁波を反射できないとき(物体の一部が検知範囲から外れる等により物体の本当の大きさに対する反射可能エリアが異なる場合)には、正しい相対横位置が検出できない場合が生じる。これについて図7〜図9を用いて説明する。時刻t0において停止車両の全体がレーダ視野角内に存在している。このとき、反射可能エリアを検知し、検知リフレクタ群の左端と右端の中心位置を車両の横位置として認識する。時刻t1において停止車両の一部がレーダ視野角外に出るため、図8の実線で示す位置に停止車両が位置し、右端側のみのリフレクタによって横位置を認識することになる。その後、時刻t2において車両全体が視野角外に出る。図9は物体検知装置が認識している停止車両の横位置と物体の幅(車幅)との関係を表すタイムチャートである。図9の横位置のタイムチャートに示すように、一方のリフレクタのみによって車両を認識すると車幅が大きく変化する。これにより、実際の横位置に対してレーダ出力の相対横位置との間に段差が生じる。
【0005】
ところで、レーダで検知した物体Aを単眼カメラ画像からも冗長的に検知するフュージョンシステム(ピッチング変動などでのレーダの一時的なロストに備え、レーダと同一の物体Aを単眼の画像で捕捉するシステム)では、画像単体での外界認識と比べて、処理時間の短縮や信頼性の向上を実現するものである。例として、フュージョンシステムによる代表的な処理シーケンスを図10に示す。処理1において、物体を発見すると、処理2において、レーダで検知した位置結果に基づき、撮像結果から注目領域を決める。そして、処理3において、単眼の画像から所定の特徴をもった領域Ωを抽出し、その単眼画像における領域Ωが如何ほどの距離を有するものであるかのキャリブレーションを行う。その後、処理4において、画像だけを用いてトラッキングする処理(パターンマッチングやエッジ検出など)により物体Aを追跡し、追跡結果とキャリブレーション結果に基づき物体Aの位置を算出する。
【0006】
一般に、カメラによる物体検知はレーダの物体検知より信頼性が低い。そこで、確実性を増すため、{レーダ検知位置と画像処理による検知位置とを比較して、その差が小さいときが所定期間τ以上連続した場合=これを処理εとする}から、現在の走行状況におけるカメラ画像処理は信頼性が高いかどうかを判断する処理5を行う。
【0007】
画像で物体をトラッキングする際、トラッキング期間が長くなると、物体を画像から正しく検知・追跡できなくなることがある。これは、トラッキング中に、ターゲットとする物体に背景などが入ってしまうことが原因となる。このため、レーダと画像で捕らえているものが同じ物体であるか否かの判断は、定常的に行うことが一般的である。これにより、レーダと画像の双方が別々の動きを行った場合に、どっちを信じて良いか分からなくなるという問題を回避している。特に、割り込み車両などの急な出現を除けば、単眼カメラでレーダ検知物をトラッキングする時間が長いため、上記の処理εにより、画像での検知結果の信頼性の高さを定常的に判断する。
【0008】
そして、処理6において、信頼性が低いと判断されたときには、処理1から再度実行する初期画像処理状態(再度カメラ画像の特徴領域Ωをレーダ検知位置に基づき決め、画像とレーダとのキャリブレーションを行う処理)に戻す。
逆に信頼性が高いと判断されたときには、画像処理だけで物体位置のトラッキングを継続し、信頼性の低い場合とはタイミングや大きさの異なる制動や警報を行う。
【0009】
このようなフュージョンシステムにおいて、図7〜9のようなレーダ位置変化が生じた場合には、レーダ検知位置と画像検知位置の差が大きいと判断され、次の問題が発生する。
・所定期間τ未満(信頼性が高くなる以前):信頼性が高くなるまでの期間がさらに遅くなる。
・所定期間τ以降(信頼性が高くなった後):キャリブレ状態(信頼性の低い初期状態)に戻される。
【0010】
本発明は、上述の課題に鑑み、レーダ視野角の左右端付近に検知したい物体が存在し、レーダが検知物体の横位置を誤検知する場合であっても、画像処理を継続することが可能な車両用外界認識装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記目的を達成するため、本願発明では、自車周辺の物体を検知して、自車と検知した物体との相対位置を出力するスキャニング式測距手段と、自車周辺の状況を撮像する撮像手段と、前記スキャニング式測距手段を用いて前記撮像手段の撮像結果から画像処理を行う画像処理手段と、を備えた車両用外界認識装置において、前記スキャニング式測距手段の出力に基づき各物体の測距状況を把握する測距状況把握手段と、該測距状況把握手段の出力に応じて前記画像処理手段の処理を変更する画像処理変更手段とを設けたことで、上記課題を解決するに至った。
【0012】
【発明の効果】
本願発明にあっては、スキャニングにより検知した各物体について、その検知状況を把握する。そして、検知状況の把握結果から、画像処理の変更の必要性に応じて、画像の処理内容を一時的に変更する。つまり、レーダ検知位置に段差が生じ、本来の物体位置と画像処理による検知位置との差異が生じても、画像による物体トラッキングに支障をきたすことなく、物体を正確に検知することができる。
【0013】
【発明の実施の形態】
以下、本発明における車両用外界認識装置の実施形態について実施例をもとに説明するが、本発明は実施例に限定されるものではない。
【0014】
(第1実施例)
図1は、この発明の第1実施例を示す図である。まず構成を説明すると、車両の先頭にはスキャニング式のレーザレーダ1が設けられている。このレーザレーダ1には、走査した結果から障害物候補を抽出するレーダ処理装置2が接続され、このレーダ処理装置2では一つ又は複数の障害物候補に対して自車両を原点とする2次元(車間距離方向と車幅方向)座標値の算出と、障害物候補の幅(大きさ)の算出が実施される。
【0015】
また、自車前方の状況を高速に把握するプログレッシブスキャン式の3CCDカメラ3が搭載されている。この3CCDカメラ3の撮像結果が画像処理装置4に接続されている。この画像処理装置4ではレーダ処理装置2で捕捉した障害物候補の座標付近の画像データを記憶し、自車両のピッチング変動等によりレーダ検知物体をロストした場合に、画像処理により物体を検知する処理が実施される。
【0016】
レーダ処理装置2の出力、および画像処理装置4の出力は外界認識装置5に接続されている。この外界認識装置5には、自車両の状態量を推定するために従属左右車輪速度を検出する車速検出装置6と、前輪操舵角を検出する操舵角検出装置7が接続されている。
【0017】
上述のようなハード構成から、本発明の測距状況把握手段と後段の処理(相対速度算出処理や障害物判断処理)変更手段等の演算処理が行われ、これにより高度な車両用の外界認識システムが実施される。
【0018】
外界認識装置5では、レーダ処理装置で検知した各物体が自車両にとって障害物であるか否かを正確に判断し、その判断結果は自動ブレーキ制御装置8に出力される。そして、前後輪には任意な制動力を達成する負圧ブレーキブースタ9が接続され、自車両の自動ブレーキ制御8からの制動力指令電圧が負圧ブレーキブースタ9のソレノイドバルブに印加されることにより行われる。
【0019】
これらのレーダ処理装置2や自動ブレーキ制御装置8は、それぞれマイクロコンピュータとその周辺部品や各種アクチュエータの駆動回路などを備え、互いに通信回路を介して情報を送受信する。
【0020】
図2は、第1実施例における車両用外界認識装置の制御構成を表すブロック図である。まず構成を説明すると、図中の101は物体との相対位置を出力するスキャニング式測距手段、102は自車周辺状況を撮像する撮像手段、103はスキャニング式測距手段の測距結果に基づき撮像手段102の撮像結果におけるパターンマッチング処理を行う画像処理手段、104はスキャニング式測距手段101で検知した物体の測距状況を把握する測距状況把握手段、105は測距状況把握手段104の出力をトリガーとして画像処理手段103の画像処理を変更する画像処理変更手段である。
【0021】
図3は第1実施例における物体検知制御を表すフローチャートである。この実施例は、請求項1,3,4,5,7項に対応するものであり、自車前方の状況を把握するスキャニング式レーザレーダの走査結果(位置の変化や幅の変化)から、検知物体の測距状況を把握し、画像処理に関する処理内容を一時的に変更することで信頼性の高い画像処理を行う場合である。尚、本制御は100[ms]毎に実施されるものとする。
【0022】
ステップ201では、スキャニング式レーザレーダ1の検知した各物体の位置ベクトル(横方向:Px_z0, 縦方向Py_z0),および、物体の幅(大きさ:W_z0)を読み込む。更に、カメラ撮像結果も取り込む。なお、添え字のz0とは今回の値を、z1は1サンプリング(100ms)過去の値を、znはnサンプリング過去の値を、それぞれ意味する。
【0023】
ステップ202では、ステップ201で読み込んだ検知物体の縦位置と横位置から、次式(1)を算出する。
α = func1[ abs{ atan( Px_z0 / Py_z0 )} − K1 Th_R ] ・・・ (1)
ここで、func1(A)とは図4のような特性を有する関数であって、func1∈[0, 1]の範囲をとる。atan(A)とは、A(引数argumentの頭文字)の逆正接値を出力する関数であり、abs(A)とは、Aの絶対値を出力する関数である。K1は1未満の正数であり、Th_LとTh_Rはスキャニングレーザレーダの視野角における左右端の角度を表すものである。例えば、視野角12degのスキャニング式レーザレーダで自車の進行方向右側をプラスとした場合、自車正面を中心(ゼロdeg)として、Th_L = −6[deg],Th_R = +6[deg] となる。
【0024】
ステップ203では、ステップ201で読み込んだ検知物体の幅から、次式(2)を算出する。
β=func2{ W_z0 − Th_W } ・・・(2)
ここで、Th_Wとは、警報や制御する対象として扱う物体の幅から決まる閾値である。func2(A)とは図5のような特性を有する関数であって、func2∈[0, 1]の範囲をとる。
【0025】
ステップ204では、後述する初回画像処理終了フラグ:IP_Stateが次式(3)を満たしている場合(初回処理が終了の場合)にはステップ208へ、そうでない場合にはステップ205へ進む。
IP_State > 0 ・・・(3)
【0026】
ステップ205では、画像処理領域を、レーダの視野角外側方向に広げて透視変換を行い、画像処理する注目領域を決める。
disp_obj_YA = ( yo + ( focusV * CAM_h2 / Py_z0 ) )
disp_obj_YB = (yo+(focusV*CAM_h/Py_z0)) ・・・(4)
disp_obj_XL = (xo+(focusH/Py_z0*Px_z0))−(focusH*wide/Py_z0)
disp_obj_XR = (xo+(focusH/Py_z0*Px_z0))+(focusH*wide/Py_z0)
ここで、disp_obj_**とは画像処理を行う矩形領域の端っこの座標値であって、disp_obj_YAは矩形の上側、disp_obj_YBは矩形の下側、disp_obj_XLは矩形の左側、disp_obj_XRは矩形の右側の画像座標を表している。また、yoは消失点の縦座標[pix]を、xoは消失点の横座標[pix]を(yo,xoはカメラ取り付け位置と向きで決まるパラメータ)、focusVは画素換算したカメラの鉛直方向の焦点距離[pix]であり、focusH画素換算したカメラの水平方向の焦点距離[pix]であり、受光面が正方格子である場合にはfocusV=focusHである(focusVとfocusHはカメラ画角と受光素子の解像度で決まるパラメータ)。そして、CAM_hはカメラの取り付け高さ[m]で、CAM_h2はCAM_hから障害物候補として考慮すべき物体の高さ:obj_H[m]を減算した値であり、wideはレーザレーダの横方向位置の検知精度(標準偏差[m])と障害物として考慮すべき物体の最大値との和で決まる幅[m]の半分の値を画素換算した値[pix]である。
【0027】
ステップ206では、ステップ205の上式(4)で限定した注目領域に対して、次の要領で初回特徴検出処理を行う。
▲1▼注目領域の微分画像をsobelフィルターなどにより求める。ここで、sobelフィルターとは、ある画素に隣接する画素同士の輝度変化を求める演算である。
▲2▼求めた微分画像の輝度に関する平均値と分散値を用いて設定する閾値で2値化する。ここで、2値化とは、各画素の輝度(=ここでは微分画像の輝度)が閾値以下の弱い場合には黒色、閾値以上の強い場合には白色と、2色に離散化する処理である。
▲3▼2値化した画像の投影処理を行う。具体的には、輝度変化の強い白色の画素の数を画面の水平・垂直方向にそれぞれ加算するようにカウントする。すると、レーダ検知車両の左右端や上下端付近では、背景と車両の輝度変化が強いため、白色の画素が他の場所より多くカウントされることとなる。
▲4▼投影結果から、2値画像におけるレーダ検知車両の四隅に相当する領域は、他の領域より投影量が多いため、車両のエッジを検出する。本実施例では、車両の左右端に相当する1対の縦方向のエッジペアを検出し、画面内座標を求める。ここで、求めたエッジペアの画像上の位置(水平方向座標値)をそれぞれSideEdge_RとSideEdge_Lとする。
▲5▼レーダ検知車両の画像上の幅:EdgeWidth は投影処理により検出したエッジペアの間隔[pix]から求められる(EdgeWidth = SideEdge_R−SideEdge_L)。
▲6▼投影結果における、SideEdge_RとSideEdge_Lの間に横方向のエッジが存在するかを調べる。
▲7▼撮像結果の注目領域から、厳密な特徴(▲4▼の縦エッジペアと▲6▼の横エッジの組み合わせからなるH型のエッジ)を検出できた場合には、初回特徴検出処理を終了するためIP_State = 1に設定し、そうでない場合には、初回特徴検出処理が失敗=画像のロストを意味するようにSideEdge_R=0, SideEdge_L=0, EdgeWidth=0,IP_State = 0と設定する。
【0028】
ステップ207では、次式(5)〜(7)で、レーダ検知物の位置を画像からの位置[m]として算出して、ステップ213へ進む。
CamTate = Py_z0 ・・・(5)
CamYoko
= ((((SideEdge_R+SideEdge_L) / 2)−xo)*Py_z0) / focusH ・・・(6)
RealWidth = EdgeWidth * Py_z0 / focusH ・・・(7)
ここで、SideEdge_R=0, SideEdge_L=0の場合には、画像でのロストを意味する出力値としてCamTate とCamYokoを設定する。例えば、CamTate =CamYoko=256[m]とする。また、レーダと画像との照合時間を表すカウンタ:LR_IP_Cntをゼロにクリアする。
【0029】
ステップ208では、注目領域に対して次の要領で特徴追跡処理を行う。
▲1▼注目領域の微分画像をsobelフィルターなどにより求める。具体的には、撮像結果の全体から微分画像を求めても良いし、前回のサンプリングにおけるSideEdge_RとSideEdge_Lが含まれる領域より少し広めの領域だけに絞って微分画像を求めても良い。
▲2▼求めた微分画像の輝度に関する平均値と分散値を用いて設定する閾値で2値化する。
▲3▼2値化した画像から、前回のサンプリングで求めたSideEdge_RとSideEdge_L付近だけの2つ小領域を求める。
▲4▼2つの小領域のそれぞれに対して、投影処理を行う。
▲5▼2つの投影処理結果から、最も多くカウントされる(長い)エッジを、それぞれの小領域から1つずつ求める。ここで求めた2つの縦エッジを、今回のサンプリングにおけるSideEdge_RとSideEdge_Lとする。
▲6▼レーダ検知車両の画像上の幅:EdgeWidth をエッジペアの間隔[pix]から求める。
▲7▼撮像結果の注目領域から、簡素化した特徴(▲5▼の縦エッジペア)を検出できた場合には、特徴追跡処理の成功を意味するIP_State = 1に設定し、そうでない場合には、特徴追跡処理が失敗=画像のロストを意味するようにSideEdge_R=0, SideEdge_L=0, EdgeWidth=0, IP_State = 0と設定する。
【0030】
ステップ209では、次式(8)〜(10)で、レーダ検知物の位置を画像からの位置として算出する。
CamTate = (focusV * RealWidth) / (EdgeWidth) ・・・(8)
CamYoko
= ((((SideEdge_R+SideEdge_L) / 2)−xo)*CamTate)/focusH ・・・(9)
RealWidth = EdgeWidth * CamTate / focusH ・・・(10)
ここで、SideEdge_R=0, SideEdge_L=0の場合には、画像でのロストを意味する出力値としてCamTate とCamYokoを設定する。例えば、CamTate =CamYoko=256[m]とする。
【0031】
ステップ210では、ステップ202とステップ203で求めたαとβが、次式(11)を満足すればステップ212へ、そうでなければステップ211へ、それぞれ進む。
α+β > Th_Crit1 ・・・(11)
ここで、Th_Crit1とは画像における一時的な処理変更を実施する頻度に関する正の閾値であり、2未満の数値をとる。すなわち、初回画像処理が終了し、その後、検知物体がレーダ視野角の左右端に存在する度合いが高い場合には、レーダ検知位置との照合を行わず、画像検知位置を重視することで、画像による物体トラッキングを実施中の場合でも、誤った判断により、初期画像処理状態に戻されることが無く、トラッキングを継続することができる(請求項5に対応)。
【0032】
ステップ211では、ステップ201で読み込んだレーダ検知位置とステップ207もしくは209で算出した画像での検知位置とを次式(12)から比較して、照合時間を表すカウンタ:LR_IP_Cntを変更する。
if ( abs(CamTate−Py_z0) + abs(CamYoko−Px_z0) > Th_D ) LR_IP_Cnt = LR_IP_Cnt+1
else IP_State = 0, LR_IP_Cnt = 0 ・・・(12)
ここで、if (expression) statement1 else statement2 とは、expressionを満たす場合にstatement1 を実施し、expressionを満たさない場合にはstatement2 を実施する関数である。また、Th_Dとはレーダと画像との位置ズレの許容範囲を意味する正の閾値[m]である。
【0033】
ステップ212では、画像処理の信頼性を把握する。次式(13)を満足すればステップ213へ、そうでない場合にはステップ214へ、それぞれ進む。
LR_IP_Cnt < Th_Cnt ・・・(13)
ここで、Th_Cntは動作サンプリング周期で決まる正の整数の閾値であり、この閾値以下の場合には画像の信頼性が低いものとする。
【0034】
ステップ213では、後段へ出力する画像とレーダとの統合位置を出力する際、画像の信頼性が低いためレーダ検知位置を重視し、次式として設定してステップ217へ進む。
integratedPx = Px_z0 ・・・(14)
integratedPy = Py_z0 ・・・(15)
【0035】
ステップ214では、後段へ出力する画像とレーダとの統合位置を求める。
ここで、統合して求められた横位置をintegratedPx、縦位置をintegratedPyとする。
【0036】
ステップ215では、次式(16)によるレーダの検知状況から、画像での検知結果を重視するか否かを判断する。式(16)を満足する場合にはステップ216へ、そうでない場合にはステップ217へ、それぞれ進む。
α+β > Th_Crit2 ・・・(16)
ここで、Th_Crit2とは、レーダ検知位置の精度が悪くなることを判断するための正の閾値であり、2未満の数値をとる。すなわち、検知物体がレーダ視野角の左右端に存在するときは、レーダ検知位置の精度が悪い虞があるためである。
【0037】
ステップ216では、後段へ出力する画像とレーダとの統合位置において、画像処理の位置を重視するように、次式による統合位置の修正を行う。
integratedPx = CamTate ・・・(17)
integratedPy = CamYoko ・・・(18)
すなわち、画像とレーダとの位置を統合する際に、レーダ視野角の左右端に検知物体が存在するときは、図9に示すように横位置に段差が発生する場合があり、レーダが物体を誤検知する場合がある。よって、画像処理からの物体検知位置を重視することで、検知位置と画像検知位置の差が大きい場合であっても、画像による物体トラッキングを実施中の場合でも、誤った判断により、初期画像処理状態に戻されることが無く、トラッキングを継続することができる。尚、第1実施例では、画像処理の位置のみを用いたが、レーダによる検知位置に第1確信度を乗じ、画像処理による検知位置に第2確信度を乗じ、各確信度を乗じた検知位置を統合する構成としても良い。このとき、第2確信度を大きくするよう変更することで統合位置を求めても良い(請求項7に対応)。
【0038】
ステップ217では、レーダ検知位置と画像からの検知位置を統合した位置を後段へ出力し、過去値の更新を行い、終了する。
【0039】
次に、上記画像処理制御について図7〜図9を用いて状況別に説明する。
(前方に停止車両が存在し、その車両がレーダ視野角の左右端に存在するとき)
前方に停止車両が存在するとき(時刻t0〜t1)は、ステップ201→ステップ202→ステップ203→ステップ204→ステップ205→ステップ206→ステップ207→ステップ212へと進み、画像検知位置の信頼性を確認する。そして、画像検知位置の信頼性が高いときは、ステップ214→ステップ215→ステップ217へと進み、レーダ検知位置と画像検知位置を統合して統合位置を出力するとともに、過去値を更新する。画像検知の信頼性が低いときは、ステップ213へ進み、統合位置としてレーダ検知位置を出力する。一旦初回画像処理が終了すると、その後は、ステップ204→ステップ208→ステップ209→ステップ210→ステップ211へと進み、画像のトラッキングを継続しつつレーダ検知位置と照合することで、画像の信頼性を確認しつつ検知物体の位置を出力する。
【0040】
(前方に停止車両が存在し、その車両がレーダ視野角の左右端から更にレーダ視野角外に出て行く状態)
前方に停止車両が存在し、その車両がレーダ視野角の左右端から更に自車から離れる側に移動したとき(時刻t1〜t2)は、ステップ201→ステップ202→ステップ203→ステップ204→ステップ208→ステップ209→ステップ210→ステップ210へと進む。すなわち、検知物体がレーダ視野角の左右端に存在するときは検知物体の幅が小さいが、徐々に自車から離れる側に移動しレーダ視野角外に出ると、右側のみのリフレクタを認識するため検知物体の幅が急激に小さくなる(図7〜9参照)。このときは、レーダ検知位置の誤差が大きいにも関わらず、画像検知位置とのずれが大きくなるため、画像処理の信頼性が低いと判断し、再度信頼性の低い初期状態に戻されてしまうという問題や、信頼性が高くなるまでの期間が遅くなるという問題がある。そこで、検知車両がレーダ視野角の左右端に存在するときは、レーダ検知位置と画像検知位置との照合を行わないことで、画像処理の信頼性が低いと認識することがなく、画像による物体トラッキングに支障をきたすことがない。
【0041】
以上説明したように、第1実施例にあっては、画像処理で長期トラッキング中には、そのトラッキング状態の良否の判断としてレーダとの差異を把握する処理において、レーダ検知位置に段差や誤差が生じそうな場合では、レーダと画像との位置照合での画像失敗判断を行わない。さらに、レーダと画像との位置を統合する際には画像を重視する。このように、画像処理を一時的に変更することにより、レーダの検知精度が悪いときに誤って画像側にミスがあるものと勘違いすることがなくなるため、画像によるトラッキング性能が向上することや、後段での障害物判断処理の正確さを向上することができる。
【0042】
(第2実施例)
次に第2実施例について説明する。基本的なハード構成は第1実施例と同様であるため、異なる点についてのみ説明する。この第2実施例は、請求項1,2,3,6項に対応するものであり、第1の実施例はレーザレーダ視野角付近では画像処理の失敗判断を行わずに画像検知位置を重視するものであるが、第2実施例では、レーダ横位置段差に対して画像処理で用いる横位置を一時的に補正するように変更することにより、より正確なフュージョン処理を行う場合である。
【0043】
図4は第2実施例における相対速度算出制御及び障害物判断制御を表すフローチャートである。本実施例も100ms毎に実施され、ステップ301は第1実施例のステップ201と同様なので省略する。
【0044】
ステップ302は、ステップ202と同様であるが、次式(19)を満足する場合には305へ、そうでない場合には303へ進む。
K1 Th_L < atan( Px_z0 / Py_z0 ) < K1 Th_R ・・・ (19)
ここで、式19を満足しない場合には検知物はレーダ視野角の左右端付近に存在する微妙な測距状態であることが分かる(請求項2に対応)。
【0045】
ステップ303では、ステップ201で読み込んだ検知物体の横位置とその過去値が、次式(20)を満足する場合にはステップ304へ、そうでない場合にはステップ306へ進む。
abs(Px_z0 − Px_z1) > Th_Px ・・・(20)
ここで、Th_Pxとは横位置の変化に関する正の閾値であり、通常は障害物とする物体の大きさよりも小さい値とする。すなわち、式20を満足すれば、検知位置の急激な変化を意味しており、車両のリフレクタの一方がレーダ視野角外に出ることで変化したことが分かる(請求項3に対応)。
【0046】
ステップ304では、後に用いる物体横位置の補正量を算出する。
cmpPx = Px_z0 − Px_z1 ・・・(21)
【0047】
ステップ305では、後に用いる物体横位置の補正量をリセットする。
cmpPx = 0 ・・・(22)
【0048】
ステップ306では、第1実施例におけるステップ204と同様なので省略する。
【0049】
ステップ307では、第1実施例におけるステップ205と同様であるが、上式(21)、(22)の補正を考慮して式(23)から、注目領域を算出する。disp_obj_YA=( yo + ( focusV * CAM_h2 / Py_z0 ) )
disp_obj_YB=(yo+(focusV*CAM_h/Py_z0)) ・・・(23)
disp_obj_XL=(xo+(focusH/Py_z0*(Px_z0−cmpPx)))−(focusH*wide/Py_z0)
disp_obj_XR=(xo+(focusH/Py_z0*(Px_z0−cmpPx)))+(focusH*wide/Py_z0)
このように、レーダの検知位置を補正し、この補正した値に基づいて画像の注目領域を決定することで、画像処理による物体トラッキング性能が向上する(請求項6に相当)。
【0050】
ステップ308からステップ311は、第1実施例におけるステップ206からステップ209と同様なので省略する。
【0051】
ステップ312は、第1実施例におけるステップ211と同様であるが、式(21)、(22)の補正を考慮して次式(24)のように、レーダと画像の位置を比較する。
if ( abs(CamTate−Py_z0) + abs(CamYoko−(Px_z0−cmpPx)) > Th_D ) LR_IP_Cnt = LR_IP_Cnt+1
else IP_State = 0, LR_IP_Cnt = 0 ・・・(24)
このように、補正したレーダ検知位置と画像検知位置との照合を行うことで、画像処理の信頼性が高いにも関わらずレーダ検知位置と画像検知位置が大きくずれることが無い。尚、レーダ検知位置の横位置を急変前の値として保持し、レーダ検知位置の縦位置のみ更新し、このレーダ検知位置と画像検知位置とを照合しても良い(請求項6に相当)。
【0052】
ステップ313は、第1実施例におけるステップ212と同様なので省略する。
【0053】
ステップ314は、第1実施例におけるステップ213と同様であるが、式(21)、(22)の補正を考慮して次式(25)のように、統合位置における横位置を補正する。(縦位置は式15と同じため、省略。)そして、ステップ316へ進む。
integratedPx = Px_z0−cmpPx ・・・(25)
【0054】
ステップ315は、第1実施例におけるステップ214と同様のため、省略する。
【0055】
ステップ316は、第1実施例におけるステップ217と同様のため、省略する。
【0056】
次に、上記画像処理制御について図7〜図9を用いて状況別に説明する。
(前方に停止車両が存在し、その車両がレーダ視野角の左右端に存在するとき)
前方に停止車両が存在するとき(時刻t0〜t1)は、ステップ301→ステップ302→ステップ303→ステップ306→ステップ307→ステップ308→ステップ309へと進み、画像検知位置の信頼性を確認する。そして、画像検知位置の信頼性が高いときは、ステップ315→ステップ316へと進み、レーダ検知位置と画像検知位置を統合して統合位置を出力するとともに、過去値を更新する。画像検知の信頼性が低いときは、ステップ314へ進み、統合位置としてレーダ検知位置を出力する。一旦初回画像処理が終了すると、その後は、ステップ306→ステップ310→ステップ311→ステップ312へと進み、画像のトラッキングを継続しつつレーダ検知位置と照合することで、画像の信頼性を確認しつつ検知物体の位置を出力する。尚、この段階では、検知車両の左右リフレクタが両方とも検知されているため、レーダ視野角の左右端であっても特に横位置の補正は行われない。
【0057】
(前方に停止車両が存在し、その車両がレーダ視野角の左右端から更にレーダ視野角外に出て行く状態)
前方に停止車両が存在し、その車両がレーダ視野角の左右端から更に自車から離れる側に移動したとき(時刻t1〜t2)は、ステップ301→ステップ302→ステップ303→ステップ304→ステップ306→ステップ310→ステップ311→ステップ312へと進む。すなわち、検知物体がレーダ視野角の左右端に存在していたとしても、左右のリフレクタを検知しているときは検知物体の幅が大きい。しかし、徐々に自車から離れる側に移動しレーダ視野角外に出ると、一方(例えば右側)のみのリフレクタを認識するため検知物体の幅が急激に小さくなり、更に、検知物体の中心位置が自車両側に急激に近づく方向に変化する。(図7〜9参照)。このときは、レーダ検知位置の誤差が大きいにも関わらず、画像検知位置とのずれが大きくなるため、画像処理の信頼性が低いと判断し、再度信頼性の低い初期状態に戻されてしまうことがないように、検知車両がレーダ視野角の左右端に存在し、レーダ検知位置が急激に変化したときは、横位置の変化量を補正することで、レーダ検知位置と画像検知位置との照合を行ったとしても、画像処理の信頼性が低いと認識することがなく、画像による物体トラッキングに支障をきたすことがない。
【0058】
以上説明したように、第2実施例にあっては、画像処理で長期トラッキング中には、そのトラッキング状態の良否の判断としてレーダとの差異を把握する処理において、レーダ検知位置に段差や誤差が生じた場合では、レーダ位置に補正を行う。このように、画像処理を一時的に変更することにより、レーダの視野角左右端における検知精度の悪化に対しても適切に画像処理で対応することができるため、画像によるトラッキング性能が向上することや、後段での障害物判断処理の正確さが向上することができる。
【図面の簡単な説明】
【図1】第1実施例における基本構成を示す概略図である。
【図2】第1実施例における、外界認識装置の制御構成を表すブロック図である。
【図3】第1実施例における、画像処理制御を表すフローチャートである。
【図4】第1実施例における、関数fanc1の特性を表すマップである。
【図5】第1実施例における、関数fanc2の特性を表すマップである。
【図6】第2実施例における、外界認識装置の制御構成を表すブロック図である。
【図7】停止車両を検知した場合の測距状況を表す概略図である。
【図8】停止車両を検知した場合のリフレクタと車両中心の関係を表す図である。
【図9】停止車両を検知した場合の横位置及び車幅の関係を表す図である。
【図10】画像処理シーケンスを表す図である。
【符号の説明】
1 レーザレーダ
2 レーダ処理装置
3 CCDカメラ
4 画像処理装置
5 外界認識装置
6 車速検出装置
7 操舵角検出装置
8 自動ブレーキ制御装置
9 負圧ブレーキブースタ
Claims (7)
- 自車周辺の物体を検知して、自車と検知した物体との相対位置を出力するスキャニング式測距手段と、
自車周辺の状況を撮像する撮像手段と、
前記スキャニング式測距手段を用いて前記撮像手段の撮像結果から画像処理を行う画像処理手段と、
を備えた車両用外界認識装置において、
前記スキャニング式測距手段の出力に基づき各物体の測距状況を把握する測距状況把握手段と、
該測距状況把握手段の出力に応じて前記画像処理手段の処理を変更する画像処理変更手段と、
を設けたことを特徴とする車両用外界認識装置。 - 請求項1に記載の車両用外界認識装置において、
前記測距状況把握手段は、前記スキャニング式測距手段における視野角の左右端付近に物体を検知したときに、前記画像処理変更手段に対し処理を変更する情報を出力することを特徴とする車両用外界認識装置。 - 請求項1または2に記載の車両用外界認識装置において、
前記測距状況把握手段は、前記スキャニング式測距手段の出力から、検知物体の幅が小さいときに、前記画像処理変更手段に対し処理を変更する情報を出力することを特徴とする車両用外界認識装置。 - 請求項1ないし3いずれか1つに記載の車両用外界認識装置において、
前記測距状況把握手段は、前記スキャニング式測距手段の出力から検知物体の横方向(車両にあっては車幅方向)の位置が自車へ接近する方向に急変したとき、或いは検知物体の大きさが急減したときに、前記画像処理変更手段に処理の変更を知らせる情報を出力することを特徴とする車両用外界認識装置。 - 請求項1ないし4いずれか1つに記載の車両用外界認識装置において、
前記画像処理変更手段は、前記画像処理手段による物体検知結果と前記スキャニング式測距手段による物体検知結果を比較し、物体検知結果に差異があるときは、画像処理が失敗したと判断する画像処理信頼度判断部を有し、
該画像処理信頼度判断部は、前記測距状況判断手段の出力から変更を知らせる情報が出力されると、前記画像処理手段による物体検知結果と前記スキャニング式測距手段による物体検知結果に差異が生じても、画像処理が失敗したと判断しないことを特徴とする車両用外界認識装置。 - 請求項1ないし5いずれか1つに記載の車両用外界認識装置において、
前記画像処理変更手段は、前記測距状況判断手段の出力から変更を知らせる情報が出力されると、前記スキャニング式測距手段の横方向の位置出力を使用しない、或いは、前記スキャニング式測距手段の変更を知らせる情報の前後の横方向のレーダ検知幅の変化から、画像処理領域を補正するように画像処理を変更することを特徴とする車両用外界認識装置。 - 請求項1ないし6いずれか1つに記載の車両用外界認識装置において、
前記車両用外界認識装置は、前記スキャニング式測距手段により検知した物体位置の確信度を第1確信度とし、前記画像処理手段により検知した物体位置の確信度を第2確信度とし、前記第1確信度及び第2確信度に基づいて1つの位置として統合することで検知物体の位置を検知する装置とし、
前記画像処理変更手段は、前記測距状況判断手段の出力から変更を知らせる情報が出力されると、前記第2確信度を高くすることを特徴とする車両用外界認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002317474A JP4175087B2 (ja) | 2002-10-31 | 2002-10-31 | 車両用外界認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002317474A JP4175087B2 (ja) | 2002-10-31 | 2002-10-31 | 車両用外界認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004153627A true JP2004153627A (ja) | 2004-05-27 |
JP4175087B2 JP4175087B2 (ja) | 2008-11-05 |
Family
ID=32460864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002317474A Expired - Fee Related JP4175087B2 (ja) | 2002-10-31 | 2002-10-31 | 車両用外界認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4175087B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006258545A (ja) * | 2005-03-16 | 2006-09-28 | Honda Motor Co Ltd | 先行車認識装置 |
JP2007274037A (ja) * | 2006-03-30 | 2007-10-18 | Daihatsu Motor Co Ltd | 障害物認識方法及び障害物認識装置 |
US7417580B2 (en) | 2003-09-11 | 2008-08-26 | Toyota Jidosha Kabushiki Kaisha | Object detection system and object detection method |
JP2017181450A (ja) * | 2016-03-31 | 2017-10-05 | 株式会社デンソー | 物体認識装置及び物体認識方法 |
WO2017195403A1 (ja) * | 2016-05-10 | 2017-11-16 | 株式会社Jvcケンウッド | 車両用表示装置および車両用表示方法およびプログラム |
JP2017204701A (ja) * | 2016-05-10 | 2017-11-16 | 株式会社Jvcケンウッド | 車両用表示装置および車両用表示方法およびプログラム |
JP2018001822A (ja) * | 2016-06-28 | 2018-01-11 | 株式会社Jvcケンウッド | 車両用表示装置および車両用表示方法およびプログラム |
CN113536867A (zh) * | 2020-04-22 | 2021-10-22 | 杭州海康威视数字技术股份有限公司 | 物体识别的方法、装置及系统 |
JP7520267B1 (ja) | 2023-07-05 | 2024-07-22 | 三菱電機株式会社 | 物体検出装置 |
-
2002
- 2002-10-31 JP JP2002317474A patent/JP4175087B2/ja not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7417580B2 (en) | 2003-09-11 | 2008-08-26 | Toyota Jidosha Kabushiki Kaisha | Object detection system and object detection method |
JP2006258545A (ja) * | 2005-03-16 | 2006-09-28 | Honda Motor Co Ltd | 先行車認識装置 |
JP2007274037A (ja) * | 2006-03-30 | 2007-10-18 | Daihatsu Motor Co Ltd | 障害物認識方法及び障害物認識装置 |
JP2017181450A (ja) * | 2016-03-31 | 2017-10-05 | 株式会社デンソー | 物体認識装置及び物体認識方法 |
WO2017170799A1 (ja) * | 2016-03-31 | 2017-10-05 | 株式会社デンソー | 物体認識装置及び物体認識方法 |
WO2017195403A1 (ja) * | 2016-05-10 | 2017-11-16 | 株式会社Jvcケンウッド | 車両用表示装置および車両用表示方法およびプログラム |
JP2017204701A (ja) * | 2016-05-10 | 2017-11-16 | 株式会社Jvcケンウッド | 車両用表示装置および車両用表示方法およびプログラム |
JP2018001822A (ja) * | 2016-06-28 | 2018-01-11 | 株式会社Jvcケンウッド | 車両用表示装置および車両用表示方法およびプログラム |
CN113536867A (zh) * | 2020-04-22 | 2021-10-22 | 杭州海康威视数字技术股份有限公司 | 物体识别的方法、装置及系统 |
CN113536867B (zh) * | 2020-04-22 | 2023-09-22 | 杭州海康威视数字技术股份有限公司 | 物体识别的方法、装置及系统 |
JP7520267B1 (ja) | 2023-07-05 | 2024-07-22 | 三菱電機株式会社 | 物体検出装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4175087B2 (ja) | 2008-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3630100B2 (ja) | 車線検出装置 | |
US8005266B2 (en) | Vehicle surroundings monitoring apparatus | |
JP3861781B2 (ja) | 前方車両追跡システムおよび前方車両追跡方法 | |
JP5472538B2 (ja) | 距離計測装置及び環境地図生成装置 | |
JP3759429B2 (ja) | 障害物検出装置及びその方法 | |
US20010031068A1 (en) | Target detection system using radar and image processing | |
WO2012120856A1 (ja) | 物体検出装置及び物体検出方法 | |
JPH09142236A (ja) | 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置 | |
JP6458651B2 (ja) | 路面標示検出装置及び路面標示検出方法 | |
US20200068186A1 (en) | Stereo camera | |
US20170227634A1 (en) | Object recognition apparatus using a plurality of object detecting means | |
US7987052B2 (en) | Method for evaluation, by motor vehicle, of the characteristics of a front element | |
JP2003099762A (ja) | 前方車両認識装置及び認識方法 | |
JP4052291B2 (ja) | 車両用画像処理装置 | |
JP3656056B2 (ja) | 割り込み車両検出装置及びその方法 | |
JP4719996B2 (ja) | 物体検知装置 | |
JP2004153627A (ja) | 車両用外界認識装置 | |
JP3925285B2 (ja) | 走行路環境検出装置 | |
WO2022009537A1 (ja) | 画像処理装置 | |
JP2007253699A (ja) | 光軸ずれ検出装置 | |
JP7347398B2 (ja) | 物体検出装置 | |
JP2004235711A (ja) | 対象物追跡システムおよび対象物追跡方法 | |
JP2004148991A (ja) | 車両用外界認識装置 | |
JP7531759B2 (ja) | 物体検出装置 | |
JP4013732B2 (ja) | 車両用外界認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050829 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20051117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080602 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080619 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080729 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080811 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110829 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120829 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120829 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130829 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |