JP2004192080A - 物体認識装置及び認識方法 - Google Patents
物体認識装置及び認識方法 Download PDFInfo
- Publication number
- JP2004192080A JP2004192080A JP2002356160A JP2002356160A JP2004192080A JP 2004192080 A JP2004192080 A JP 2004192080A JP 2002356160 A JP2002356160 A JP 2002356160A JP 2002356160 A JP2002356160 A JP 2002356160A JP 2004192080 A JP2004192080 A JP 2004192080A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- object candidate
- imaging unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】自車前方の車両や歩行者等を簡単かつ確実に認識可能にする物体認識装置及び認識方法を提供する。
【解決手段】CCDカメラにより自車前方のフレーム画像が取得され(S1)、このフレーム画像から前方の車両等の画像を含む物体候補領域が抽出され(S2)、切出平面が自車進行方向であるZ軸に沿って順次移動されてそのときの物体候補領域と切出平面との重合領域が導出され(S3)、この重合領域及びメモリの各参照画像に基づき、マッチング距離が算出され(S4)、マッチング距離が極小値になるときの切出平面のZ軸における位置が求められ、そのときのZ軸位置が切り出しの最適位置として設定され(S5)、最適位置で切り出される物体候補領域と各参照画像との照合の結果、マッチング距離が極小値をとるか否かにより、その物体候補が車両か非車両かの判断がなされる(S6)。
【選択図】 図2
【解決手段】CCDカメラにより自車前方のフレーム画像が取得され(S1)、このフレーム画像から前方の車両等の画像を含む物体候補領域が抽出され(S2)、切出平面が自車進行方向であるZ軸に沿って順次移動されてそのときの物体候補領域と切出平面との重合領域が導出され(S3)、この重合領域及びメモリの各参照画像に基づき、マッチング距離が算出され(S4)、マッチング距離が極小値になるときの切出平面のZ軸における位置が求められ、そのときのZ軸位置が切り出しの最適位置として設定され(S5)、最適位置で切り出される物体候補領域と各参照画像との照合の結果、マッチング距離が極小値をとるか否かにより、その物体候補が車両か非車両かの判断がなされる(S6)。
【選択図】 図2
Description
【0001】
【発明の属する技術分野】
この発明は、画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置及び認識方法に関する。
【0002】
【従来の技術】
一般に、自車の走行中に、自車に搭載した撮像手段により前方を撮像して得られる画像を処理し、画像処理の結果、自車前方の物体が車両、歩行者、道路構造物等のうちいずれであるかを認識する手法に、従来、1988年にKassらにより提案された画像中の対象物の輪郭抽出方法であるsnakesと称される動的輪郭モデルを利用する手法や、全ての候補領域を予め作成した識別辞書と照合する手法がある。
【0003】
車載用ではないが、前者のsnakesの応用例としては、非特許文献1に記載のものがある。一方、後者の類似応用例として、識別辞書が車両等の画像ではなく地図情報で道路形状を求めるものはあるが、特許文献1に記載のようなものがある。
【0004】
【非特許文献1】
湯浅真由美、渡邉睦ほか「動的輪郭モデルによるMR画像における左室内腔自動輪郭抽出法の開発とその評価−輪郭形状の主成分分析を利用した初期値設定」,電子情報通信学会論文誌D−II,Vol.J82−D−II,No.12,pp.2345−2354,1999年12月
【特許文献1】
特開2001−331787号公報(段落[0002]〜[0004])
【0005】
【発明が解決しようとする課題】
しかし、前者のsnakesを利用する場合、きれいな閉輪郭線が得られなければ対象物体の切り出しに失敗することが多く、走行中の車両に搭載した撮像手段による画像を処理するような場合には、特に閉輪郭線を得にくいという問題がある。
【0006】
一方、後者の識別辞書との照合の場合、識別辞書を形成するために、車両の場合すべての車種について予め取得しておく必要があり、歩行者の場合には年齢や性別の異なる複数の歩行者について、同様に、道路構造物の場合には道路標識や信号灯、ガードレールといった各種の道路構造物について、参照画像(テンプレート)を予め多数取得して記憶しておかなければならず、記憶するためのメモリとして容量が非常に大きくなり、照合の演算に長時間を要し、無駄が多いという問題がある。
【0007】
いずれにしても、従来の手法では、走行中の自車前方に存在する車両や歩行者等の対象物体を認識するには適していない。
【0008】
そこで、本発明は、自車前方の車両、歩行者等を簡単かつ確実に認識可能にする物体認識装置及び認識方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記した目的を達成するために、本発明にかかる物体認識装置は、画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置において、撮像部により自車前方を撮像し、各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納部に格納しておき、処理部により、前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出し、自車の進行方向をひとつの座標軸とする車両座標空間で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出し、前記重合領域及び前記各参照画像に基づきマッチング距離を演算し、前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を前記物体候補領域の判断処理を行うための最適位置として設定することを特徴としている(請求項1)。
【0010】
このような構成によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面との重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定される。
【0011】
そのため、最適位置で物体候補領域を切り出して参照画像との照合等を行うことができ、自車前方の車両、歩行者、道路構造物といった対象物体を簡単かつ確実に認識することができる。
【0012】
また、本発明にかかる物体認識装置は、画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置において、自車前方を撮像する撮像部と、各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納する格納部と、前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出する抽出部と、自車の進行方向をひとつの座標軸とする車両座標系で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出する導出部と、前記重合領域及び前記各参照画像に基づきユークリッド距離の演算によるマッチング距離を算出する演算部と、前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を求めて前記物体候補領域の判断処理を行うための最適位置として設定する設定部とを備えていることを特徴としている(請求項2)。
【0013】
このような構成によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定される。
【0014】
そのため、最適位置で物体候補領域を切り出して参照画像との照合等を行うこができ、自車前方の車両、や歩行者、道路構造物といった対象物体を簡単かつ確実に認識することができる。
【0015】
また、本発明にかかる物体認識装置は、前記抽出部が、前記撮像部によるフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで矩形の前記物体候補領域を抽出することを特徴としている(請求項3)。
【0016】
このような構成によれば、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することができる。
【0017】
また、本発明にかかる物体認識装置は、前記各参照画像は、前記標準対象物体を前記撮像部により後方から撮像した画像に対して、固有空間法或いは部分空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成されるものであることを特徴としている(請求項4)。
【0018】
このような構成によれば、固有空間法による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両、歩行者、道路構造物といった自車前方に存在する対象物体を判断する基準となる参照画像を得ることができる。
【0019】
また、本発明にかかる物体認識装置は、前記設定部により設定された最適位置で前記物体候補領域を切り出し前記参照画像と照合して判断する判断部を更に備えていることを特徴としている(請求項5)。
【0020】
このような構成によれば、最適位置で切り出された物体候補領域と参照画像とが照合されて判断されるため、物体候補領域が車両、歩行者、道路構造物といった対象物体に該当するかどうか判断でき、自車前方の物体をより確実に認識することができる。このとき、例えばマッチング距離が極小値をとるかどうかにより対象物体かそうでないかの判断を行うのが望ましい。
【0021】
また、本発明にかかる物体認識方法は、撮像部により自車前方を撮像する撮像工程と、各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納する格納工程と、前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出する抽出工程と、自車の進行方向をひとつの座標軸とする車両座標系で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出する導出工程と、前記重合領域及び前記各参照画像に基づきユークリッド距離の演算によるマッチング距離を算出する演算工程と、前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を求めて前記物体候補領域の判断処理を行うための最適位置として設定する設定部工程とを備えていることを特徴としている(請求項6)。
【0022】
このような構成によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定されるため、最適位置で物体候補領域を切り出して参照画像との照合等を行うことができ、自車前方の車両、歩行者、道路構造物といった対象物体を簡単かつ確実に認識することができる。
【0023】
また、本発明にかかる物体認識方法は、前記抽出工程が、前記撮像部によるフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで矩形の前記物体候補領域を抽出することを特徴としている(請求項7)。
【0024】
このような構成によれば、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することができる。
【0025】
また、本発明にかかる物体認識方法は、前記各参照画像は、各種の車両、年齢や性別の異なる複数の歩行者、及び、各種の道路構造物を前記撮像部により後方から撮像した画像に対して、固有空間法或いは部分空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成されるものであることを特徴としている(請求項8)。
【0026】
このような構成によれば、固有空間法による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両、歩行者、道路構造物といった自車前方に存在する対象物体を判断する基準となる参照画像を得ることができる。
【0027】
また、本発明にかかる物体認識方法は、前記設定工程により設定された最適位置で前記物体候補領域を切り出し前記参照画像と照合して判断する判断工程を更に備えていることを特徴としている(請求項9)。
【0028】
このような構成によれば、最適位置で切り出された物体候補領域と参照画像とが照合されて判断されるため、物体候補領域が車両、歩行者、道路構造物といった対象物体に該当するかどうか判断でき、自車前方の物体をより確実に認識することができる。このとき、例えばマッチング距離が極小値をとるかどうかにより対象物体かそうでないかの判断を行うのが望ましい。
【0029】
【発明の実施の形態】
この発明を車両認識に適用した場合における一実施形態について図1ないし図9を参照して説明する。但し、図1はブロック図、図2は動作説明用フローチャート、図3ないし図9は動作説明図である。
【0030】
図1に示すように、撮像部としての単眼CCDカメラ1が車両に搭載され、このCCDカメラ1により自車前方が撮像されて前方車両のフレーム画像が得られ、得られたフレーム画像がCPU2によりRAM等から成るメモリ3に保存される。また、メモリ3には、標準対象物体である各種の車両をCCDカメラ1により後方から撮像して得られた画像に基づく複数の参照画像が予め格納されており、メモリ3は格納部として機能する。尚、CCDカメラ1による撮像が、本発明における撮像工程に相当する。
【0031】
このとき、各参照画像は、各種の車両をCCDカメラ1により後方から撮像した画像に対して、固有空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成される。但し、例えば複数種類の参照画像を「車」というひとつの参照画像として代表させる時には、固有空間法ではなく部分空間法を適用して次元圧縮し、参照画像を作成するようにしても構わない。このとき、参照画像は、例えば32画素×32画素のように比較的小さなサイズである。
【0032】
そして、処理部であるCPU2により、以下のようにして自車前方の車両の物体認識が行われる。即ち、CPU2は、CCDカメラ1により撮像されたフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで、自車前方の物体候補の画像を含む矩形の物体候補領域を抽出する。ここで、CPU2による抽出処理が、本発明における抽出部及び抽出工程に相当する。
【0033】
更に、CPU2は、図3に示すように、自車の進行方向をZ軸としてX−Y−Zの各軸により形成される車両座標空間において、自車の前方車両と思われる物体a,b,cが存在するときに、所定高さの切出平面5をZ軸に沿って順次移動させたときの物体候補領域と切出平面5とが重なる所定高さの矩形の重合領域を導出する。このようなCPU2による導出処理が、本発明における導出部及び導出工程に相当する。
【0034】
ところで、切出平面5の高さShは、対象物体を車両とすると、全ての車種の車高をカバーするために実際のリアルワールドでは2〜3m程度になるが、これを撮像画像に投影したときには、切出平面5の高さはCCDカメラ1からZ軸方向の距離に応じて変わるため、Z軸方向の距離が短くて矩形の重合領域が参照画像よりも大きい場合には、矩形の重合領域が参照画像と同じ32画素×32画素のサイズに縮小変換される。一方、Z軸方向の距離が長くて矩形の重合領域が参照画像よりも小さい場合には、矩形の重合領域が参照画像と同じ32画素×32画素のサイズに拡大変換される。
【0035】
そして、CPU2は、矩形の重合領域及びメモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出され、マッチング距離が極小値になるときの切出平面5のZ軸における位置が求められて物体候補領域の判断処理を行うための最適位置として設定される。
【0036】
このユークリッド距離の演算とは、例えば参照画像を圧縮した空間が3次元(x1,x2,x3)であるとし、参照画像がその空間上で(a,b,c)にあり、矩形の重合領域を参照領域と同じサイズに変換したものをその圧縮空間に投影した位置が(d,e,f)であるとすると、マッチング距離Dは、
D=(a−d)×(a−d)+(b−e)×(b−e)+(c−f)×(c−f)
の式の演算より算出することができる。
【0037】
このようなCPU2による演算処理が、本発明における演算部及び演算工程に相当し、CPU2による設定処理が、本発明における設定部及び設定工程に相当する。
【0038】
より具体的に説明すると、図3に示すように、各物体(車両)a,b,cそれぞれのZ軸における位置をZ1,Z2,Z3とすると、Z1,Z2,Z3の各位置における切出平面5と各物体(車両)a,b,cに対応する物体候補領域a,b,cとの重なり状況は、図4(A),(B),(C)にそれぞれ示すようになる。つまり、物体候補領域aはZ1における切出平面5、物体候補領域bはZ2における切出平面5、物体候補領域cはZ3における切出平面5に、各物体候補領域a,b,cそれぞれの最適切出領域である重合領域が含まれることがわかる。
【0039】
即ち、図4(A)に示すような重なり状況では、図5(A)に示すように、フレーム画像における切出平面5の高さと同じで各物体候補領域a,b,cを含む矩形の重合領域Ra1,Rb1,Rc1がそれぞれ設定される。そして、これら重合領域Ra1,Rb1,Rc1それぞれと、メモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出される。
【0040】
同様に、図4(B)に示すような重なり状況では、図5(B)に示すように、フレーム画像における切出平面5の高さと同じで各物体候補領域a,b,cを含む矩形の重合領域Ra2,Rb2,Rc2がそれぞれ設定され、これら重合領域Ra2,Rb2,Rc2それぞれと、メモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出される。更に、図4(C)に示すような重なり状況では、図5(C)に示すように、フレーム画像における切出平面5の高さと同じで各物体候補領域a,b,cを含む矩形の重合領域Ra3,Rb3,Rc3がそれぞれ設定され、これら重合領域Ra3,Rb3,Rc3それぞれと、メモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出される。
【0041】
こうしてマッチング距離を算出した結果は、図6に示すようになる。車両aについては、マッチング距離はZ軸の距離変化に伴って図6(A)に示すように変化し、切出平面5をZ1の位置に設定したときに極小値のmaとなり、車両bについては、マッチング距離はZ軸の距離変化に伴って図6(B)に示すように変化し、切出平面5をZ2の位置に設定したときに極小値のmbとなり、車両cについては、マッチング距離はZ軸の距離変化に伴って図6(C)に示すように変化し、切出平面5をZ3の位置に設定したときに極小値のmcとなる。
【0042】
例えば、重合領域Ra1,Ra2,Ra3を参照画像と照合すると、Z2,Z3での切出平面5によると車両aに対応する物体候補領域aの一部しか切り出せておらず、Z1での切出平面5によって物体候補領域aの全てが切り出せることから、図6(A)に示すように、Z1の位置に切出平面5を設定したときにマッチング距離が極小値maとなるのである。このことは車両b、cについても同じことが当てはまる。
【0043】
実際に、走行中の自車の搭載したCCDカメラ1により、図7に示すようなフレーム画像が得られたときに、対象物体が車両の場合と、非車両の場合では、Z軸の距離変化に対するマッチング距離の変化はそれぞれ図8(A),(B)に示すようになり、マッチング距離は、車両では極小値をとるのに対し、非車両では極小値をとらないことがわかる。
【0044】
このように、CPU2は、上記したように設定した最適位置において、物体候補領域を切り出して参照画像との照合を行い、マッチング距離が極小値をとるときにはその物体候補領域が車両であると判断し、極小値をとらないときには非車両であると判断する。このようなCPU2による判断処理が、本発明における判断部及び判断工程に相当する。
【0045】
ところで、図9は、図7に示す実際の走行中におけるフレーム画像に対して、上記したZ1,Z2,Z3のように異なるZ軸の各位置に切出平面5を設定し、車両に対応する物体候補領域、及び、非車両に対応する物体候補領域を切り出すべき重合領域(図9中の白枠)を設定した様子を表わしている。
【0046】
次に、一連の動作について、図2のフローチャートを参照して説明する。図2に示すように、CCDカメラ1により自車前方が撮像されてフレーム画像が取得され(S1)、取得されたフレーム画像から自車前方の車両等の画像を含む所定の物体候補領域が抽出される(S2)。
【0047】
そして、切出平面5がZ軸に沿って順次移動されてそのときの物体候補領域と切出平面5とが重なる重合領域が導出され(S3)、重合領域及びメモリ3に格納されている各参照画像に基づき、マッチング距離が算出され(S4)、マッチング距離が極小値になるときの切出平面5のZ軸における位置が求められ、そのときのZ軸位置が切り出しの最適位置として設定され(S5)、最適位置で切り出される物体候補領域と各参照画像との照合の結果、マッチング距離が極小値をとるか否かにより、その物体候補が車両か非車両かの判断がなされ(S6)、その後動作はステップS1に戻って繰り返される。
【0048】
このように、CCDカメラ1によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さSh(図3参照)の切出平面5を車両座標空間における自車進行方向であるZ軸に沿って順次移動させたときの物体候補領域と切出平面5とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面5の位置が最適位置として設定され、物体候補領域が切り出されて参照画像との照合が行われる。
【0049】
従って、上記した実施形態によれば、最適位置で物体候補領域を切り出して参照画像との照合等を行うことができるため、自車前方の車両を簡単かつ確実に認識することができる。
【0050】
また、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することができる。
【0051】
更に、固有空間法(或いは部分空間法)による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両かどうかを判断する基準となる参照画像を得ることができる。
【0052】
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。
【0053】
例えば、上記した実施形態では、物体候補領域を最適位置で切り出して参照画像とのマッチング距離が極小値をとるかどうかの照合処理により、車両か非車両かを判断しているが、その他の照合手法を採用しても構わないのは勿論である。
【0054】
また、上記した実施形態では、標準対象物体を車両とした場合について説明したが、標準対象物体を歩行者や道路構造物としてもよく、その場合、年齢や性別の異なる複数の歩行者、道路標識や信号灯、ガードレールといった各種の道路構造物の参照画像を予めメモリ3に格納しておけばよい。
【0055】
更に、自車に搭載すべき撮像部は、上記したCCDカメラ1に限定されるものでないのはいうまでもない。また、格納部には、メモリ3とは別のROMやRAM等を用いても構わない。
【0056】
【発明の効果】
以上のように、請求項1,2,6に記載の発明によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定されるため、最適位置で物体候補領域を切り出して参照画像との照合等を行うとができ、自車前方の車両、や歩行者、道路構造物といった対象物体を簡単かつ確実に認識することが可能になる。
【0057】
また、請求項3,7に記載の発明によれば、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することが可能になる。
【0058】
また、請求項4,8に記載の発明によれば、固有空間法による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両、歩行者、道路構造物といった自車前方に存在する対象物体を判断する基準となる参照画像を得ることが可能になる。
【0059】
また、請求項5,9に記載の発明によれば、最適位置で切り出された物体候補領域と参照画像とが照合され手判断されるため、物体候補領域が車両、歩行者、道路構造物といった対象物体に該当するかどうか判断でき、自車前方の物体をより確実に認識すること可能になる。
【図面の簡単な説明】
【図1】この発明の一実施形態のブロック図である。
【図2】この発明の一実施形態の動作説明用フローチャートである。
【図3】この発明の一実施形態の動作説明図である。
【図4】この発明の一実施形態の動作説明図である。
【図5】この発明の一実施形態の動作説明図である。
【図6】この発明の一実施形態の動作説明図である。
【図7】この発明の一実施形態の動作説明図である。
【図8】この発明の一実施形態の動作説明図である。
【図9】この発明の一実施形態の動作説明図である。
【符号の説明】
1 CCDカメラ(撮像部)
2 CPU(処理部、抽出部、導出部、演算部、設定部、判断部)
3 メモリ(格納部)
【発明の属する技術分野】
この発明は、画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置及び認識方法に関する。
【0002】
【従来の技術】
一般に、自車の走行中に、自車に搭載した撮像手段により前方を撮像して得られる画像を処理し、画像処理の結果、自車前方の物体が車両、歩行者、道路構造物等のうちいずれであるかを認識する手法に、従来、1988年にKassらにより提案された画像中の対象物の輪郭抽出方法であるsnakesと称される動的輪郭モデルを利用する手法や、全ての候補領域を予め作成した識別辞書と照合する手法がある。
【0003】
車載用ではないが、前者のsnakesの応用例としては、非特許文献1に記載のものがある。一方、後者の類似応用例として、識別辞書が車両等の画像ではなく地図情報で道路形状を求めるものはあるが、特許文献1に記載のようなものがある。
【0004】
【非特許文献1】
湯浅真由美、渡邉睦ほか「動的輪郭モデルによるMR画像における左室内腔自動輪郭抽出法の開発とその評価−輪郭形状の主成分分析を利用した初期値設定」,電子情報通信学会論文誌D−II,Vol.J82−D−II,No.12,pp.2345−2354,1999年12月
【特許文献1】
特開2001−331787号公報(段落[0002]〜[0004])
【0005】
【発明が解決しようとする課題】
しかし、前者のsnakesを利用する場合、きれいな閉輪郭線が得られなければ対象物体の切り出しに失敗することが多く、走行中の車両に搭載した撮像手段による画像を処理するような場合には、特に閉輪郭線を得にくいという問題がある。
【0006】
一方、後者の識別辞書との照合の場合、識別辞書を形成するために、車両の場合すべての車種について予め取得しておく必要があり、歩行者の場合には年齢や性別の異なる複数の歩行者について、同様に、道路構造物の場合には道路標識や信号灯、ガードレールといった各種の道路構造物について、参照画像(テンプレート)を予め多数取得して記憶しておかなければならず、記憶するためのメモリとして容量が非常に大きくなり、照合の演算に長時間を要し、無駄が多いという問題がある。
【0007】
いずれにしても、従来の手法では、走行中の自車前方に存在する車両や歩行者等の対象物体を認識するには適していない。
【0008】
そこで、本発明は、自車前方の車両、歩行者等を簡単かつ確実に認識可能にする物体認識装置及び認識方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記した目的を達成するために、本発明にかかる物体認識装置は、画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置において、撮像部により自車前方を撮像し、各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納部に格納しておき、処理部により、前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出し、自車の進行方向をひとつの座標軸とする車両座標空間で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出し、前記重合領域及び前記各参照画像に基づきマッチング距離を演算し、前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を前記物体候補領域の判断処理を行うための最適位置として設定することを特徴としている(請求項1)。
【0010】
このような構成によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面との重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定される。
【0011】
そのため、最適位置で物体候補領域を切り出して参照画像との照合等を行うことができ、自車前方の車両、歩行者、道路構造物といった対象物体を簡単かつ確実に認識することができる。
【0012】
また、本発明にかかる物体認識装置は、画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置において、自車前方を撮像する撮像部と、各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納する格納部と、前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出する抽出部と、自車の進行方向をひとつの座標軸とする車両座標系で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出する導出部と、前記重合領域及び前記各参照画像に基づきユークリッド距離の演算によるマッチング距離を算出する演算部と、前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を求めて前記物体候補領域の判断処理を行うための最適位置として設定する設定部とを備えていることを特徴としている(請求項2)。
【0013】
このような構成によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定される。
【0014】
そのため、最適位置で物体候補領域を切り出して参照画像との照合等を行うこができ、自車前方の車両、や歩行者、道路構造物といった対象物体を簡単かつ確実に認識することができる。
【0015】
また、本発明にかかる物体認識装置は、前記抽出部が、前記撮像部によるフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで矩形の前記物体候補領域を抽出することを特徴としている(請求項3)。
【0016】
このような構成によれば、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することができる。
【0017】
また、本発明にかかる物体認識装置は、前記各参照画像は、前記標準対象物体を前記撮像部により後方から撮像した画像に対して、固有空間法或いは部分空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成されるものであることを特徴としている(請求項4)。
【0018】
このような構成によれば、固有空間法による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両、歩行者、道路構造物といった自車前方に存在する対象物体を判断する基準となる参照画像を得ることができる。
【0019】
また、本発明にかかる物体認識装置は、前記設定部により設定された最適位置で前記物体候補領域を切り出し前記参照画像と照合して判断する判断部を更に備えていることを特徴としている(請求項5)。
【0020】
このような構成によれば、最適位置で切り出された物体候補領域と参照画像とが照合されて判断されるため、物体候補領域が車両、歩行者、道路構造物といった対象物体に該当するかどうか判断でき、自車前方の物体をより確実に認識することができる。このとき、例えばマッチング距離が極小値をとるかどうかにより対象物体かそうでないかの判断を行うのが望ましい。
【0021】
また、本発明にかかる物体認識方法は、撮像部により自車前方を撮像する撮像工程と、各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納する格納工程と、前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出する抽出工程と、自車の進行方向をひとつの座標軸とする車両座標系で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出する導出工程と、前記重合領域及び前記各参照画像に基づきユークリッド距離の演算によるマッチング距離を算出する演算工程と、前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を求めて前記物体候補領域の判断処理を行うための最適位置として設定する設定部工程とを備えていることを特徴としている(請求項6)。
【0022】
このような構成によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定されるため、最適位置で物体候補領域を切り出して参照画像との照合等を行うことができ、自車前方の車両、歩行者、道路構造物といった対象物体を簡単かつ確実に認識することができる。
【0023】
また、本発明にかかる物体認識方法は、前記抽出工程が、前記撮像部によるフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで矩形の前記物体候補領域を抽出することを特徴としている(請求項7)。
【0024】
このような構成によれば、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することができる。
【0025】
また、本発明にかかる物体認識方法は、前記各参照画像は、各種の車両、年齢や性別の異なる複数の歩行者、及び、各種の道路構造物を前記撮像部により後方から撮像した画像に対して、固有空間法或いは部分空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成されるものであることを特徴としている(請求項8)。
【0026】
このような構成によれば、固有空間法による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両、歩行者、道路構造物といった自車前方に存在する対象物体を判断する基準となる参照画像を得ることができる。
【0027】
また、本発明にかかる物体認識方法は、前記設定工程により設定された最適位置で前記物体候補領域を切り出し前記参照画像と照合して判断する判断工程を更に備えていることを特徴としている(請求項9)。
【0028】
このような構成によれば、最適位置で切り出された物体候補領域と参照画像とが照合されて判断されるため、物体候補領域が車両、歩行者、道路構造物といった対象物体に該当するかどうか判断でき、自車前方の物体をより確実に認識することができる。このとき、例えばマッチング距離が極小値をとるかどうかにより対象物体かそうでないかの判断を行うのが望ましい。
【0029】
【発明の実施の形態】
この発明を車両認識に適用した場合における一実施形態について図1ないし図9を参照して説明する。但し、図1はブロック図、図2は動作説明用フローチャート、図3ないし図9は動作説明図である。
【0030】
図1に示すように、撮像部としての単眼CCDカメラ1が車両に搭載され、このCCDカメラ1により自車前方が撮像されて前方車両のフレーム画像が得られ、得られたフレーム画像がCPU2によりRAM等から成るメモリ3に保存される。また、メモリ3には、標準対象物体である各種の車両をCCDカメラ1により後方から撮像して得られた画像に基づく複数の参照画像が予め格納されており、メモリ3は格納部として機能する。尚、CCDカメラ1による撮像が、本発明における撮像工程に相当する。
【0031】
このとき、各参照画像は、各種の車両をCCDカメラ1により後方から撮像した画像に対して、固有空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成される。但し、例えば複数種類の参照画像を「車」というひとつの参照画像として代表させる時には、固有空間法ではなく部分空間法を適用して次元圧縮し、参照画像を作成するようにしても構わない。このとき、参照画像は、例えば32画素×32画素のように比較的小さなサイズである。
【0032】
そして、処理部であるCPU2により、以下のようにして自車前方の車両の物体認識が行われる。即ち、CPU2は、CCDカメラ1により撮像されたフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで、自車前方の物体候補の画像を含む矩形の物体候補領域を抽出する。ここで、CPU2による抽出処理が、本発明における抽出部及び抽出工程に相当する。
【0033】
更に、CPU2は、図3に示すように、自車の進行方向をZ軸としてX−Y−Zの各軸により形成される車両座標空間において、自車の前方車両と思われる物体a,b,cが存在するときに、所定高さの切出平面5をZ軸に沿って順次移動させたときの物体候補領域と切出平面5とが重なる所定高さの矩形の重合領域を導出する。このようなCPU2による導出処理が、本発明における導出部及び導出工程に相当する。
【0034】
ところで、切出平面5の高さShは、対象物体を車両とすると、全ての車種の車高をカバーするために実際のリアルワールドでは2〜3m程度になるが、これを撮像画像に投影したときには、切出平面5の高さはCCDカメラ1からZ軸方向の距離に応じて変わるため、Z軸方向の距離が短くて矩形の重合領域が参照画像よりも大きい場合には、矩形の重合領域が参照画像と同じ32画素×32画素のサイズに縮小変換される。一方、Z軸方向の距離が長くて矩形の重合領域が参照画像よりも小さい場合には、矩形の重合領域が参照画像と同じ32画素×32画素のサイズに拡大変換される。
【0035】
そして、CPU2は、矩形の重合領域及びメモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出され、マッチング距離が極小値になるときの切出平面5のZ軸における位置が求められて物体候補領域の判断処理を行うための最適位置として設定される。
【0036】
このユークリッド距離の演算とは、例えば参照画像を圧縮した空間が3次元(x1,x2,x3)であるとし、参照画像がその空間上で(a,b,c)にあり、矩形の重合領域を参照領域と同じサイズに変換したものをその圧縮空間に投影した位置が(d,e,f)であるとすると、マッチング距離Dは、
D=(a−d)×(a−d)+(b−e)×(b−e)+(c−f)×(c−f)
の式の演算より算出することができる。
【0037】
このようなCPU2による演算処理が、本発明における演算部及び演算工程に相当し、CPU2による設定処理が、本発明における設定部及び設定工程に相当する。
【0038】
より具体的に説明すると、図3に示すように、各物体(車両)a,b,cそれぞれのZ軸における位置をZ1,Z2,Z3とすると、Z1,Z2,Z3の各位置における切出平面5と各物体(車両)a,b,cに対応する物体候補領域a,b,cとの重なり状況は、図4(A),(B),(C)にそれぞれ示すようになる。つまり、物体候補領域aはZ1における切出平面5、物体候補領域bはZ2における切出平面5、物体候補領域cはZ3における切出平面5に、各物体候補領域a,b,cそれぞれの最適切出領域である重合領域が含まれることがわかる。
【0039】
即ち、図4(A)に示すような重なり状況では、図5(A)に示すように、フレーム画像における切出平面5の高さと同じで各物体候補領域a,b,cを含む矩形の重合領域Ra1,Rb1,Rc1がそれぞれ設定される。そして、これら重合領域Ra1,Rb1,Rc1それぞれと、メモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出される。
【0040】
同様に、図4(B)に示すような重なり状況では、図5(B)に示すように、フレーム画像における切出平面5の高さと同じで各物体候補領域a,b,cを含む矩形の重合領域Ra2,Rb2,Rc2がそれぞれ設定され、これら重合領域Ra2,Rb2,Rc2それぞれと、メモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出される。更に、図4(C)に示すような重なり状況では、図5(C)に示すように、フレーム画像における切出平面5の高さと同じで各物体候補領域a,b,cを含む矩形の重合領域Ra3,Rb3,Rc3がそれぞれ設定され、これら重合領域Ra3,Rb3,Rc3それぞれと、メモリ3に格納されている各参照画像に基づき、ユークリッド距離の演算によるマッチング距離が算出される。
【0041】
こうしてマッチング距離を算出した結果は、図6に示すようになる。車両aについては、マッチング距離はZ軸の距離変化に伴って図6(A)に示すように変化し、切出平面5をZ1の位置に設定したときに極小値のmaとなり、車両bについては、マッチング距離はZ軸の距離変化に伴って図6(B)に示すように変化し、切出平面5をZ2の位置に設定したときに極小値のmbとなり、車両cについては、マッチング距離はZ軸の距離変化に伴って図6(C)に示すように変化し、切出平面5をZ3の位置に設定したときに極小値のmcとなる。
【0042】
例えば、重合領域Ra1,Ra2,Ra3を参照画像と照合すると、Z2,Z3での切出平面5によると車両aに対応する物体候補領域aの一部しか切り出せておらず、Z1での切出平面5によって物体候補領域aの全てが切り出せることから、図6(A)に示すように、Z1の位置に切出平面5を設定したときにマッチング距離が極小値maとなるのである。このことは車両b、cについても同じことが当てはまる。
【0043】
実際に、走行中の自車の搭載したCCDカメラ1により、図7に示すようなフレーム画像が得られたときに、対象物体が車両の場合と、非車両の場合では、Z軸の距離変化に対するマッチング距離の変化はそれぞれ図8(A),(B)に示すようになり、マッチング距離は、車両では極小値をとるのに対し、非車両では極小値をとらないことがわかる。
【0044】
このように、CPU2は、上記したように設定した最適位置において、物体候補領域を切り出して参照画像との照合を行い、マッチング距離が極小値をとるときにはその物体候補領域が車両であると判断し、極小値をとらないときには非車両であると判断する。このようなCPU2による判断処理が、本発明における判断部及び判断工程に相当する。
【0045】
ところで、図9は、図7に示す実際の走行中におけるフレーム画像に対して、上記したZ1,Z2,Z3のように異なるZ軸の各位置に切出平面5を設定し、車両に対応する物体候補領域、及び、非車両に対応する物体候補領域を切り出すべき重合領域(図9中の白枠)を設定した様子を表わしている。
【0046】
次に、一連の動作について、図2のフローチャートを参照して説明する。図2に示すように、CCDカメラ1により自車前方が撮像されてフレーム画像が取得され(S1)、取得されたフレーム画像から自車前方の車両等の画像を含む所定の物体候補領域が抽出される(S2)。
【0047】
そして、切出平面5がZ軸に沿って順次移動されてそのときの物体候補領域と切出平面5とが重なる重合領域が導出され(S3)、重合領域及びメモリ3に格納されている各参照画像に基づき、マッチング距離が算出され(S4)、マッチング距離が極小値になるときの切出平面5のZ軸における位置が求められ、そのときのZ軸位置が切り出しの最適位置として設定され(S5)、最適位置で切り出される物体候補領域と各参照画像との照合の結果、マッチング距離が極小値をとるか否かにより、その物体候補が車両か非車両かの判断がなされ(S6)、その後動作はステップS1に戻って繰り返される。
【0048】
このように、CCDカメラ1によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さSh(図3参照)の切出平面5を車両座標空間における自車進行方向であるZ軸に沿って順次移動させたときの物体候補領域と切出平面5とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面5の位置が最適位置として設定され、物体候補領域が切り出されて参照画像との照合が行われる。
【0049】
従って、上記した実施形態によれば、最適位置で物体候補領域を切り出して参照画像との照合等を行うことができるため、自車前方の車両を簡単かつ確実に認識することができる。
【0050】
また、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することができる。
【0051】
更に、固有空間法(或いは部分空間法)による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両かどうかを判断する基準となる参照画像を得ることができる。
【0052】
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。
【0053】
例えば、上記した実施形態では、物体候補領域を最適位置で切り出して参照画像とのマッチング距離が極小値をとるかどうかの照合処理により、車両か非車両かを判断しているが、その他の照合手法を採用しても構わないのは勿論である。
【0054】
また、上記した実施形態では、標準対象物体を車両とした場合について説明したが、標準対象物体を歩行者や道路構造物としてもよく、その場合、年齢や性別の異なる複数の歩行者、道路標識や信号灯、ガードレールといった各種の道路構造物の参照画像を予めメモリ3に格納しておけばよい。
【0055】
更に、自車に搭載すべき撮像部は、上記したCCDカメラ1に限定されるものでないのはいうまでもない。また、格納部には、メモリ3とは別のROMやRAM等を用いても構わない。
【0056】
【発明の効果】
以上のように、請求項1,2,6に記載の発明によれば、撮像部によるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域が抽出され、フレーム全幅にわたる所定高さの切出平面を車両座標空間における自車進行方向である座標軸に沿って順次移動させたときの物体候補領域と切出平面とが重なる重合領域が導出され、この重合領域及び各参照画像に基づきマッチング距離が演算され、マッチング距離が極小値になるときの切出平面の位置が最適位置として設定されるため、最適位置で物体候補領域を切り出して参照画像との照合等を行うとができ、自車前方の車両、や歩行者、道路構造物といった対象物体を簡単かつ確実に認識することが可能になる。
【0057】
また、請求項3,7に記載の発明によれば、X方向へのエッジヒストグラム、Y方向へのエッジヒストグラム及び両方向へのエッジヒストグラムの積の演算によりその極大点が導出されるため、物体候補領域を確実に抽出することが可能になる。
【0058】
また、請求項4,8に記載の発明によれば、固有空間法による次元圧縮により、2次元或いは3次元等に圧縮された主成分ベクトルが導出されて参照画像が作成されるため、車両、歩行者、道路構造物といった自車前方に存在する対象物体を判断する基準となる参照画像を得ることが可能になる。
【0059】
また、請求項5,9に記載の発明によれば、最適位置で切り出された物体候補領域と参照画像とが照合され手判断されるため、物体候補領域が車両、歩行者、道路構造物といった対象物体に該当するかどうか判断でき、自車前方の物体をより確実に認識すること可能になる。
【図面の簡単な説明】
【図1】この発明の一実施形態のブロック図である。
【図2】この発明の一実施形態の動作説明用フローチャートである。
【図3】この発明の一実施形態の動作説明図である。
【図4】この発明の一実施形態の動作説明図である。
【図5】この発明の一実施形態の動作説明図である。
【図6】この発明の一実施形態の動作説明図である。
【図7】この発明の一実施形態の動作説明図である。
【図8】この発明の一実施形態の動作説明図である。
【図9】この発明の一実施形態の動作説明図である。
【符号の説明】
1 CCDカメラ(撮像部)
2 CPU(処理部、抽出部、導出部、演算部、設定部、判断部)
3 メモリ(格納部)
Claims (9)
- 画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置において、
撮像部により自車前方を撮像し、
各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納部に格納しておき、
処理部により、
前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出し、
自車の進行方向をひとつの座標軸とする車両座標空間で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出し、
前記重合領域及び前記各参照画像に基づきマッチング距離を演算し、
前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を前記物体候補領域の判断処理を行うための最適位置として設定する
ことを特徴とする物体認識装置。 - 画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識装置において、
自車前方を撮像する撮像部と、
各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納する格納部と、
前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出する抽出部と、
自車の進行方向をひとつの座標軸とする車両座標系で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出する導出部と、
前記重合領域及び前記各参照画像に基づきユークリッド距離の演算によるマッチング距離を算出する演算部と、
前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を求めて前記物体候補領域の判断処理を行うための最適位置として設定する設定部と
を備えていることを特徴とする物体認識装置。 - 前記抽出部が、前記撮像部によるフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで矩形の前記物体候補領域を抽出することを特徴とする請求項2に記載の物体認識装置。
- 前記各参照画像は、前記標準対象物体を前記撮像部により後方から撮像した画像に対して、固有空間法或いは部分空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成されるものであることを特徴とする請求項2または3に記載の物体認識装置。
- 前記設定部により設定された最適位置で前記物体候補領域を切り出し前記参照画像と照合して判断する判断部を更に備えていることを特徴とする請求項2ないし4のいずれかに記載の物体認識装置。
- 画像を処理して自車前方の車両、歩行者、道路構造物等の物体を認識する物体認識方法において、
撮像部により自車前方を撮像する撮像工程と、
各種の車両、年齢や性別の異なる複数の歩行者、各種の道路構造物等の標準対象物体を前記撮像部により後方から撮像した画像に基づく複数の参照画像を予め格納する格納工程と、
前記撮像部により撮像されるフレーム画像から自車前方の物体候補の画像を含む所定の物体候補領域を抽出する抽出工程と、
自車の進行方向をひとつの座標軸とする車両座標系で、フレーム全幅にわたる所定高さの切出平面を前記座標軸に沿って順次移動させたときの前記物体候補領域と前記切出平面とが重なる前記所定高さの重合領域を導出する導出工程と、
前記重合領域及び前記各参照画像に基づきユークリッド距離の演算によるマッチング距離を算出する演算工程と、
前記マッチング距離が極小値になるときの前記切出平面の前記座標軸における位置を求めて前記物体候補領域の判断処理を行うための最適位置として設定する設定工程と
を備えていることを特徴とする物体認識方法。 - 前記抽出工程が、前記撮像部によるフレーム画像に対して所定の注視領域を設定しその注視領域における各画素の濃淡からX方向へのエッジヒストグラム、これに直交するY方向へのエッジヒストグラム、及び両方向へのエッジヒストグラムの積を演算してその極大点を導出することで矩形の前記物体候補領域を抽出することを特徴とする請求項6に記載の物体認識方法。
- 前記各参照画像は、前記標準対象物体を前記撮像部により後方から撮像した画像に対して、固有空間法或いは部分空間法により高次元ベクトルを低次元ベクトルに次元圧縮した主成分ベクトルに基づいて作成されるものであることを特徴とする請求項6または7に記載の物体認識方法。
- 前記設定工程により設定された最適位置で前記物体候補領域を切り出し前記参照画像と照合して判断する判断工程を更に備えていることを特徴とする請求項6ないし8のいずれかに記載の物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002356160A JP2004192080A (ja) | 2002-12-09 | 2002-12-09 | 物体認識装置及び認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002356160A JP2004192080A (ja) | 2002-12-09 | 2002-12-09 | 物体認識装置及び認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004192080A true JP2004192080A (ja) | 2004-07-08 |
Family
ID=32756564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002356160A Withdrawn JP2004192080A (ja) | 2002-12-09 | 2002-12-09 | 物体認識装置及び認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004192080A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008007197A2 (en) | 2006-07-10 | 2008-01-17 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus, method and program |
JP2009187357A (ja) * | 2008-02-07 | 2009-08-20 | Honda Motor Co Ltd | 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム |
US20180314253A1 (en) * | 2017-05-01 | 2018-11-01 | Mentor Graphics Development (Deutschland) Gmbh | Embedded automotive perception with machine learning classification of sensor data |
-
2002
- 2002-12-09 JP JP2002356160A patent/JP2004192080A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008007197A2 (en) | 2006-07-10 | 2008-01-17 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus, method and program |
US8121348B2 (en) | 2006-07-10 | 2012-02-21 | Toyota Jidosha Kabushiki Kaisha | Object detection apparatus, method and program |
JP2009187357A (ja) * | 2008-02-07 | 2009-08-20 | Honda Motor Co Ltd | 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム |
US20180314253A1 (en) * | 2017-05-01 | 2018-11-01 | Mentor Graphics Development (Deutschland) Gmbh | Embedded automotive perception with machine learning classification of sensor data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5715833B2 (ja) | 姿勢状態推定装置および姿勢状態推定方法 | |
CN113156421A (zh) | 基于毫米波雷达和摄像头信息融合的障碍物检测方法 | |
US20040252863A1 (en) | Stereo-vision based imminent collision detection | |
US20020134151A1 (en) | Apparatus and method for measuring distances | |
JP6021689B2 (ja) | 車両諸元計測処理装置、車両諸元計測方法及びプログラム | |
JP2016029557A (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
CN108319952B (zh) | 一种车辆特征提取方法及装置 | |
JP2002352225A (ja) | 障害物検出装置及びその方法 | |
CN103810475B (zh) | 一种目标物识别方法及装置 | |
CN107950023B (zh) | 车辆用显示装置以及车辆用显示方法 | |
CN111582077A (zh) | 基于人工智能软件技术的安全带佩戴检测方法和装置 | |
CN107038423B (zh) | 一种车辆实时检测与跟踪方法 | |
JP2004030461A (ja) | エッジマッチング方法、エッジマッチングプログラム、エッジマッチングプログラムを記録したコンピュータ読み取り可能な記録媒体、ステレオマッチング方法、ステレオマッチングプログラム及びステレオマッチングプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2004192080A (ja) | 物体認識装置及び認識方法 | |
US10223583B2 (en) | Object detection apparatus | |
Lee et al. | independent object detection based on two-dimensional contours and three-dimensional sizes | |
CN114693862A (zh) | 三维点云数据模型重建方法、目标重识别方法及装置 | |
KR20160148806A (ko) | 방향정보를 이용한 객체 검출기 생성 방법, 이를 이용한 객체 검출 장치 및 방법 | |
JP4070450B2 (ja) | 前方車両認識装置及び認識方法 | |
CN113516685B (zh) | 目标跟踪方法、装置、设备及存储介质 | |
JP2003281503A (ja) | 立体物の画像認識装置 | |
JP6677141B2 (ja) | 駐車枠認識装置 | |
Bota et al. | A framework for object detection, tracking and classification in urban traffic scenarios using stereovision | |
Fu et al. | Computer vision based object detection and recognition for vehicle driving | |
JP2003288600A (ja) | 歩行者認識装置及び認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060307 |