Nothing Special   »   [go: up one dir, main page]

JP4315991B2 - 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム - Google Patents

車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム Download PDF

Info

Publication number
JP4315991B2
JP4315991B2 JP2007111161A JP2007111161A JP4315991B2 JP 4315991 B2 JP4315991 B2 JP 4315991B2 JP 2007111161 A JP2007111161 A JP 2007111161A JP 2007111161 A JP2007111161 A JP 2007111161A JP 4315991 B2 JP4315991 B2 JP 4315991B2
Authority
JP
Japan
Prior art keywords
area
vehicle
processing unit
periphery monitoring
vehicle periphery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007111161A
Other languages
English (en)
Other versions
JP2008271165A (ja
Inventor
伸治 長岡
誠 相村
雅和 坂
孝之 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007111161A priority Critical patent/JP4315991B2/ja
Priority to DE602008000115T priority patent/DE602008000115D1/de
Priority to EP08006604A priority patent/EP1982890B1/en
Priority to US12/080,906 priority patent/US7885430B2/en
Publication of JP2008271165A publication Critical patent/JP2008271165A/ja
Application granted granted Critical
Publication of JP4315991B2 publication Critical patent/JP4315991B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する装置等に関する。
車載の赤外線カメラにより撮像された車両周辺の画像に基づき、当該車両と接触する可能性がある歩行者等、対象物の存在を認識するための技術が提案されている(たとえば、特許文献1参照)。
特開2001−6096号公報
しかし、当該画像において歩行者の頭部や上半身等とその背景にある建造物とが重なると、この歩行者の存在を設定することが困難となる場合がある。
そこで、本発明は、車載撮像装置を通じて得られた画像において歩行者等の対象物の一部がその背景と重なった場合でも、当該対象物の存在を高精度で検知することができる装置等を提供することを解決課題とする。
前記課題を解決するための本発明の第1態様としての車両周辺監視装置は、車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する装置であって、前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設定し、当該第1領域の下方領域を第2領域として設定する第1処理部と、前記第1処理部により設定された前記第2領域において前記対象物の特徴として、前記第1処理部により設定された前記第2領域において前記対象物の正または負エッジラインと、前記正または負エッジラインのそれぞれの長さとを抽出する第2処理部と、前記第2処理部による抽出結果に基づき、前記長さが第1長さ範囲にある3つ以上の前記正または負エッジラインが前記第2処理部により抽出されたことを要件として、前記対象物を人間として識別する第3処理部とを備えていることを特徴とする。
本発明の第1態様としての車両周辺監視装置によれば、撮像装置を通じて得られた画像において対象物が存在する領域が第1領域として設定され、当該対象物の下部を包含する第1領域の下方領域が第2領域として設定される。これにより、第1領域が設定されたにもかかわらず、画像において対象物上部が背景に重なっているために対象物の上部の特徴が抽出されない場合でも、第2領域において対象物下部の特徴が抽出されることにより当該対象物が高精度で識別されうる。
また、撮像装置を通じて得られた画像に人間(歩行者)が含まれる場合、第2領域においてその両脚を表す2本の正エッジライン(または負エッジライン)が検出されるのが通常であるところ、3本以上の正エッジラインが検出された場合でも当該正エッジラインのそれぞれの長さに鑑みて人間およびこれ以外の対象物が識別されうる。これにより、画像において人間の両脚の隙間から建造物等が覗いている等の理由により、当該両脚を表している2本の正エッジラインのほかに正エッジラインが付加的に検出される状況でも、高精度で人間およびこれ以外の対象物が識別されうる。
なお「正エッジライン」とは上下に所定数行以上にわたって連続する正エッジ点の集合を意味し、「負エッジライン」とは上下に所定数行以上にわたって連続する負エッジ点の集合を意味する。点が上下に連続するとは、上下方向に隣接する行における当該点の横方向のずれが閾値以下であることを意味する。正エッジ点とは、画像において横方向について輝度が閾値を超えた点を意味する。負エッジ点とは、画像において横方向について輝度が閾値以下となった点を意味する。
前記課題を解決するための本発明の第2態様としての車両周辺監視装置は、車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する装置であって、前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設定し、当該第1領域の下方領域を第2領域として設定する第1処理部と、前記第1処理部により設定された前記第2領域において前記対象物の特徴として、前記第1処理部により設定された前記第2領域において前記対象物のエッジラインと、前記エッジラインの長さと、2つの前記エッジラインの上部横方向間隔および下部横方向間隔とを抽出する第2処理部と、前記第2処理部による抽出結果に基づき、前記長さが第2長さ範囲にあり、かつ、前記上部横方向間隔の前記下部横方向間隔との偏差が正の下限値を有する所定偏差範囲にある2つの前記エッジラインが前記第2処理部により抽出されたことを要件として、前記対象物を人間として識別する第3処理部とを備えていることを特徴とする。
本発明の第2態様としての車両周辺監視装置によれば、(1)人間が2本の脚を有していること、(2)人間の脚の標準的な長さ、および(3)人間を正面視したときに下半身下側の間隔が上側の間隔より狭く見えるという傾向に鑑みて、人間およびこれ以外の対象物が高精度で識別されうる。
本発明の第1または第2態様としての車両周辺監視装置において、前記第1処理部が前記車両から前記対象物までの距離を測定し、前記第1処理部による測定距離が所定距離範囲にあることを要件として、前記第2処理部が前記対象物の特徴を抽出することが好ましい
当該構成の車両周辺監視装置によれば、車両から対象物までの測定距離に鑑みて、識別対象物とは異なる蓋然性が高い対象物については特徴抽出および識別が省略されうる。これにより、対象物の特徴抽出および識別の経済を図ることができる。
本発明の第1または第2態様としての車両周辺監視装置において、前記第1処理部が前記第1処理部により設定された、前記対象物が存在する前記第1または第2領域の下端の路面からの高さを測定し、前記第1処理部による測定高さが所定高さ範囲にあることを要件として、前記第2処理部が前記対象物の特徴を抽出することが好ましい
当該構成の車両周辺監視装置によれば、路面を基準とした第1または第2領域の下端部の位置に鑑みて、識別対象物とは異なる蓋然性が高い対象物については特徴抽出および識別が省略されうる。これにより、対象物の特徴抽出および識別の経済を図ることができる。
本発明の第2態様としての車両周辺監視装置において、前記第2処理部が前記2つのエッジラインのそれぞれを構成するエッジ点の総数を当該2本のエッジラインのそれぞれの長さとして測定し、前記第2領域の上部領域および下部領域のそれぞれにおける前記2つのエッジラインのそれぞれを構成する同じ高さにあるエッジ点の平均横方向間隔を当該2つのエッジラインの上部横方向間隔および下部横方向間隔のそれぞれとして測定することが好ましい
当該構成の車両周辺監視装置によれば、エッジラインが斜めになっているために当該エッジラインを構成するエッジ点の画像横方向に広がって分布している場合でも、当該エッジ点の数が累計されることにより当該エッジラインのサイズが測定されうる。また、一対のエッジラインの間隔が下方に向かうにつれて狭くなっているになっているという傾向が、当該エッジラインの上部および下部のそれぞれの平均横方向間隔の対比によって認識されうる。
前記課題を解決するための本発明の第3態様としての方法は、車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する方法であって、前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設定し、当該第1領域の下方領域を第2領域として設定する第1処理と、前記第1処理において設定された前記第2領域において前記対象物の特徴として、前記第1処理により設定された前記第2領域において前記対象物の正または負エッジラインと、前記正または負エッジラインのそれぞれの長さとを抽出する第2処理と、前記第2処理による抽出結果に基づき、前記長さが第1長さ範囲にある3つ以上の前記正または負エッジラインが前記第2処理により抽出されたことを要件として、前記対象物を人間として識別する第3処理とを実行することを特徴とする。
前記課題を解決するための本発明の第4態様としての方法は、車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する方法であって、前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設定し、当該第1領域の下方領域を第2領域として設定する第1処理と、前記第1処理により設定された前記第2領域において前記対象物の特徴として、前記第1処理により設定された前記第2領域において前記対象物のエッジラインと、前記エッジラインの長さと、2つの前記エッジラインの上部横方向間隔および下部横方向間隔とを抽出する第2処理と、前記第2処理による抽出結果に基づき、前記長さが第2長さ範囲にあり、かつ、前記上部横方向間隔の前記下部横方向間隔との偏差が正の下限値を有する所定偏差範囲にある2つの前記エッジラインが前記第2処理により抽出されたことを要件として、前記対象物を人間として識別する第3処理とを実行することを特徴とする。
本発明の第3態様としての車両周辺監視方法および第4態様としての車両周辺監視方法のそれぞれによれば、第1領域が設定されたにもかかわらず、画像において対象物上部が背景に重なっているために対象物上部の特徴が抽出されない場合でも、第2領域において対象物下部の特徴が抽出されることにより当該対象物が識別されうる。
前記課題を解決するための本発明の第5態様としてのプログラムは、車両に搭載されているコンピュータを本発明の第1態様としての車両周辺監視装置として機能させることを特徴とする。
前記課題を解決するための本発明の第6態様としてのプログラムは、車両に搭載されているコンピュータを本発明の第2態様としての車両周辺監視装置として機能させることを特徴とする。
本発明の第5態様としての車両周辺監視プログラムおよび第6態様としての車両周辺監視プログラムのそれぞれによれば、第1領域が設定されたにもかかわらず、画像において対象物上部が背景に重なっているために対象物上部の特徴が抽出されない場合でも、第2領域において対象物の下部の特徴が抽出されることにより当該対象物を識別しうるように車載コンピュータを機能させることができる。
本発明の車両周辺監視装置等の実施形態について図面を用いて説明する。
図1に示されている車両1には、車両周辺監視装置10と、車両1の前方部において車幅方向中央部にほぼ対称に配置された一対の赤外線カメラ(撮像装置)102と、フロントウィンドウにおいて運転者の視界を妨げないように配置されたHUD104とが搭載されている。また、図2に示されているように車両1には、ヨーレートセンサ122や速度センサ124等の種々のセンサが搭載されている。
車両周辺監視装置10は車載の赤外線カメラ102により得られた画像に基づいて車両の周辺を監視する装置である。車両周辺監視装置10は、車両1に搭載されたハードウェアとしてのECUまたはコンピュータ(CPU,ROM,RAM,I/O等により構成されている。)と、メモリに格納され、当該コンピュータに諸機能を付与するソフトウェアとしての本発明の車両周辺監視プログラムとにより構成されている。なお、車両周辺監視プログラムは最初から車載コンピュータのメモリ(ROM)に格納されていてもよい。図示しないが、車載コンピュータからのリクエストがあったとき等の任意のタイミングでこのプログラムの一部または全部がサーバからネットワークや衛星を介して当該車載コンピュータに配信または放送され、そのメモリ(RAM)等に格納されてもよい。車両周辺監視装置10は位置のECUにより構成されていてもよいが、分散制御システムを構成する複数のECUにより構成されていてもよい。
車両周辺監視装置10は図2に示されているように、第1処理部11と、第2処理部12と、第3処理部13と、第4処理部14とを備えている。
第1処理部11は赤外線カメラ102を通じて得られた画像において対象物が存在する領域を第1領域A1i(i=1,2,‥)として設定する。また、第1処理部11は第1領域A1iの下方領域を第2領域A2iとして設定する。
第2処理部12は第2領域A2iに含まれる対象物の特徴量として、エッジラインELや高輝度ラインPLを検出し、さらには当該検出ラインの特徴量等を測定する。
第3処理部13は第2処理部12による対象物の特徴抽出結果に基づいて当該対象物を識別する。
第4処理部14は第3処理部13による対象物の識別結果に基づき、必要に応じて車両1と当該識別対象物との接触可能性を評価する。また、第4処理部14は車両1と対象物との接触可能性の評価に応じて、車両1の前方における当該対象物の存在を知らせるまたは強調する画像をHUD104に表示させる等、車載機器の動作を制御する。
前記構成の車両1および車両周辺監視装置10の機能について説明する。
第1処理部11により「第1処理」が実行される(図3/S010)。これにより、一対の赤外線カメラ102により撮像された赤外線画像がA/D変換されることで得られたグレースケール画像において、対象物が存在する領域が第1領域A1i(i=1,2,‥)として設定される(図3/S012)。
図4(a)に示されている部分的なグレースケール画像が得られた場合、当該画像において高輝度領域(二重枠で囲まれている。)Qが抽出される。また、図4(b)に示されているように高輝度領域Qを含む矩形状の小領域a0に加えて、その上下に連続する同じく矩形状の複数の小領域a-2,a-1,a1〜a8が設定される。さらに、小領域ak(k=−2〜8)のそれぞれの高輝度領域の重心等の実空間位置が一対の赤外線カメラ102の視差を利用して測定される。この際、ヨーレートセンサ122および速度センサ124のそれぞれの出力に基づき、車両1の回頭による画像における位置ずれが補正される。回頭補正された実空間における測定位置はメモリに格納される。実空間位置とは、図1に示されているように一対の赤外線カメラ102の取り付け位置の中点を原点Oとし、水平方向、鉛直方向および前後方向をそれぞれX、YおよびZ軸とする座標系における位置を意味する。実空間位置の測定方法および回頭角補正方法はたとえば前記特許文献1において説明されているので本願明細書では説明を省略する。そして、各小領域akに含まれる高輝度領域の車両1からの距離が共通の距離範囲に含まれ、かつ、連続する複数の小領域akの集合が第1領域A1iとして設定される。これにより、図4(c)に示されているような第1領域(二重枠で囲まれている。)A1i={ak|k=0〜6}が設定される。第1領域A1iに含まれる高輝度領域の集合が対象物として認識される。
また、第1領域A1iの下方領域が第2領域A2iとして設定される(図3/S014)。これにより、図4(d)に示されているように矩形状の第1領域(破線枠で囲まれている。)A1iの下方の矩形状の第2領域(二重枠で囲まれている。)A2iが設定される。画像における第2領域A2iの下端は第1領域A1iの下端とほぼ同じ高さに設定され、第2領域A2iの上下方向の幅wは、第2領域A2iに含まれる高輝度領域の実空間における上下方向の幅が所定間隔(たとえば人間の脚の標準的な長さ)に一致するように設定される。ただし、第1領域A1iに含まれる対象物の車両1からの距離が所定距離範囲にあることを要件として、当該第1領域A1iの下方領域が第2領域A2iとして設定される。
さらに、第2領域A2iに含まれる対象物の車両1からの距離が所定距離範囲にあるか否かが判定される(図3/S016)。当該判定結果が肯定的であった場合(図3/S016‥YES)、第2領域A2i(または第1領域A1i)の下端の路面からの高さが所定高さ範囲にあるか否かがさらに判定される(図3/S018)。当該判定結果が肯定的であった場合(図3/S018‥YES)、後述する第2処理等が実行される。一方、これら2つの判定結果のいずれかが否定的であった場合(図3/S016‥NO,S018‥NO)、第2処理等は実行されない。車両1からの対象物の距離と、第2領域A2iの路面からの高さとのそれぞれは、メモリに格納されている当該対象物を表す高輝度領域の実空間位置に基づいて算定されうる。
次に第2処理部12により、前記2つの判定結果がともに肯定的であったことを要件として、第1処理部11により設定された第2領域A2iのそれぞれに含まれる対象物の特徴が抽出される「第2処理」が実行される(図3/S020)。具体的には、第2領域A2iにおいてエッジラインが抽出される(図3/S024)。第2領域A2iの横方向の走査ラインに沿って輝度が閾値を超える正エッジ点および輝度が閾値以下となる負エッジ点が抽出される。例として、図5(a)に示されている第2領域A2iにおける走査ライン(横並びの複数のピクセルにより構成されている。)に沿って図5(b)に示されているように輝度が変化している場合を考える。この場合、輝度が閾値を超える2つの正エッジ点EP1 +およびEP2 +ならびに輝度が閾値以下となる2つの負エッジ点EP1 -およびEP2 -が検出される。そして、上下方向に所定数行以上にわたって連続する正エッジ点EPm +(m=1,2)の集合がエッジラインELm +として検出される。また、上下方向に所定数行以上にわたって連続する負エッジ点EPn -(n=1,2)の集合がエッジラインELn -として検出される。点が上下方向に連続するとは、画像の上下方向について隣り合う行(ピクセルの横列)における当該点の横方向のずれ(ピクセル数)が閾値以下であることを意味する。
また、当該エッジラインのそれぞれの特徴量が測定される(図3/S014)。各エッジラインを構成するエッジ点の数の合計が当該各エッジラインの長さとして測定される。例として、図6(a)に示されているように2本の正エッジラインEL1 +およびEL2 +ならびに2本の負エッジラインEL1 -およびEL2 -が検出され、列(ピクセルの縦列)ごとのエッジ点の数が図6(b)に示されているように画像横方向に分布している場合を考える。当該分布グラフにおいて、隣接または近接して局所的にまとまっている局所的分布グラフが1つのエッジラインを構成するエッジ点の分布を表しているとみなされる。そして、局所的分布グラフを構成するエッジ点の数の総計が各エッジラインの画像における長さとして測定される。エッジラインの実空間長さは、メモリに格納されている対象物の実空間位置の測定結果に基づき、第2領域A2iにおける1ピクセルあたりの実空間の長さが算定されることにより算定される。なお、エッジラインの下端点および上端点との距離が、当該エッジラインの長さとして測定されてもよい。
また、複数のエッジラインが検出された場合、2つのエッジラインの上部横方向間隔および下部横方向間隔が測定される。図6(a)に示されているように破線で区切られた第2領域A2iの上側における2つのエッジラインのそれぞれを構成する同じ高さのエッジ点の平均横方向間隔が、当該2つのエッジラインの上部横方向間隔として測定される。同様に、第2領域A2iの下側における2つのエッジラインの平均横方向間隔が、当該2つのエッジラインの下部横方向間隔として測定される。
また、第2領域A2iにおいて輝度ピークラインが抽出される(図3/S026)。たとえば図5(b)に示されているように第2領域A2iにおける各走査ラインに沿って輝度が閾値を超えてから再び閾値以下となるまでの区域において、輝度が最高となる点が輝度ピーク点PP1およびPP2として検出される。そして、上下方向に連続性がある輝度ピーク点の集合が輝度ピークラインとして検出される。
また、当該輝度ピークラインの特徴量が抽出される(図3/S028)。具体的には、当該輝度ピークラインのそれぞれの実空間における長さが測定される。また、複数の輝度ピークラインが検出された場合、当該複数の輝度ピークラインのうち任意の2本の輝度ピークラインの実空間における横方向間隔が測定される。対象物の輝度ピークラインの長さおよび横方向間隔は、メモリに格納されている当該対象物の実空間位置に基づいて測定されうる。
続いて第3処理部13により、第2処理部12による対象物の特徴抽出結果に基づいて当該対象物が識別される「第3処理」が実行される(図3/S030)。具体的には、次の3つの要件のうちいずれか1つが満たされるか否かが判定される(図3/S032)。
(第1要件)第2領域A2iにおいて長さが第1長さ範囲にある正または負エッジラインが3つ以上抽出されたこと。
(第2要件)第2領域A2iにおいて長さが第2長さ範囲にあり、かつ、上部横方向間隔の下部横方向間隔との偏差が正の下限値を有する所定偏差範囲にある2つのエッジラインが抽出されたこと。
(第3要件)第2領域A2iにおいて横方向間隔が所定範囲にある2つの輝度ピークラインが抽出されたこと。
第1〜第3要件のうち少なくとも1つが満たされていると判定された場合(図3/S032‥YES)、対象物が人間として識別される(図3/S034)。
一方、第1〜第3要件のすべてが満たされていない場合(図3/S032‥NO)、当該対象物が人間とは異なる対象物であると識別される。なお、この場合、第2領域A2iにおいて、所定の配置関係にある複数のエッジラインが検出されたこと等、第1〜第3要件とは異なる要件が満たされるか否かがさらに判定され、当該判定結果が肯定的であった場合に対象物が他車両や建造物等であると識別されてもよい。
さらに、第4処理部14により第3処理部12による識別結果に基づいて車載機器が制御される「第4処理」が実行される(図3/S040)。具体的には、人間であると識別された対象物の時系列的な測定位置がメモリから読み取られ、当該読み取りデータに基づいて車両1を基準とした対象物の相対速度(大きさおよび向きを含む。)が算出される(図3/S042)。
また、車両1と当該対象物との接触可能性の高低が判定される(図3/S044)。たとえば、図7に示されているように赤外線カメラ102により監視可能な三角形領域A0よりも、車両1に対する二輪車等の物体xの相対速度vsと余裕時間Tとの積(vs×T)だけ低い三角形領域(警報判定領域)が定義される。また、当該三角形領域のうち、Z軸を中心とするX方向の幅がα+2β(α:車幅、β:余裕幅)の第1領域(接近判定領域)A1と、第1領域A1の左右の第2領域(侵入判定領域)A2LおよびA2Rとが定義される。そして、物体xが第1領域A1にある場合や、物体xが左右の第2領域A2にあって、その相対速度ベクトルvsに鑑みて第1領域A1に侵入してくることが予測される場合、この物体xと車両1とが接触する可能性が高いと判定される。
そして、車両1と対象物とが接触する可能性が高いと判定された場合(図3/S044‥YES)、「第1制御処理」が実行される(図3/S046)。これにより、当該対象物の存在を強調するため、たとえば当該対象物を囲む橙色のフレームが第1情報としてHUD104に表示される。なお、第1情報として「ピッピッピッ」等の音声がスピーカ(図示略)から出力されてもよい。
一方、車両1と対象物とが接触する可能性が低いと判定された場合(図3/S044‥NO)、「第2制御処理」が実行される(図3/S048)。これにより、対象物の存在を明確化するため、たとえば対象物を囲む黄色のフレームが第2情報としてHUD104に表示される。なお、第2情報として「ピッ」等、第1情報よりも短い(または小さい)音声がスピーカ(図示略)から出力されてもよい。
前記機能を発揮する本発明の車両周辺監視装置10によれば、赤外線カメラ(撮像装置)102を通じて得られた画像において対象物が存在する領域が第1領域A1iとして設定され、当該対象物の下部を包含する第1領域A1iの下方領域が第2領域A2iとして設定される(図3/S012,S014,図4(a)〜(d)参照)。これにより、対象物が存在する領域が第1領域A1iとして設定されたにもかかわらず、当該画像において対象物上部が背景に重なっているために対象物上部の特徴が抽出されない場合でも、第2領域A2iにおいて人間の脚等、対象物下部の特徴が抽出されることによって当該対象物が識別されうる。
また、車両1から対象物までの測定距離が所定距離範囲にあること、および第2領域A2iの下端の路面からの測定高さが所定高さ範囲にあることを要件として、第2処理以降の処理が実行される(図3/S016,S018参照)。したがって、車両1から対象物までの測定距離と、第2領域A2iの下端位置(ひいては対象物の下端位置)とに鑑みて、識別対象物とは異なる蓋然性が高い対象物については特徴抽出および識別が省略されうる。これにより、対象物の特徴抽出および識別の経済を図ることができる。
また「第2領域A2iにおいて長さが第1長さ範囲にある正または負エッジラインが3つ以上抽出された」という第1要件が満たされた場合、対象物が人間であると識別される。これにより、赤外線カメラ102を通じて得られた画像に人間(歩行者)が含まれる場合、第2領域A2iにおいてその両脚を表す2本の正エッジライン(または負エッジライン)が検出されるのが通常であるところ、3本以上の正エッジラインが検出された場合でも当該正エッジラインのそれぞれの長さに鑑みて人間およびこれ以外の対象物が識別されうる。そして、画像において人間の両脚の隙間から建造物等が覗いている等の理由により、当該両脚を表している2本の正エッジラインのほかに正エッジラインが付加的に検出される状況でも、高精度で人間およびこれ以外の対象物が識別されうる。
さらに「第2領域A2iにおいて長さが第2長さ範囲にあり、かつ、上部横方向間隔の下部横方向間隔との偏差が正の下限値を有する所定偏差範囲にある2つのエッジラインが抽出された」という第2要件が満たされた場合、対象物が人間であると識別される。これにより、(1)人間が2本の脚を有していること、(2)人間の脚の標準的な長さ、および(3)人間を正面視したときに下半身下側の間隔が上側の間隔より狭く見えるという傾向に鑑みて、人間およびこれ以外の対象物が高精度で識別されうる。
また「第2領域A2iにおいて横方向間隔が所定範囲にある2つの輝度ピークラインが抽出され」という第3条件が満たされる場合、対象物が人間であると識別される。これにより、赤外線カメラ102を通じて得られた画像の第2領域A2iにおいて検出された輝度ピークラインの間隔と、人間の両脚の標準的な間隔とに鑑みて人間およびこれ以外の対象物が高精度で識別されうる。
さらに、対象物が人間であると識別された場合に当該対象物と車両1との接触可能性が評価され、さらには当該判定結果に基づいて適当な処理が実行される(図3/S040参照)。前記のように対象物が人間であることが高精度で識別されるので、当該人間との接触回避等の観点から車載機器が適当に制御されうる。
なお、前記実施形態では人間の脚が対象部分として認識されたが、他の実施形態として人間の両脚が設定される場合と同様の考え方に基づいて人間の両腕等、人間の他の身体部分が対象部分として認識されてもよい。
前記実施形態では車両1に一対の赤外線カメラ102が搭載され、当該一対の赤外線カメラ102を通じて画像が取得され、当該一対の赤外線カメラ102の視差を利用して対象物または高輝度領域の実空間位置が測定された。他の実施形態として車両1に1つの赤外線カメラ102とレーダや超音波式の測距システムとが搭載され、当該1つの赤外線カメラ102を通じて画像が取得され、当該測距システムにより対象物の実空間位置または車両1からの距離が測定されてもよい。
前記実施形態では各小領域akに含まれる高輝度領域の車両1からの距離が測定された上で、当該測定距離が共通の距離範囲に含まれ、かつ、連続する複数の小領域akの集合が第1領域A1iとして設定された(図4(c)参照)。他の実施形態として、1つの赤外線カメラ102を通じて異なる時刻tおよびt+δt(δt>0)に得られた画像において高輝度領域Q(図4(a)参照)と同様に振舞う小領域akの集合が第1領域A1iとして設定されてもよい。具体的には、時刻tにおける画像において図8(a)に示されているように高輝度領域Q(t)の重心を通る、一点鎖線で表されている垂直線R(t)上に中心を有する複数の小領域(マスク)ak(t)(k=−2〜8)が設定される。また、時刻t+δtにおける画像において、相関演算によるパターンマッチングにより、図8(b)に示されているように時刻tにおける各小領域ak(t)対応する複数の小領域ak(t+δt)が設定される。そして、高輝度領域Q(t+δt)の重心を通る、一点鎖線で表されている垂直線R(t+δt)から横方向の微小範囲内に中心が含まれている、上下に連続する小領域aj(t+δt)(j=0〜6)の集合を包含するエリアが、図8(c)に示されているような第1領域A1iとして設定される。また、第1領域A1iに包含される対象物の車両1からの距離は、時刻tおよびt+δtのそれぞれにおける画像での当該対象物の面積変化率に基づいて測定されうる。
当該手法により、超音波やレーダを用いた測距システムが車両1に搭載されていなくても、1台の撮像装置(赤外線カメラ等)が車両1に搭載されていれば、第1領域A1iが設定されうる。また、当該1台の撮像装置を通じて得られた画像を用いて車両1から当該対象物までの距離が測定されうる。
前記実施形態では赤外線カメラ102が撮像装置として車両1に搭載されていたが、他の実施形態として近赤外線カメラや可視光カメラ(CCDカメラなど)等、さまざまな波長領域の電磁波に感度を有する撮像装置が車両1に搭載されていてもよい。
前記実施形態では車両1と対象物との接触可能性の評価に基づきこの対象物の存在を示す第1または第2情報がHUD104に表示されたが、他の実施形態として当該接触可能性の評価に基づき、車両1の挙動を制御するまたはステアリングシステムやブレーキシステム等の車載機器が制御されてもよい。当該構成の車両周辺監視装置10によれば、車両1と前記のように高精度で識別された対象物との接触可能性に基づいて車載機器が制御され、これにより、車両1と対象物との接触を回避する観点から、車両1の減速や操舵等、その挙動が適当に制御されうる。
本発明の車両周辺監視装置の構成説明図。 本発明の車両周辺監視装置の構成説明図。 本発明の車両周辺監視装置の機能説明図。 本発明の車両周辺監視装置の機能説明図。 本発明の車両周辺監視装置の機能説明図。 本発明の車両周辺監視装置の機能説明図。 本発明の車両周辺監視装置の機能説明図。 本発明の車両周辺監視装置の機能説明図。
1‥車両、10‥車両周辺監視装置、11‥第1処理部、12‥第2処理部、13‥第3処理部、14‥第4処理部、102‥赤外線カメラ(撮像装置)

Claims (9)

  1. 車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する装置であって、
    前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設定し、当該第1領域の下方領域を第2領域として設定する第1処理部と、
    前記第1処理部により設定された前記第2領域において前記対象物の特徴として、前記第1処理部により設定された前記第2領域において前記対象物の正または負エッジラインと、前記正または負エッジラインのそれぞれの長さとを抽出する第2処理部と、
    前記第2処理部による抽出結果に基づき、前記長さが第1長さ範囲にある3つ以上の前記正または負エッジラインが前記第2処理部により抽出されたことを要件として、前記対象物を人間として識別する第3処理部とを備えていることを特徴とする車両周辺監視装置。
  2. 車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する装置であって、
    前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設定し、当該第1領域の下方領域を第2領域として設定する第1処理部と、
    前記第1処理部により設定された前記第2領域において前記対象物の特徴として、前記第1処理部により設定された前記第2領域において前記対象物のエッジラインと、前記エッジラインの長さと、2つの前記エッジラインの上部横方向間隔および下部横方向間隔とを抽出する第2処理部と、
    前記第2処理部による抽出結果に基づき、前記長さが第2長さ範囲にあり、かつ、前記上部横方向間隔の前記下部横方向間隔との偏差が正の下限値を有する所定偏差範囲にある2つの前記エッジラインが前記第2処理部により抽出されたことを要件として、前記対象物を人間として識別する第3処理部とを備えていることを特徴とする車両周辺監視装置。
  3. 請求項1または2記載の車両周辺監視装置において、
    前記第1処理部が前記車両から前記対象物までの距離を測定し、前記第1処理部による測定距離が所定距離範囲にあることを要件として、前記第2処理部が前記対象物の特徴を抽出することを特徴とする車両周辺監視装置。
  4. 請求項1または2記載の車両周辺監視装置において、
    前記第1処理部が前記第1処理部により設定された、前記対象物が存在する前記第1または第2領域の下端の路面からの高さを測定し、前記第1処理部による測定高さが所定高さ範囲にあることを要件として、前記第2処理部が前記対象物の特徴を抽出することを特徴とする車両周辺監視装置。
  5. 請求項記載の車両周辺監視装置において、
    前記第2処理部が前記2つのエッジラインのそれぞれを構成するエッジ点の総数を当該
    2本のエッジラインのそれぞれの長さとして測定し、
    前記第2領域の上部領域および下部領域のそれぞれにおける前記2つのエッジラインのそれぞれを構成する同じ高さにあるエッジ点の平均横方向間隔を当該2つのエッジラインの上部横方向間隔および下部横方向間隔のそれぞれとして測定することを特徴とする車両周辺監視装置。
  6. 車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する方法であって、
    前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設
    定し、当該第1領域の下方領域を第2領域として設定する第1処理と、
    前記第1処理において設定された前記第2領域において前記対象物の特徴として、前記第1処理により設定された前記第2領域において前記対象物の正または負エッジラインと、前記正または負エッジラインのそれぞれの長さとを抽出する第2処理と、
    前記第2処理による抽出結果に基づき、前記長さが第1長さ範囲にある3つ以上の前記正または負エッジラインが前記第2処理により抽出されたことを要件として、前記対象物を人間として識別する第3処理とを実行することを特徴とする車両周辺監視方法。
  7. 車両に搭載されている撮像装置を通じて得られた画像を用いて車両の周辺を監視する方法であって、
    前記撮像装置を通じて得られた画像において対象物が存在する領域を第1領域として設
    定し、当該第1領域の下方領域を第2領域として設定する第1処理と、
    前記第1処理により設定された前記第2領域において前記対象物の特徴として、前記第1処理により設定された前記第2領域において前記対象物のエッジラインと、前記エッジラインの長さと、2つの前記エッジラインの上部横方向間隔および下部横方向間隔とを抽出する第2処理と、
    前記第2処理による抽出結果に基づき、前記長さが第2長さ範囲にあり、かつ、前記上部横方向間隔の前記下部横方向間隔との偏差が正の下限値を有する所定偏差範囲にある2つの前記エッジラインが前記第2処理により抽出されたことを要件として、前記対象物を人間として識別する第3処理とを実行することを特徴とする車両周辺監視方法。
  8. 車両に搭載されているコンピュータを請求項1記載の車両周辺監視装置として機能させることを特徴とする車両周辺監視プログラム。
  9. 車両に搭載されているコンピュータを請求項2記載の車両周辺監視装置として機能させることを特徴とする車両周辺監視プログラム。
JP2007111161A 2007-04-20 2007-04-20 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム Active JP4315991B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007111161A JP4315991B2 (ja) 2007-04-20 2007-04-20 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
DE602008000115T DE602008000115D1 (de) 2007-04-20 2008-03-31 Überwachungsvorrichtung der Fahrzeugumgebung, Fahrzeug mit der Überwachungsvorrichtung der Fahrzeugumgebung
EP08006604A EP1982890B1 (en) 2007-04-20 2008-03-31 Automotive environment monitoring device, vehicle with the automotive environment monitoring device
US12/080,906 US7885430B2 (en) 2007-04-20 2008-04-07 Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007111161A JP4315991B2 (ja) 2007-04-20 2007-04-20 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム

Publications (2)

Publication Number Publication Date
JP2008271165A JP2008271165A (ja) 2008-11-06
JP4315991B2 true JP4315991B2 (ja) 2009-08-19

Family

ID=39523371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007111161A Active JP4315991B2 (ja) 2007-04-20 2007-04-20 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム

Country Status (4)

Country Link
US (1) US7885430B2 (ja)
EP (1) EP1982890B1 (ja)
JP (1) JP4315991B2 (ja)
DE (1) DE602008000115D1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4486997B2 (ja) * 2008-04-24 2010-06-23 本田技研工業株式会社 車両周辺監視装置
US9336436B1 (en) * 2013-09-30 2016-05-10 Google Inc. Methods and systems for pedestrian avoidance
KR101601475B1 (ko) * 2014-08-25 2016-03-21 현대자동차주식회사 야간 주행 시 차량의 보행자 검출장치 및 방법
US9855890B2 (en) * 2014-12-11 2018-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
CN106515578A (zh) * 2016-12-22 2017-03-22 百度在线网络技术(北京)有限公司 无人车驾驶状态的识别装置、识别方法及无人车
CN112329670B (zh) * 2020-11-11 2021-10-19 上海伯镭智能科技有限公司 无人驾驶车辆路况不规则障碍物的识别方法、计算机程序及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE68925091T2 (de) 1988-09-28 1996-05-09 Honda Motor Co Ltd Verfahren und Vorrichtung zur Einschätzung des Fahrweges
JP3417635B2 (ja) 1994-01-31 2003-06-16 沖電気工業株式会社 侵入物体認識方法
JP3515926B2 (ja) 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP4414054B2 (ja) * 2000-03-27 2010-02-10 本田技研工業株式会社 物体認識装置
DE10043460C2 (de) * 2000-09-04 2003-01-30 Fraunhofer Ges Forschung Auffinden von Körperpartien durch Auswerten von Kantenrichtungsinformation
JP4104867B2 (ja) 2002-01-18 2008-06-18 本田技研工業株式会社 ナイトビジョンシステム
JP3959718B2 (ja) * 2002-12-03 2007-08-15 株式会社デンソー 車両用歩行者衝突検出装置
JP3775683B2 (ja) * 2003-08-21 2006-05-17 松下電器産業株式会社 人物検出装置および人物検出方法
JP3815689B2 (ja) * 2003-11-20 2006-08-30 松下電器産業株式会社 移動物体検出装置及び移動物体検出方法
WO2005072358A2 (en) * 2004-01-28 2005-08-11 Canesta, Inc. Single chip red, green, blue, distance (rgb-z) sensor
JP3934119B2 (ja) 2004-06-14 2007-06-20 本田技研工業株式会社 車両周辺監視装置
JP5405741B2 (ja) * 2004-07-26 2014-02-05 オートモーティブ システムズ ラボラトリー インコーポレーテッド 道路使用弱者保護システム
WO2006013765A1 (ja) * 2004-08-03 2006-02-09 Matsushita Electric Industrial Co., Ltd. 人物判定装置及び人物検索追跡装置
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP4094604B2 (ja) * 2004-11-30 2008-06-04 本田技研工業株式会社 車両周辺監視装置
KR100790860B1 (ko) * 2004-12-14 2008-01-03 삼성전자주식회사 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기

Also Published As

Publication number Publication date
EP1982890A1 (en) 2008-10-22
EP1982890B1 (en) 2009-08-26
JP2008271165A (ja) 2008-11-06
US20080260208A1 (en) 2008-10-23
US7885430B2 (en) 2011-02-08
DE602008000115D1 (de) 2009-10-08

Similar Documents

Publication Publication Date Title
US6327536B1 (en) Vehicle environment monitoring system
JP4521642B2 (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
JP4456086B2 (ja) 車両周辺監視装置
JP4173901B2 (ja) 車両周辺監視装置
JP4992990B2 (ja) 区画線検出装置
US20050276450A1 (en) Vehicle surroundings monitoring apparatus
JP4271720B1 (ja) 車両周辺監視装置
US7483549B2 (en) Vehicle surroundings monitoring apparatus
JP4315991B2 (ja) 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
US7489805B2 (en) Vehicle surroundings monitoring apparatus
JP2007193445A (ja) 車両の周辺監視装置
JP4486997B2 (ja) 車両周辺監視装置
JP2007310706A (ja) 車両周辺監視装置
US8174578B2 (en) Vehicle periphery monitoring device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP5430213B2 (ja) 車両周辺監視装置
TW201822067A (zh) 道路車道線的偵測系統及其方法
JP4496383B2 (ja) 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
JP4694441B2 (ja) 車両周辺監視システム
JP4590654B2 (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
JP4743797B2 (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
JP4828333B2 (ja) 車両周辺監視システム
JP4343920B2 (ja) 車両周辺監視システム、車両、車両周辺監視プログラム、車両周辺監視システムの構成方法、およびサーバ
JP2008042779A5 (ja)
JP4815506B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090519

R150 Certificate of patent or registration of utility model

Ref document number: 4315991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140529

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350