Nothing Special   »   [go: up one dir, main page]

JP6722051B2 - 物体検出装置、及び物体検出方法 - Google Patents

物体検出装置、及び物体検出方法 Download PDF

Info

Publication number
JP6722051B2
JP6722051B2 JP2016116575A JP2016116575A JP6722051B2 JP 6722051 B2 JP6722051 B2 JP 6722051B2 JP 2016116575 A JP2016116575 A JP 2016116575A JP 2016116575 A JP2016116575 A JP 2016116575A JP 6722051 B2 JP6722051 B2 JP 6722051B2
Authority
JP
Japan
Prior art keywords
image
blind spot
target
unit
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016116575A
Other languages
English (en)
Other versions
JP2017220178A (ja
Inventor
鶴田 知彦
知彦 鶴田
直輝 川嵜
直輝 川嵜
和寿 石丸
和寿 石丸
白井 孝昌
孝昌 白井
裕丈 石神
裕丈 石神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016116575A priority Critical patent/JP6722051B2/ja
Priority to US15/617,636 priority patent/US20170357863A1/en
Publication of JP2017220178A publication Critical patent/JP2017220178A/ja
Application granted granted Critical
Publication of JP6722051B2 publication Critical patent/JP6722051B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、車両の進行方向前方に存在する物体を検出する物体検出装置、及び物体検出方法に関する。
カメラ等の撮像装置で車両の進行方向前方を撮像し、車両から物体が見えない死角となる位置から車両の進行方向前方へ飛び出す物体を検出する物体検出装置が知られている。物体検出装置が死角から飛び出す物体を検出することで、この検出結果に基づいて物体との衝突を回避するための各種制御を作動させることができる。
また、特許文献1には、撮像装置により撮像された画像の死角周囲での移動速度及び移動方向を移動速度情報として算出し、算出した移動速度情報に基づいて、死角からの物体の飛び出しの有無を判定する物体検出装置が開示されている。
特開2013−210988号公報
撮像画像内での物体の移動速度及び移動方向により物体の飛び出しの有無を判定する場合、実際の物体の移動方向が相違していても、画像内での物体の移動が同一の移動方向であると認識される場合がある。具体的には、自車の横方向において自車に接近する側に物体が移動する場合と、自車の進行方向前方に物体が移動する場合とでは、実際の物体の移動方向が相違するが、二次元の画像上においてはいずれも自車の左右方向において自車に接近する側に物体が移動することとなる。このような場合には物体が進行方向前方へ飛び出しているか否かの判定精度が低下することが懸念される。また、飛び出しの判定に要する所要時間が長引くことが懸念される。
本発明は上記課題に鑑みてなされたものであり、物体に対する飛び出し判定のタイミングの早期化と高い判定精度とを両立することができる物体検出装置、及び物体検出方法を提供することを目的とする。
上記課題を解決するために本発明では、車両に設けられた第1撮像部及び第2撮像部から前記車両の進行方向前方の撮像画像を取得する画像取得部と、前記第1撮像部及び前記第2撮像部で撮像された各画像に基づいて、前記進行方向前方に死角が存在し、かつ前記死角に前記物体が存在しているか否かを判定する死角判定部と、前記死角に前記物体が存在していると判定された場合に、前記各撮像部により撮像された各画像を時系列で保持する画像保持部と、前記保持された時系列の各画像における特徴量の違いを画像差分として取得する差分取得部と、前記画像差分に基づいて、前記物体が前記車両の進行方向前方に接近するか否かを判定する接近判定部と、を備える。
撮像装置により撮像された画像に死角があり、その死角に物体が存在している場合、第1撮像部での画像には物体が見え、第2撮像部での画像には物体が見えないといったことが生じる。また、物体が移動することに伴い各撮像部の画像において物体の見え方が時系列で変わるが、移動方向に応じて見え方の変化具合が変わると考えられる。この点、上記構成によれば、各撮像部により撮像された死角を含む周辺領域の画像が時系列で保持され、その時系列の画像における特徴量の違いが画像差分として算出される。そして、その画像差分に基づいて、物体が自車両の進行方向前方に接近するか否かが判定される。この場合、物体の移動方向に応じて、各撮像部の画像における物体の見え方の変化具合が変わることを加味して、物体の接近を判定でき、物体に対する飛び出し判定のタイミングの早期化と高い判定精度とを両立することができる。
プリクラッシュセーフティシステムの構成図。 ステレオカメラの撮像領域を説明する図。 撮像画像内での物標Obの位置の変化を説明する図。 撮像画像を用いて死角領域DAに物標Obが存在するか否かを判定する手法を説明する図。 物標Obの飛び出し判定を説明するフローチャート。 死角領域DAに物標Obが存在するか否かを判定する手法を説明する図。 物標Obの飛び出しの判定を説明する図。 物体検出ECU20が実施する飛び出し判定の動作を説明する図。 第2実施形態における死角に存在する物体の有無を判定する手法を説明する図。 第1撮像部と第2撮像部との変形例を示す図。
本発明にかかる物体検出装置、及び物体検出方法の実施形態を図面と共に説明する。なお、以下の実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
(第1実施形態)
図1は、物体検出装置、及び物体検出方法を適用したプリクラッシュセーフティシステム(以下、PCSS:Pre-crash safety systemと記載する。)100を示している。PCSS100は、例えば、車両に搭載される車両システムの一例であり、車両の進行方向前方の物体を検出し、検出した物体と車両とが衝突する恐れがある場合、物体に対する自車両の衝突の回避動作又は衝突の緩和動作を実施する。以下では、このPCSS100が搭載された車両を自車両CSと記載し、検出対象となる物体を物標Obと記載する。
図1に示すように、PCSS100は、ステレオカメラ10と、物体検出ECU20と、運転支援ECU30と、被制御対象40と、を備えている。図1に示す実施形態において、物体検出ECU20が物体検出装置として機能する。また、ステレオカメラ10が撮像装置として機能する。
ステレオカメラ10は、自車両CSの進行方向前方を撮像できるよう撮像軸を自車両CSの前方に向けた状態で車室内に設置されている。また、ステレオカメラ10は、横方向での位置の異なる右カメラ11及び左カメラ12を備えている。右カメラ11で撮像された右画像と、左カメラ12で撮像された左画像は、それぞれ所定周期で運転支援ECU30に出力される。右カメラ11及び左カメラ12は、例えば、それぞれがCCDイメージセンサやCMOSイメージセンサで構成されている。この第1実施形態では右カメラ11及び左カメラ12がそれぞれ第1撮像部及び第2撮像部として機能する。
図2(a)に示すように、右カメラ11と左カメラ12とは、車両中心から横方向(X軸方向)にそれぞれ左右にずれて配置されている。そのため、図2(b),(c)で示すように、右カメラ11で撮像された右画像Riと左カメラ12で撮像された左画像Liとは、物標Obの見える角度が異なり、両眼視差を生じさせている。この両眼視差により、図2(a)に示す例では、図中右側に遮蔽物SHが存在する場合、右カメラ11は遮蔽物SHの前方(車両の進行方向前方)に位置する物体を撮像することができないが、左カメラ12はこの遮蔽物SHの前方に位置する物体を撮像することが可能となる。
運転支援ECU30は、物体検出ECU20による物標Obの飛び出し判定に基づいて、被制御対象40を作動させて、当該物体とのPCS(衝突回避制御)を実施する。運転支援ECU30は、CPU、ROM、RAMを備える周知のマイクロコンピュータとして構成されている。
図1では、被制御対象40として警報装置41及びブレーキ装置42を備えており、被制御対象40ごとに所定の作動タイミングが設定されている。例えば、各被制御対象40の作動タイミングは、TTCに基づいて設定されている。ここで、TTCとはこのままの自車速度で走行した場合に、何秒後に自車両CSが物標Obに衝突するかを示す評価値であり、TTCが小さいほど衝突の危険性は高くなり、TTCが大きいほど衝突の危険性は低くなる。運転支援ECU30は、例えば、物体検出ECU20から出力される自車両CSから物体までのY軸方向での距離を、自車両CSを基準とした物標Obの相対速度で割ることでTTCを算出する。
上述したPCSにおいて、自車両CSの死角から進行方向前方に飛び出す物標Obを早期かつ精度良く検出できることが望まれている。一方で、実際の物体の移動方向が相違する場合でも、撮像画像内での物体の移動が同一の移動方向であると認識されるおそれがある。図3では、自車両CSに対して横方向にずれた位置に存在する物標Obが自車両CSの進行方向に平行に移動する場合において、実際の移動方向と撮像画像内での移動方向との違いを示している。図3では、移動前の物標Obを破線で示すとともに移動方向を矢印で示している。例えば、図3(b)に示すように、物標Obが自車両CSの進行方向と同じ方向に移動している場合、撮像画像内では、図3(a)に示すようにこの物標Obの位置が自車両CSの進行方向前方に近づくよう変化し、あたかも横方向に移動しているかのように観測される。
そのため、撮像画像内での物標Obの移動速度や移動方向を用いて物標Obの飛び出しの判定を適正に行おうとすると、実際の物標Obの移動と撮像画像内での物標Obの移動との違いを考慮する必要があり、判定に要する時間が長引くことが懸念される。そこで、物体検出ECU20は、物標Obが接近する場合の判定精度の維持と、この判定に要する時間の短縮とを両立できるよう図1に示す各構成を備えている。
図1に戻り、物体検出ECU20は、CPU、ROM、RAMを備える周知のマイクロコンピュータとして構成されており、ステレオカメラ10により撮像された撮像画像に基づいて物体を検出する。また、物体検出ECU20は、ROMに記憶されたプログラムを実施することで、画像取得部21、物体検出部22、死角領域検出部23、死角判定部24、画像保持部25、差分取得部26、接近判定部27として機能する。
画像取得部21は、右カメラ11及び左カメラ12により撮像された右画像Riと左画像Liとをそれぞれ取得する。画像取得部21は、ステレオカメラ10から出力される撮像時間が同じ右画像Riと左画像Liとを一対とする撮像画像を所定周期で受信する。
物体検出部22は、各カメラ11,12から取得した画像に基づいて物標Obを検出する。物体検出部22は、例えば、右画像Ri及び左画像Liに対して周知のテンプレートマッチングを行い、各画像Ri,Li内の物体を検出する。例えば、物体検出部22が歩行者を検出する場合、歩行者用の辞書を用いて各画像Ri,Liから物標Obを検出する。なお、物体検出部22がテンプレートマッチングにより歩行者を検出する場合、歩行者の上半身の特徴を検出する辞書を用いるものであってもよい。
また、物体検出部22は右画像Riと左画像Liとの視差に基づいて物標Obの三次元位置を算出する。例えば、右画像Riと左画像Liとの視差を所定の画素ブロックごとに算出し、各画素ブロックの視差に基づいて、物標ObのX軸,Y軸,Z軸での各距離が設定された距離情報を生成する。この距離情報において、Z軸は、実空間の上下方向を鉛直方向とする位置である。
死角領域検出部23は、右画像Riと左画像Liとに基づいて、進行方向前方の死角を検出する。死角は、進行方向前方において自車両CSの運転者等から物体が見えなくなる位置である。この第1実施形態では、死角領域検出部23は、右画像Ri又は左画像Liにおいて走路横の建物や看板、又は走路横に停止している自動車等を、死角を構成する死角領域DAとして検出する。死角領域検出部23は、例えば、各画像Ri,Liから死角領域DAの候補となる物標Obを周知のテンプレートマッチングを用いて検出した場合、この物標Obの位置に基づいて死角領域DAとして検出する。例えば、死角領域検出部23は、死角領域DAの候補となる物標Obを検出した場合に、画像内においてこの物標Obが占める位置を横方向に所定長さだけ伸ばした領域を死角領域DAとする。
死角判定部24は、死角が存在しており、かつ、この死角に物体が存在しているか否かを判定する。例えば、図4(a),(b)に示すように右画像Riと左画像Liとに死角領域DAが検出されている場合、死角判定部24は、いずれかの画像Ri,Liにおける死角領域DAで対象となる物標Obが検出されていれば、死角領域DAに物標Obが存在していると判定する。図4の例では、右画像Riの死角領域DAで物標Obを検出していないが(図4(a))、左画像Liの死角領域DAで物標Obを検出しており(図4(b))、死角判定部24は死角領域DAに物標Obが存在していると判定する。
以下では、死角に物標Obが検出されない画像を非視認画像と記載し、死角周囲に物標Obが検出されている画像を視認画像と記載する。例えば、図4では、死角領域DAで物標Obが検出されていない右画像Riが非視認画像であり、死角領域DAに物標Obが検出されている左画像Liが視認画像となる。
画像保持部25は、死角判定部24により死角に物体が存在していると判定された場合に、ステレオカメラ10により撮像された死角周囲の画像を時系列で保持する。
差分取得部26は、画像保持部25により保持された時系列の画像における特徴量の違いを画像差分として取得する。例えば、差分取得部26は、各画像Ri,Liにおける物標Obの存否に関わる情報として、各画像Ri,Liにおいて前回画像と今回画像との画像差分を取得する。
接近判定部27は、差分取得部26により取得された画像差分に基づいて、物標Obが自車両CSの進行方向前方に接近しているか否かを判定する。物標Obが死角から横方向に飛び出すことで、物標Obの位置が右カメラ11又は左カメラ12のいずれかでその存否を検知できる位置から右カメラ11及び左カメラ12の両方でその存否を検知できる位置に変化する。そのため、接近判定部27は、各画像Ri,Liの死角の周囲での物標Obの存否の検出結果に基づいて、この物標Obが自車両CSの進行方向前方に近接するか否かを判定することができる。
次に、物標Obに対する接近判定(飛び出し判定)を図5のフローチャートを用いて説明する。図5に示す処理は、物体検出ECU20が所定周期で実施する処理である。以下では、図5に示す一連の処理が実施された後、次の周期において実施される図5の処理を次の処理と記載し、今回の処理と区別する。
ステップS11では、ステレオカメラ10から撮像時刻を同じとする一対の画像Ri,Liを取得する。そのため、ステップS11が画像取得工程として機能する。
ステップS12では、死角領域DAに物標Obが存在していることを示す状態フラグを判定する。まずは、死角領域DAに物標Obが存在しているか否かの判定が実施されていないとして、ステップS13に進む。
ステップS13では、各画像Ri,Li内で死角が存在しているか否かを判定する。例えば、図6(a),(b)では、物体検出ECU20は、各画像Ri,Liにおいて死角領域DAを形成する物標Obを検出しており、死角が存在していると判定する。
各画像Ri,Liから死角領域DAが検出できない場合(ステップS13:NO)、図5の処理を一旦終了する。一方、右画像Riと左画像Liとに死角領域DAが存在している場合(ステップS13:YES)、ステップS14に進む。なお、この実施形態では説明を容易にするために、右画像Riに対して1つの死角領域DAが存在している場合を例に説明を行う。
ステップS14では、死角に物体が存在しているか否かを判定する。物体検出ECU20は、死角領域DAを対象として接近判定の対象となる歩行者を含む全ての物標Obを検出する。例えば、図6(a),(b)では、右画像Riと左画像Liにおいてそれぞれ死角領域DAが存在しており、かつ、左画像Liの死角領域DAにおいて近接判定の対象となる歩行者が検出されている。そのため、図6の例では、物体検出ECU20は死角に物体が存在していると判定する。
死角領域DAで物標Obを検出しない場合(ステップS14:NO)、図5の処理を一旦終了する。一方、死角領域DAで物標Obを検出した場合(ステップS14:YES)、ステップS15に進む。ステップS13,S14が死角判定工程として機能する。
ステップS15では、ステップS14で検出された物標Obが移動体であるか否かを判定する。ステップS14において物標Obを検出できた場合でも、この物標Obが移動を伴わない静止物である場合、進行方向前方に飛び出す可能性が低くなるためである。例えば、静止物は、電柱、ロードコーン等のである。物体検出ECU20は、検出した物標Obが移動体でない場合(ステップS15:NO)、図5の処理を一旦終了する。
一方、ステップS14で検出された物標Obが移動体である場合(ステップS15:YES)、ステップS16に進む。例えば、移動体として歩行者を検出した場合に、ステップS14で検出された物体を移動体として判定する。そのため、ステップS15が移動体判定部、及び種別判定部として機能する。
ステップS16では、物標Obが死角に存在することを示す状態フラグを記憶する。
ステップS17では、右カメラ11と左カメラ12のそれぞれで撮像された画像Ri,Liを、死角を含む周囲領域の画像として保持する。そのため、右画像Riと左画像Liとのそれぞれの死角領域DAを含む周囲画像が時系列で保持されていく。なお、ステップS17での画像の保持は、状態フラグが記録されている間継続される。ステップS17が画像保持工程として機能する。そして、物体検出ECU20は図5に示す処理を一旦終了する。
その後、次回の処理におけるステップS12において、死角領域DAに物標Obが存在していることを示す状態フラグが記録されていれば(ステップS12:YES)、ステップS18に進む。
ステップS18では、ステップS17で保持を開始した右画像Riと左画像Liとのそれぞれの画像差分を取得する。画像差分は、右画像Riと左画像Liとのそれぞれの前回画像と今回画像との違いを示す情報であり、ここでは死角領域DAの周囲における物標Obの存否である。ステップS18が差分取得工程として機能する。
ステップS19では、ステップS18での取得結果に基づいて、ステップS14で死角に物標Obが存在していると判定された画像(視認画像)において物標Obが維持して存在しているか否かを判定する。物標Obが継続して存在していない場合(ステップS19:NO)、物標Obが両カメラ11,12で撮像できない位置に移動したとして、ステップS22では、状態フラグを消去する。そして、図5に示す処理を、一旦終了する。
物標Obが視認画像で継続して存在している場合(ステップS19:YES)、ステップS20では、ステップS14において死角で物標Obが検出されていない画像(非視認画像)の死角領域DAの周囲で物標Obを検出しているか否かを判定する。図7(a),(b)は、死角領域DAに存在する物標Obが自車両CSの進行方向前方に近接しない場合の時系列での画像の変化を示している。また、図7(c),(d)は、死角領域DAに存在する物標Obが自車両CSの進行方向前方に近接する場合の時系列での画像の変化を示している。
視認画像(図7では、左画像Li)において物標Obが検出された後、物標Obが死角領域DAから移動していないか又は車両進行方向(Y軸方向)に移動している場合、図7(a),(b)に示すように、視認画像では物標Obが検出されるが、非視認画像(右画像Ri)の死角領域DAの周囲では物標Obが検出されない。一方で、この物標Obが自車両CSの進行方向前方に近づく向きに移動している場合、図7(c),(d)に示すように、両画像Ri,Liにおいて物標Obが検出される。
そのため、ステップS14において物標Obが検出されなかった非視認画像の死角領域DAの周囲で物標Obを検出しない場合(ステップS20:NO)、この物標Obは自車両CSの進行方向前方に近接していないと判定し、図5に示す処理を一旦終了する。一方、非視認画像であった画像の死角領域DAの周囲で物標Obを検出している場合(ステップS20:YES)、ステップS21では、この物標Obを自車両CSの進行方向前方に近接する物体として判定する。ステップS19からS21が接近判定工程として機能する。そして、ステップS21の処理が終了すると、図5に示す処理を一旦終了する。
次に、図8を用いて、物体検出ECU20が実施する接近判定の動作を説明する。図8は、自車両CSが走行する走路の路肩において静止物SHが存在しており、この静止物SHの前方に自車両CSから物標Obを認識できない死角が生じているものとする。また、図8(a),(b)は物標Obとしての歩行者が死角から飛び出す場合の図である。一方、図8(c),(d)は歩行者が死角内で自車両CSの進行方向前方に移動している場合の図である。
図8(a)に示すように、進行方向前方に静止物SHが存在する場合、物体検出ECU20は撮像画像内でこの静止物SHの位置に応じて死角の存在を判定する。そして、時刻t11において死角に存在する歩行者Ob(t11)が、左カメラ12の撮像領域内となることで、この歩行者が死角に存在することが判定される。
その後、歩行者が横方向(X軸方向)において自車両CSの進行方向前方に近づく向きに移動することで、図8(b)に示す時刻t12での歩行者(t12)が、右カメラ11と左カメラ12との両方で撮像できる位置まで移動したとする。そのため、歩行者は死角から自車両CSの進行方向前方に近接する移動体として判定される。例えば、運転支援ECU30は、歩行者を移動体として判定することで、警報装置41を作動し、運転者に対して歩行者の飛び出しを警報する。
一方、図8(c)では、時刻t21において死角に存在する歩行者Ob(t21)の位置が、左カメラ12の撮像領域内となり、歩行者が死角に存在していることが判定される。その後、歩行者が進行方向(Y軸方向)において自車両CSから遠ざかる方向に移動することで、図8(d)に示す時刻t22での歩行者Ob(t22)は、左カメラ12のみで撮像できる位置に存在している。そのため、物体検出ECU20は、歩行者を自車両CSの進行方向前方に近接する移動体として判定せず、被制御対象40を作動させない。
以上説明したように、第1実施形態に係る物体検出ECU20では、右カメラ11と左カメラ12との物体の見え方の違いにより、死角に物標Obが存在していること判定した場合、右カメラ11及び左カメラ12により撮像された死角を含む周辺領域の画像が時系列で保持され、その時系列の画像における特徴量の違いを画像差分として取得する。そして、その画像差分に基づいて、物標Obが進行方向前方に接近するか否かが判定される。そのため、物標Obの移動方向に応じて、各カメラ11,12の撮像画像における物標Obの見え方の変化具合が変わることを加味して、物標Obの接近を精度良く判定することができる。また、死角の周辺に存在する物標の特徴量の差分に基づいて物標Obが自車両CSに近接しているか否かを判定することで、接近判定に要する時間を短くして判定タイミングを早期化することができる。
物体検出ECU20は、右カメラ11又は左カメラ12の各撮像画像のうち物標Obが見えている方の視認画像について、画像差分から物標Obが見えている状態が維持されていると認識され、かつ物標Obが見えていない方の非視認画像について、画像差分から物標Obが見えていない状態から見える状態になったと認識された場合に、物標Obが進行方向前方に接近していると判定する。上記構成により各画像Ri,Liでの物標Obの見え方の違いにより物標Obの移動を判定することができるため、物標Obの接近判定における判定精度を高いものとすることができる。
物体検出ECU20は、右カメラ11又は左カメラ12のいずれかで撮像された画像が視認画像であり、他の画像が非視認画像である場合に、視認画像における死角に存在する物体が移動を伴う移動体であるか否かを判定する。そして、物体検出ECU20は、視認画像における死角に存在する物体が移動体である場合、当該物体が進行方向前方に近接するか否かを判定する。物体が移動を伴わない静止物であっても、自車両CSが走行することで物体の画角内での位置が変化し、画像内での物体の横方向の位置が変化する。そこで、当該物体が移動を伴う移動体であることを条件に、この物体が自車両CSに近接するか否かを判定することとした。上記構成により、静止している物体を接近判定の対象から除外することができるため、接近判定における判定精度を高めることができる。
物体検出ECU20は、死角に存在する物標Obの種別を少なくとも歩行者として判定し、物標Obが歩行者であることを条件に、物標Obが死角に存在しているか否かを判定する。歩行者は自動車等と比べて移動速度が遅いため、移動速度に基づいて歩行者の飛び出しを適正に判定できない恐れがある。そのため、物標Obが歩行者であることを条件に当該物体を候補物体として判定することとした。上記構成により、移動速度が遅い歩行者に対しても接近判定を適正に実施することができる。
(第2実施形態)
この第2実施形態では、物体検出ECU20は、画像内の死角領域DAを検出しこの死角領域DAに物体が存在するか否かを判定することに代えて、画像内の所定領域での物体の見え方に応じて死角が存在しこの死角に物体が存在するか否かを判定する。
右カメラ11と左カメラ12との撮像方向の違いにより、右画像Ri又は左画像Liいずれかの所定箇所でのみ物体が検出されている場合、進行方向前方の左右のいずれかに死角が存在していると判定できる。例えば、図9(a),(b)では、左画像Liの右端で物標Obが検出され、右画像Riの右端で物標Obが検出されていない。そのため、この第2実施形態では、死角判定部24は、自車両CSの進行方向において右側に死角が存在し、この死角に物標Obが存在していると判定する。同様に、図9(c),(d)に示すように、右画像Riの左端において物体が検出され、かつ左画像Liの左端において同じ物体が検出されない場合に、自車両CSの進行方向において左側に死角が存在し、この死角に物体が存在していると判定する。
そのため、図5のステップS13において、物体検出ECU20は、死角領域DAの検出に代えて、各画像Ri,Liの右端又は左端を、死角を検出するための検出用領域として設定する。例えば、図9では、検出用領域をそれぞれ点線で示している。そして、図5のステップS14において、左画像Liの右端で物標Obが検出され、かつ右画像Riの右端で物標Obが検出されない場合、又は、右画像Riの左端で物体が検出され、かつ左画像Liの左端で物体が検出されない場合、死角に物標Obが存在していると判定する。そして、右画像Ri及び左画像Liのそれぞれの画像差分に基づいて、物標Obが自車両CSの進行方向前方に接近しているか否かを判定する。
以上説明したようにこの第2実施形態では、各画像Ri,Liにおいて死角を構成する物体が存在しない場合でも、自車両CSの前方に存在する死角の有無を検出することが可能となる。
(その他の実施形態)
第1撮像部と第2撮像部とは、画角の異なるカメラ装置により構成されていてもよい。図10(a)では、画角が異なるカメラ13,14をそれぞれ車両横方向に配置している。このうち、広域カメラ13は、狭域カメラ14と比べて画角が広く、狭域カメラ14が撮像できない自車両CSの左右の領域を撮像することができる。
図10(a)に示す構成のカメラ装置において、自車両CSの右又は左に死角が存在し、かつこの死角に物標Obが存在している場合、物標Obが広域カメラ13の画角内に存在し、狭域カメラ14の画角外となる場合がある。そのため、物体検出ECU20は、図5のステップS14において、広域カメラ13からの画像で物標Obを検出し、狭域カメラ14からの画像で物標Obを検出しない場合、自車両CSの前方に死角が存在しこの死角に物体が存在していると判定する。
死角領域検出部23は、右画像Riと左画像Liとに基づいて視差画像を作成する際の、視差のマッチング情報を用いてもよい、視差画像が得られない場合は右画像Riと左画像Liに差異があり、死角領域が存在すると判定する。
なお、図10(a)では、広域カメラ13と狭域カメラ14とは、車両横方向での撮像軸を異ならせているが、自車両CSの上下方向で撮像軸を異ならせるよう配置していてもよい。また、図10(b)に示すように、画角が同じカメラ15とカメラ16とを車両の上下方向に配置し、各カメラ15,16の撮像軸の向きを異ならせるよう配置するものであってもよい。この場合においても、図5のステップS14において、例えば、カメラ15で撮像された画像の右端で物標Obを検出し、カメラ16で撮像された画像の右端で物標Obを検出しない場合に、物体検出ECU20は、自車両CSの前方に死角が存在しこの死角に物標Obが存在していると判定する。
各画像Ri,Liの差分として、物標Obの面積を用いるものであってもよい。物標Obが死角領域DAから両カメラ11,12で撮像できる位置へ移動することで、死角領域DAの周囲において、物標Obとして検出される面積(画素数)が増加する。そのため、図5のステップS19,S20において、視認画像と非視認画像との死角領域DAの周囲での面積の変化に応じて、物標Obが自車両CSの進行方向前方に接近しているか否かを判定する。
図5のステップS13において自車両CSが走行する路肩に停車している自動車の位置に基づいて死角領域DAの存在を判定する場合に、この自動車の移動ベクトルに基づいて自動車が停止しているか否かを判定するものであってもよい。例えば、動きベクトルは、時系列の異なる複数の右画像Ri又は左画像Liから周知のブロックマッチングや勾配法を用いて算出される。
接近判定の対象となる対象を歩行者に代えて自転車としてもよい。この場合、図5のステップS15において、物標Obとして自転車が検出されたことを条件に、物体検出ECU20は、近接判定を実施する。また、歩行者と自転車との両者を接近判定の対象としてもよい。
図5のステップS15において、死角領域DAに存在する物体の速度及び位置の時系列での変化を示す動きベクトルを算出し、この動きベクトルを用いて死角領域DAに存在する物体が移動体であるか否かを判定してもよい。また、動きベクトルの算出により死角領域DAに存在する物体が自車両CSの進行方向前方から遠ざかる方向に移動している場合に、この物体が自車両CSの進行方向前方に接近する可能性が低いとして、図5の処理を一旦終了するものであってもよい。例えば、動きベクトルの算出方法は、周知のブロックマッチングや勾配法を用いて算出することができる。物体の速度及び位置に基づいて、当該物体が移動を伴う移動体であること又は自車両CSに近づく物体であることを条件に、この物体が自車両CSに近接するか否かを判定することで、接近判定における判定精度を高めることができる。
11…右カメラ、12…左カメラ、20…物体検出ECU、21…画像取得部、24…死角判定部、25…画像保持部、26…差分取得部、27…接近判定部、DA…死角領域、Ob…物標。

Claims (5)

  1. 車両に設けられた第1撮像部(11)及び第2撮像部(12)から前記車両の進行方向前方の撮像画像を取得する画像取得部と、
    前記第1撮像部及び前記第2撮像部のうちのいずれか一方の撮像部で撮像された画像に物体が検出され、かつ他方の撮像部で撮像された画像に前記物体が検出されないことを条件に、前記進行方向前方に前記他方の撮像部から見た死角が存在し、かつ前記死角に前記物体が存在している判定する死角判定部と、
    前記死角に前記物体が存在していると判定された場合に、前記各撮像部により撮像された各画像を時系列で保持する画像保持部と、
    前記保持された時系列の各画像における特徴量の違いを画像差分として取得する差分取得部と、
    前記画像差分に基づいて、前記物体が前記車両の進行方向前方に接近するか否かを判定する接近判定部と、を備える物体検出装置。
  2. 前記接近判定部は、前記一方の撮像部で撮像された画像について前記画像差分から前記物体が見えている状態が維持されていると認識され、かつ前記他方の撮像部で撮像された画像について前記画像差分から前記物体が見えていない状態から見える状態になったと認識された場合に、前記物体が前記進行方向前方に接近していると判定する、請求項1に記載の物体検出装置。
  3. 前記一方の撮像部で撮像された画像における前記物体が移動を伴う移動体であるか否かを判定する移動体判定部を有し、
    前記接近判定部は、前記一方の撮像部で撮像された画像における前記物体が前記移動体であることを条件に、当該物体が前記進行方向前方に近接するか否かを判定する、請求項2に記載の物体検出装置。
  4. 前記死角に存在する物体の種別を少なくとも歩行者又は自転車として判定する種別判定部を有し、
    前記死角判定部は、前記物体が前記歩行者又は前記自転車であることを条件に、前記物体が前記死角に存在しているか否かを判定する、請求項1から請求項3のいずれか一項に記載の物体検出装置。
  5. 車両に設けられた第1撮像部(11)及び第2撮像部(12)から前記車両の進行方向前方の撮像画像を取得する画像取得工程と、
    前記第1撮像部及び前記第2撮像部のうちのいずれか一方の撮像部で撮像された画像に物体が検出され、かつ他方の撮像部で撮像された画像に前記物体が検出されないことを条件に、前記進行方向前方に前記他方の撮像部から見た死角が存在し、かつ前記死角に前記物体が存在している判定する死角判定工程と、
    前記死角に前記物体が存在していると判定された場合に、前記各撮像部により撮像された各画像を時系列で保持する画像保持工程と、
    前記保持された時系列の各画像における特徴量の違いを画像差分として取得する差分取得工程と、
    前記画像差分に基づいて、前記物体が前記車両の進行方向前方に接近するか否かを判定する接近判定工程と、を備える物体検出方法。
JP2016116575A 2016-06-10 2016-06-10 物体検出装置、及び物体検出方法 Active JP6722051B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016116575A JP6722051B2 (ja) 2016-06-10 2016-06-10 物体検出装置、及び物体検出方法
US15/617,636 US20170357863A1 (en) 2016-06-10 2017-06-08 Object detection apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016116575A JP6722051B2 (ja) 2016-06-10 2016-06-10 物体検出装置、及び物体検出方法

Publications (2)

Publication Number Publication Date
JP2017220178A JP2017220178A (ja) 2017-12-14
JP6722051B2 true JP6722051B2 (ja) 2020-07-15

Family

ID=60572924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016116575A Active JP6722051B2 (ja) 2016-06-10 2016-06-10 物体検出装置、及び物体検出方法

Country Status (2)

Country Link
US (1) US20170357863A1 (ja)
JP (1) JP6722051B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7052312B2 (ja) * 2017-11-20 2022-04-12 トヨタ自動車株式会社 運転支援装置
US10300851B1 (en) * 2018-10-04 2019-05-28 StradVision, Inc. Method for warning vehicle of risk of lane change and alarm device using the same
JP7115420B2 (ja) * 2019-05-23 2022-08-09 株式会社デンソー 画像処理装置
US20240217509A1 (en) * 2019-09-04 2024-07-04 Jinan Zhenzhen Technology Research Institute System and method for controlling vehicle
JP7487460B2 (ja) * 2019-09-26 2024-05-21 株式会社Jvcケンウッド 運転支援装置、運転支援方法、および運転支援プログラム
JP7347330B2 (ja) * 2020-05-27 2023-09-20 トヨタ自動車株式会社 車両周辺監視装置
CN113065393B (zh) * 2021-02-25 2024-04-02 惠州华阳通用电子有限公司 一种基于后视摄像头的盲区监测方法
CN116184992A (zh) * 2021-11-29 2023-05-30 上海商汤临港智能科技有限公司 车辆控制方法、装置、电子设备及存储介质
WO2024071295A1 (ja) * 2022-09-29 2024-04-04 住友重機械工業株式会社 情報処理装置、プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06110552A (ja) * 1992-09-25 1994-04-22 Toshiba Corp 移動体追跡装置
US6396397B1 (en) * 1993-02-26 2002-05-28 Donnelly Corporation Vehicle imaging system with stereo imaging
JP2005309797A (ja) * 2004-04-22 2005-11-04 Nissan Motor Co Ltd 歩行者警報装置
JP2008242571A (ja) * 2007-03-26 2008-10-09 Honda Motor Co Ltd 物体検出装置
JP5387531B2 (ja) * 2010-08-26 2014-01-15 株式会社デンソー 走行支援装置
JP6266238B2 (ja) * 2013-07-03 2018-01-24 クラリオン株式会社 接近物検出システム、及び車両

Also Published As

Publication number Publication date
JP2017220178A (ja) 2017-12-14
US20170357863A1 (en) 2017-12-14

Similar Documents

Publication Publication Date Title
JP6722051B2 (ja) 物体検出装置、及び物体検出方法
US20170297488A1 (en) Surround view camera system for object detection and tracking
US11014566B2 (en) Object detection apparatus
US10668919B2 (en) Object detection apparatus and object detection method
JP6407626B2 (ja) 物体認識装置及び車両制御システム
EP2963615B1 (en) Imaging device, and vehicle control device
US10960877B2 (en) Object detection device and object detection method
EP2894618B1 (en) Speed calculating device and speed calculating method, and collision determination device
WO2017171082A1 (ja) 車両制御装置、車両制御方法
JP6380232B2 (ja) 物体検出装置、及び物体検出方法
JP6669090B2 (ja) 車両制御装置
JP2017111684A (ja) 制御装置、制御方法
JP2017213943A (ja) 駐車支援装置及び駐車支援方法
CN107950023B (zh) 车辆用显示装置以及车辆用显示方法
JP6722084B2 (ja) 物体検出装置
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
JP2012064026A (ja) 車両用対象物検出装置、およびその方法
JP2012164275A (ja) 画像認識装置
JP3868915B2 (ja) 前方監視装置及びその方法
JP6531689B2 (ja) 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法
JP2001082954A (ja) 画像処理装置及び画像処理測距方法
CN109308442B (zh) 车外环境识别装置
JP5717416B2 (ja) 運転支援制御装置
JP2018097689A (ja) 車両制御装置、車両制御方法
US10857998B2 (en) Vehicle control device operating safety device based on object position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250