JP5445719B2 - 画像表示装置及び画像表示方法 - Google Patents
画像表示装置及び画像表示方法 Download PDFInfo
- Publication number
- JP5445719B2 JP5445719B2 JP2013513322A JP2013513322A JP5445719B2 JP 5445719 B2 JP5445719 B2 JP 5445719B2 JP 2013513322 A JP2013513322 A JP 2013513322A JP 2013513322 A JP2013513322 A JP 2013513322A JP 5445719 B2 JP5445719 B2 JP 5445719B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- screen
- display
- vehicle
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 24
- 230000002093 peripheral effect Effects 0.000 claims description 35
- 238000001514 detection method Methods 0.000 description 70
- 238000013459 approach Methods 0.000 description 44
- 230000003287 optical effect Effects 0.000 description 24
- 238000012937 correction Methods 0.000 description 6
- 230000004075 alteration Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/26—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
- B60R2300/305—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
本発明の一実施形態は、車両の周辺画像を表示する画像表示装置及び画像表示方法に関する。
微低速走行時において、自車両による死角及び壁や隣接する他車両等の遮蔽物による死角によって、ドライバーが見たい場所が目視によって見えない場合がある。そこで、自車両による死角や遮蔽物による死角をカメラで撮影し、撮影した画像をディスプレイとを用いて表示する装置が提案されている。例えば、特許文献1の装置では、180°の視角を有する広角カメラで撮影した画像について、通常時は180°の視角中の120°の範囲をディスプレイに表示して駐車支援画像とする。障害物が検出されたときは、この装置は180°の広角の範囲をディスプレイに表示して駐車支援画像とする。
ところで、車両近傍の物体を検出する方法としては、レーダ、ライダ、ソナー及び画像認識が知られている。カメラにより撮影された画像を用いて障害物の存在をドライバーに知らせるシステムを考えると、画像認識は他のセンサ等の装置を取り付ける必要がない。
画像認識により物体を検出する方法としては、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出するパターンマッチングによる方法と、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出するオプティカルフローによる方法とが考えられる。しかし、パターンマッチングは数十mはなれた物体を検出することが困難である。また、オプティカルフローは静止物を検出することができない。したがって、従来の装置は、物体の位置、速度及び種類に応じて適切に物体を検出して表示する点で改善の余地がある。
本発明の一実施形態は、このような実情を考慮してなされたものであり、その目的は、物体の位置、速度及び種類に応じてより適切に物体を検出して表示することができる画像表示装置及び画像表示方法を提供することにある。
本発明の一実施形態は、車両の周辺画像を取得する画像取得ユニットと、画像取得ユニットが取得した周辺画像を表示する画像表示ユニットとを備え、画像表示ユニットは、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、中央画面の周辺画像について、周辺画像と所定のパターンとの照合を行うことにより周辺画像に写った物体を検出し、左側方画面及び右側方画面の周辺画像について、周辺画像中の点が時間の経過とともに動く方向と速さとを解析することにより周辺画像に写った物体を検出し、検出された物体の存在を示す運転支援表示を表示する画像表示装置である。
この構成によれば、車両の周辺画像を取得する画像取得ユニットと、画像取得ユニットが取得した周辺画像を表示する画像表示ユニットとを備えた運転支援表示装置において、画像表示ユニットは、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、中央画面の周辺画像について、周辺画像と所定のパターンとの照合を行うことにより周辺画像に写った物体を検出し、左側方画面及び右側方画面の周辺画像について、周辺画像中の点が時間の経過とともに動く方向と速さとを解析することにより周辺画像に写った物体を検出し、検出された物体の存在を示す運転支援表示を表示する。このため、車両正面近傍で停止している人、車両が移動しているときに車両正面近傍に存在する人等を周辺画像と所定のパターンとの照合を行うパターンマッチングの手法で検出し、検出した人等の存在をドライバーに報知することができる。また、車両側方の遠方から接近してくる人及び車両等を周辺画像中の点が時間の経過とともに動く方向と速さとを解析するオプティカルフローの手法により検出し、検出した人及び車両等の存在をドライバーに報知することができる。したがって、物体の位置、速度及び種類に応じてより適切に物体を検出して表示することができる。
この場合、画像表示ユニットは、中央画面の周辺画像に写った物体を検出したときは、物体を囲む枠を運転支援表示として表示し、左側方画面及び右側方画面のいずれかの周辺画像に写った物体を検出したときは、物体が検出された左側方画面及び右側方画面のいずれかの少なくとも一部を囲む枠を運転支援表示として表示することができる。
この構成によれば、画像表示ユニットは、中央画面の周辺画像に写った物体を検出したときは、物体を囲む枠を運転支援表示として表示し、左側方画面及び右側方画面のいずれかの周辺画像に写った物体を検出したときは、物体が検出された左側方画面及び右側方画面のいずれかの少なくとも一部を囲む枠を運転支援表示として表示する。これにより、ドライバーは、中央画面と、左側方画面及び右側方画面とで物体を検出する手法が異なることを認識することができる。
また本発明の一実施形態は、車両の周辺画像を取得する画像取得工程と、画像取得工程で取得した周辺画像を表示する画像表示工程とを含み、画像表示工程は、周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、中央画面の周辺画像について、周辺画像と所定のパターンとの照合を行うことにより周辺画像に写った物体を検出し、左側方画面及び右側方画面の周辺画像について、周辺画像中の点が時間の経過とともに動く方向と速さとを解析することにより周辺画像に写った物体を検出し、検出された物体の存在を示す運転支援表示を表示する画像表示方法である。
本発明の一実施形態によれば、速度及び種類に応じてより適切に物体を検出して表示することができる。
以下、図面を参照して本発明の実施形態に係る画像表示装置及び画像表示方法について説明する。図1に示すように、本実施形態の画像表示装置は運転支援表示装置1として構成されている。運転支援表示装置1は、後方広角カメラ11、車速センサ12、操舵角センサ13、ECU20及びディスプレイ30を備えている。本実施形態の運転支援表示装置1は、車両に備えられ、車両の後方の画像をドライバーに提供するものである。
後方広角カメラ11は、車両の後方の画像を撮影するための1台のカメラである。後方広角カメラ11は、視角が180°程度の広角カメラである。車速センサ12は、車両の車速を検出するセンサである。例えば車速センサ12は、車両の車軸の回転速度を検出することにより、車両の車速を検出する。操舵角センサ13は、車両の操舵角を検出するセンサである。シフト位置センサは、車両のトランスミッションのシフト位置が後退(Reverse:R)の位置にあるか否かを検出するセンサである。
ECU(Electronic Control Unit)20は、運転支援表示1を統括的に制御する。ECU20は、CPU(Central Processing Unit]、ROM(Read Only Memory)、RAM(Random Access Memory)などからなる電子制御ユニットである。ECU2では、ROMに記憶されているアプリケーションプログラムをRAMにダウンロードし、CPUで実行することで、画像表示に係る各種演算処理を実行する。
ECU20は、その機能ごとに分類した場合には、移動物体検出部21、移動物軌道検出部22、移動物体位置・相対速度検出部23、危険度推定部24及び表示制御部25を有している。
移動物体検出部21は、後述するように、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出するパターンマッチングによる方法と、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出するオプティカルフローによる方法とにより、後方広角カメラ11により撮影された画像中の物体を検出する。なお、後述するように、パターンマッチングにより物体を検出する場合には、移動物体検出部21は静止物体を検出することもできる。
移動物軌道検出部22は、移動物体検出部21により検出された画像中の物体の位置及び動きと、車速センサ12及び操舵角センサ13により検出された車両の動きとから、画像中の物体の軌道を検出する。
移動物体位置・相対速度検出部23は、移動物軌道検出部22により検出された画像中の物体の軌道に基づいて、画像中の物体の位置及び車両との相対速度を検出する。
危険度推定部24は、移動物体位置・相対速度検出部23により検出された画像中の物体の位置及び相対速度に基づいて、画像中の物体の危険度を推定する。
表示制御部25は、後述するように、移動物体位置・相対速度検出部23により検出された物体の位置及び相対速度と、危険度推定部24により推定された危険度と、車速センサ12、操舵角センサ13及びシフト位置センサ14により検出された車両の状態とから、ドライバーの運転を支援するための運転支援表示をディスプレイ30に表示する。
ディスプレイ30は、後方広角カメラ11により撮影された後方画像を表示する。ディスプレイ30は、例えば、運転席近傍に設けられるモニタや、フロントガラス等に画像を表示するヘッドアップディスプレイを使用することができる。
なお、本実施形態では、運転支援表示装置1は、後方広角カメラ11により撮影された画像に対する画像認識により車両近傍の物体を検出する。しかし、車両近傍の物体を検出するために、別途、レーダ、ライダ、ソナー等のセンサを備えていても良い。
以下、本実施形態の運転支援表示装置1の動作について説明する。図2に示すように、本実施形態の運転支援表示装置1は、自車両100が後退しつつ駐車位置から道路に出る場合、及び自車両100が後退しつつ駐車位置に駐車する場合に、自車両100の後方を見ることが難しいドライバーの運転を支援するために適用される。運転支援表示装置1は、後方広角カメラ11の撮像範囲である支援エリアA内の他車両V等を検出し、ドライバーに報知する。
まず、本実施形態の運転支援表示装置1の基本的な動作について説明する。図3に示すように、本実施形態の運転支援表示装置1は、シフト位置センサ14が自車両100のトランスミッションのシフト位置が後退の位置にある間に作動状態となる(S101)。
運転支援表示装置1のECU20の表示制御部25は、車速センサ12及び操舵角センサ13の検出値が運転支援表示装置1の運転支援システムの内で側方からの移動物を報知するシステムの作動条件であるか否かを判定する(S102)。
移動物を検出する方法としては、レーダ、ライダ、ソナー及び画像認識等があるが、センサの性能や画像認識の精度により、自車両100の速度や操舵角等の条件によっては誤検知又は未検知等の恐れがある。誤検出及び未検出はドライバーが運転支援表示装置1の運転支援システムに不信を抱く。そのため、本実施形態では、側方からの移動物を報知する運転支援システムを速度や舵角が所定の閾値以上になった場合は非作動とする。
例えば図2に示す状況のように自車両100が発進するときにのみ、運転支援表示装置1が自車両100側方の移動物体をドライバーに報知する場合は、速度が0km/h近傍である場合又は速度が0.1〜3km/h以下又は4km/h以下である場合を自車両100側方の移動物体をドライバーに報知する運転支援システムの作動条件にできる。
側方の移動物体を報知する運転支援システムの作動条件である場合は(S102)、表示制御部25はディスプレイ30に、後方広角カメラ11により撮影された画像を3分割して表示する(S103)。図4の表示画面200に示すように、後方広角カメラ11により撮影された元の画像は180°の視角を有する。画像の左右端部は広角レンズの収差により、左右端部に向かうほど小さく上方に見える歪みが生じている。
本実施形態では、図5に示すように、表示画面200に、後方広角カメラ11により撮影された画像を左右の後側方画面204及び中央の後方画面202に3分割して表示する。左右の後側方画面204及び中央の後方画面202の間は、後方広角カメラ11により撮影された画像が分割されていることがドライバーに判り易いように所定の間隔が隔てられている。この場合の間隔は、2〜10mm程度とすることができる。
表示制御部25は、左右の後側方画面204の画像に対して広角レンズの収差による歪みを補正する歪み補正を施す。表示制御部25は、左右の後側方画面204に施した歪み補正に対応して、左右の後側方画面204を画面の左右に垂直な対辺を有する台形に表示する。表示制御部25は、左の後側方画面204の左側方及び右の後側方画面204の右側方ほど、後側方画面204の上下の幅が狭くなるように表示する。また、表示制御部25は、左の後側方画面204の上下の辺は左上方を向き、右の後側方画面204の上下の辺は右上方を向くように表示する。
表示制御部25は、中央の後方画面202を長方形となるように表示する。表示制御部25は、左右の後側方画面204及び中央の後方画面202の画像が自車両100のどの位置の画像であるのかを示す表示範囲シンボル206を表示する。また、表示制御部25は、自車両100の後退時にドライバーが運転の基準とするための車幅ライン208を中央の後方画面202に表示する。これにより、左右の後側方画面204及び中央の後方画面202の画像はそれぞれ異なる画像となる。
運転支援表示装置1のECU20の移動物体検出部21が後述するオプティカルフローの手法により、他車両V等の移動物体を検出したときは(S104)、表示制御部25は、図6に示すように、他車両Vが自車両100に接近してくる側の後側方画面204及び後方画面202の一部を他車両Vが接近してくる方向から囲む移動物接近検出枠210を表示する(S105)。移動物接近検出枠210が囲む範囲は、後側方画面204及び後方画面202の画像中におけるオプティカルフローによる検知範囲を示している。なお、本実施形態では、自車両100近傍に歩行者等の静止物体が存在する場合もドライバーに報知するがその際の動作については後述する。
車速又は舵角が所定の閾値を越えており、側方の移動物体を報知する運転支援システムの作動条件を満たさないときは(S102)、表示制御部25は運転支援システムの一部を作動させず、図7に示すように中央の後方画面202のみを表示する(S106)。この場合、図8に示すように、ドライバーは、他車両V等の物体が自車両100近傍に接近してきたことは、後方画面202により確認可能である。そのため、側方の移動物体を報知する運転支援システムの非作動時であっても、自車両100の後退時の運転を支援するモニタとして運転支援表示装置1を利用することができる。さらに、側方の移動物体を報知する運転支援システムの非作動時であっても、後述するパターンマッチングによる手法により、中央の後方画面202の画像中の歩行者等は検出され、ドライバーに報知される。
以下、本実施形態の運転支援表示装置1の物体を検出する動作について説明する。図9に示すように、本実施形態では、後側方画面204に表示される範囲であるオプティカルフロー支援エリアAopでは、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出するオプティカルフローによる物体の検出が行われる。一方、後方画面202に表示される範囲であるパターンマッチング支援エリアApmでは、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出するパターンマッチングによる物体の検出が行われる。
図9の例では、オプティカルフロー支援エリアAopから自車両100に他車両Vが接近しており、運転支援表示装置1のECU20の移動物体検出部21は、オプティカルフローにより、他車両Vを検出する。図10の例では、オプティカルフロー支援エリアAopから自車両100に他車両V及び歩行者Pが接近しており、移動物体検出部21は、オプティカルフローにより、他車両V及び歩行者Pを検出する。いずれの例でも、オプティカルフロー支援エリアAopでは、遠方から接近する移動物体を検出可能である。オプティカルフロー支援エリアAopでは静止物体は検出不可能である。しかし、自車両100近傍でなければ、静止物体が自車両100に接触する可能性は無いため、オプティカルフロー支援エリアAopでは、移動物体のみをオプティカルフローによる方法により検出する。
図11の例では、パターンマッチング支援エリアApmから自車両100に歩行者Pが接近しており、運転支援表示装置1のECU20の移動物体検出部21は、パターンマッチングにより、歩行者Pを検出する。図12の例では、パターンマッチング支援エリアApmから自車両100に移動中の歩行者P及び静止中の歩行者Pが存在しており、移動物体検出部21は、パターンマッチングにより、歩行者Pそれぞれを検出する。いずれの例でも、パターンマッチング支援エリアApmでは、自車両100近傍の移動物体及び静止物体を検出可能である。パターンマッチング支援エリアApmでは、自車両100が移動する範囲であり、静止物体が自車両100に接触する可能性があるため、静止物体も検出する必要がある。パターンマッチング支援エリアApmでは、移動物体検出部21は、照合するためのパターンとして主に人のパターンと画像中の物体との照合を行う。なお、自車両100近傍についてはソナーによって静止物体を検出することでも対応可能である。
図13に示すように、運転支援表示装置1のECU20の移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出した場合(S202)、ECU20の危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S203)。ECU20の表示制御部25は、危険度を基に図14に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210と歩行者Pを囲む歩行者検出枠212とを後方画面202及び後側方画面204に点滅させつつ表示する(S204)。
危険度推定部24は、物体の位置が自車両100から近いほど、当該物体の危険度を高く推定する。危険度推定部24は、物体の自車両100との相対速度が大きいほど、当該物体の危険度を高く推定する。表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212を表示する時期を早くする。表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212を点滅させる間隔を短くする。
あるいは、表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212の輝度が高くなるように表示することができる。あるいは、表示制御部25は、危険度推定部24が推定した危険度が高いほど、移動物接近検出枠210及び歩行者検出枠212の色を変化させて表示することができる。例えば、表示制御部25は、危険度推定部24が推定した危険度が高くなるほど、青色、黄色から赤色に変化させて表示することができる。
移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出していない場合(S202)、危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S205)。表示制御部25は、上述したように危険度を基にして、図6に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210を後側方画面204に点滅させつつ表示する(S206)。
移動物体検出部21がオプティカルフロー支援エリアAop内であり且つ支援エリアA内に他車両V又は人等の移動物体が接近していることを検出した場合であって(S201)、移動物体検出部21がパターンマッチング支援エリアApm内であり且つ支援エリアA内に歩行者P等の物体が存在していることを検出した場合(S207)、危険度推定部24は、物体の位置及び相対速度から危険度を推定する(S208)。表示制御部25は、上述したように危険度を基にして、図15に示すような他車両Vが接近する側の後側方画面204の一部を囲む移動物接近検出枠210と歩行者Pを囲む歩行者検出枠212とを後方画面202及び後側方画面204に点滅させつつ表示する(S204)。
本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示するため、ドライバーはどこを表示しているのかが判り易くなる。また、表示制御部25及びディスプレイ30は、左右の後側方画面204及び中央の後方画面202で同じ画像を表示しなくなるため、ドライバーは後方画像中の物体と自車両100との距離が判り易くなる。また、表示制御部25は、左右の後側方画面204に表示される後方画像の歪みを補正する歪み補正を施すため、ドライバーは歪曲を補正した見易い後方画像を見ることができる。また、表示制御部25は、左右の後側方画面204の形状を歪み補正に応じた形状とするため、ドライバーは後方画像中の物体がどこから接近しているのかが判り易くなる。
また、表示制御部25は、左右の後側方画面204に表示される周辺画像の広角レンズの収差による歪みを補正する歪み補正を施し、左の後側方画面204の左側方及び右の後側方画面204の右側方ほど後側方画面204の上下の幅を狭くし、左の後側方画面204の上下の辺は左側上方を向いた形状とし、右の後側方画面204の上下の辺は右側上方を向いた部分を有する台形とする。このため、そのため、ドライバーは後方画像がどこを写しているのかが判り易くなる。また、ドライバーは、後方画像中の物体がどこから接近して来るのかが判り易くなる。
また、表示制御部25は、左右の後側方画面204及び中央の後方画面202それぞれの間に間隔を空けて表示する。このため、ドライバーは、左右の後側方画面204及び中央の後方画面202それぞれが分割されていることが判り易い。
また、表示制御部25は、左右の側方画面204のいずれかの後方画像に写った物体が自車両100に接近するときは、物体の接近を示す移動物接近検出枠210を表示する。このため、ドライバーは中央の後方画面202を注視していたとしても、側方から接近する物体に気付き易い。
すなわち、本実施形態では、中央の後方画面202を大きくすることにより、表示画面200をバックガイドモニターとして使用しやすい。後方画面202を大きくし、後側方画面204を小さく表示することにより、側方から接近する物体は画面で小さくなる。しかし、ドライバーが中央の後方画面202を注視していたとしても、ドライバーは側方から接近する物体を移動物接近検出枠210により気付き易い。また、本実施形態では、画面を通常から広角へ切り替える煩わしさがない。
また、本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を複数の画面に分割して表示しつつ、自車両100のドライバーの運転を支援する移動物接近検出枠210及び歩行者検出枠212を表示することが可能であり、移動物接近検出枠210を表示するときと、移動物接近検出枠210を表示しないときとで、表示する画面の数を変更する。このため、ドライバーは、移動物接近検出枠210を表示するシステムの作動時と非作動時とをより認識し易くなる。
また、表示制御部25は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示することが可能であり、移動物接近検出枠210及び歩行者検出枠212を表示するときは、左右の後側方画面204及び中央の後方画面202を表示し、移動物接近検出枠210を表示しないときは、中央の後方画面202のみを表示する。このため、ドライバーは、移動物接近検出枠210を表示するシステムの作動時と非作動時とを認識し易い。また、移動物接近検出枠210を表示するシステムの非作動時にも、中央の後方画面202は表示されるため、中央の後方画面202を後方監視のために用いることができる。
また、表示制御部25は、左右の後側方画面204に写った物体が自車両100に接近するときに物体の接近を示す移動物接近検出枠210を表示する。このため、ドライバーは中央画面を注視していたとしても、側方から接近する物体に気付き易い。
また、表示制御部25は、自車両100の速度及び舵角のいずれかが所定の閾値以上のときは、移動物接近検出枠210を表示しない。物体の接近を検知する手法としては、レーダ、ライダ、ソナー及び画像認識等があるが、車両の速度や舵角が大きい場合は誤検知や未検知等の恐れがある。誤検知や未検知はドライバーのシステムへの不信にもつながる。そのため、自車両100の速度及び舵角が閾値以上のときに移動物接近検出枠210を表示しないことにより、自車両100に接近する物体の誤検知や未検知を防止することができる。
また、本実施形態によれば、後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示し、中央の後方画面202の画像について、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出し、左右の後側方画面204の画像について、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出し、検出された物体の存在を示す移動物接近検出枠210又は歩行者検出枠212を表示する。このため、自車両100正面近傍で停止している人、自車両100が移動しているときに自車両100正面近傍に存在する人等を画像と所定のパターンとの照合を行うパターンマッチングの手法で検出し、検出した人等の存在をドライバーに報知することができる。また、自車両100側方の遠方から接近してくる人及び車両等を画像中の点が時間の経過とともに動く方向と速さとを解析するオプティカルフローの手法により検出し、検出した人及び車両等の存在をドライバーに報知することができる。したがって、物体の位置、速度及び種類に応じてより適切に物体を検出して表示することができる。
また、表示制御部25は、中央の後方画面202の画像に写った歩行者Pを検出したときは、歩行者Pを囲む歩行者検出枠212を表示し、左右の後側方画面204いずれかの画像に写った物体を検出したときは、物体が検出された左右の後側方画面204いずれかの少なくとも一部を囲む移動物接近検出枠210を表示する。これにより、ドライバーは、中央の後方画面202と、左右の後側方画面204とで物体を検出する手法が異なることを認識することができる。つまり、中央の後方画面202と、左右の後側方画面204とで枠の囲み方を変えることで、中央の後方画面では人しか検出しないことをドライバーに知らせることができる。
ドライバーは、側方は主に発進時に確認し、後方中央は発進時及び移動時に確認することが多い。移動時の場合、より素早く物体を確認する必要があるため、物体を歩行者検出枠212で囲むことによって、物体の位置も認識することができる。
尚、本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、上記実施形態での運転支援表示装置1の処理負荷が高い場合は、図16に示すように、後側方画面204’の大きさを歪み補正に合せて小さくするだけでも良い。上述したように、移動物を検知したことをドライバーに報知する移動物接近検出枠210は、物体を検出した範囲によって変更する。後側方画面204’内の場合は後側方画面204’のみに移動物接近検出枠210を表示しても良い。
また、上記実施形態では、運転支援システムの非作動時に後側方画面204を消去した。しかし、運転支援システムの非作動時に後側方画面204を消去してしまうと、ドライバーによっては後側方画面204を見たいにも関わらず見れないと感じる場合もある。このため、図17に示すように、運転支援システムの非作動時に、後側方画面204を表示しつつ、後側方画面204に非作動表示ライン214を表示することもできる。
上記の本発明の一実施形態の画像表示装置及び画像表示方法によれば、速度及び種類に応じてより適切に物体を検出して表示することができる。
1 運転支援表示装置
11 後方広角カメラ
12 車速センサ
13 操舵角センサ
14 シフト位置センサ
20 ECU
21 移動物体検出部
22 移動物軌道検出部
23 移動物体位置・相対速度検出部
24 危険度推定部
25 表示制御部
30 ディスプレイ
100 自車両
200 表示画面
202 後方画像
204,204’ 後側方画像
206 表示範囲シンボル
208 車幅ライン
210 移動物接近検出枠
212 歩行者検出枠
214 非作動表示ライン
A…支援エリア
Aop…オプティカルフローエリア
Apm…パターンマッチングエリア
V…他車両
P…歩行者
11 後方広角カメラ
12 車速センサ
13 操舵角センサ
14 シフト位置センサ
20 ECU
21 移動物体検出部
22 移動物軌道検出部
23 移動物体位置・相対速度検出部
24 危険度推定部
25 表示制御部
30 ディスプレイ
100 自車両
200 表示画面
202 後方画像
204,204’ 後側方画像
206 表示範囲シンボル
208 車幅ライン
210 移動物接近検出枠
212 歩行者検出枠
214 非作動表示ライン
A…支援エリア
Aop…オプティカルフローエリア
Apm…パターンマッチングエリア
V…他車両
P…歩行者
Claims (1)
- 車両の周辺画像を取得する画像取得ユニットと、
前記画像取得ユニットが取得した前記周辺画像を表示する画像表示ユニットと、
を備え、
前記画像表示ユニットは、
前記周辺画像を左側方画面、中央画面及び右側方画面に分割して表示し、
前記中央画面の前記周辺画像について、前記周辺画像と所定のパターンとの照合を行うことにより前記周辺画像に写った物体を検出し、
前記左側方画面及び前記右側方画面の前記周辺画像について、前記周辺画像中の点が時間の経過とともに動く方向と速さとを解析することにより前記周辺画像に写った物体を検出し、
前記中央画面の前記周辺画像に写った前記物体を検出したときは、前記物体を囲む枠を前記物体の存在を示す運転支援表示として表示し、
前記左側方画面及び前記右側方画面のいずれかの前記周辺画像に写った前記物体を検出したときは、前記物体が検出された前記左側方画面及び前記右側方画面のいずれかの少なくとも一部を囲む枠を前記運転支援表示として表示する、画像表示装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/072469 WO2013046409A1 (ja) | 2011-09-29 | 2011-09-29 | 画像表示装置及び画像表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5445719B2 true JP5445719B2 (ja) | 2014-03-19 |
JPWO2013046409A1 JPWO2013046409A1 (ja) | 2015-03-26 |
Family
ID=47994516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013513322A Active JP5445719B2 (ja) | 2011-09-29 | 2011-09-29 | 画像表示装置及び画像表示方法 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP2763403B1 (ja) |
JP (1) | JP5445719B2 (ja) |
WO (1) | WO2013046409A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6266238B2 (ja) | 2013-07-03 | 2018-01-24 | クラリオン株式会社 | 接近物検出システム、及び車両 |
JP6643659B2 (ja) | 2014-04-09 | 2020-02-12 | パナソニックIpマネジメント株式会社 | 表示制御装置、表示制御方法、および表示制御プログラム |
CN105469535A (zh) * | 2014-08-25 | 2016-04-06 | 中兴通讯股份有限公司 | 一种周围环境的反馈方法及终端 |
KR101977090B1 (ko) | 2015-07-22 | 2019-05-10 | 엘지전자 주식회사 | 차량 제어 장치 및 이를 구비한 차량의 제어방법 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4793307B2 (ja) * | 2007-04-03 | 2011-10-12 | 株式会社デンソー | 車両周辺監視装置 |
JP4985250B2 (ja) | 2007-09-06 | 2012-07-25 | 株式会社デンソー | 駐車支援装置 |
JP5410730B2 (ja) * | 2008-10-09 | 2014-02-05 | 日立オートモティブシステムズ株式会社 | 自動車の外界認識装置 |
JP2010109483A (ja) * | 2008-10-28 | 2010-05-13 | Honda Motor Co Ltd | 車両周辺表示方法 |
JP5483535B2 (ja) * | 2009-08-04 | 2014-05-07 | アイシン精機株式会社 | 車両周辺認知支援装置 |
-
2011
- 2011-09-29 JP JP2013513322A patent/JP5445719B2/ja active Active
- 2011-09-29 WO PCT/JP2011/072469 patent/WO2013046409A1/ja active Application Filing
- 2011-09-29 EP EP11873147.0A patent/EP2763403B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2013046409A1 (ja) | 2013-04-04 |
EP2763403B1 (en) | 2018-08-15 |
EP2763403A1 (en) | 2014-08-06 |
JPWO2013046409A1 (ja) | 2015-03-26 |
EP2763403A4 (en) | 2015-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5871006B2 (ja) | 画像表示装置及び画像表示方法 | |
JP5895941B2 (ja) | 画像表示装置及び画像表示方法 | |
JP5741173B2 (ja) | 画像表示装置、及び、画像表示方法 | |
US10618467B2 (en) | Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle | |
EP2775467A1 (en) | Obstacle alert device | |
US20200207268A1 (en) | Vehicular parking assist system using backup camera | |
CN107004250B (zh) | 图像生成装置及图像生成方法 | |
JP5445719B2 (ja) | 画像表示装置及び画像表示方法 | |
JP2011150475A (ja) | 周辺監視装置 | |
JP6166188B2 (ja) | 撮像システム、および撮像システムの制御方法 | |
JP2000016181A (ja) | カメラ付ドアミラー及び車両周辺認識システム | |
JP2009246808A (ja) | 車両用周辺監視装置 | |
JP2005309660A (ja) | 車両用右左折支援装置 | |
US20210339678A1 (en) | Information presentation device, information presentation control method, and non-transitory computer-readable recording medium | |
JP4799236B2 (ja) | 車載表示システム | |
JP2005217482A (ja) | 車両周辺監視方法および装置 | |
JP5529097B2 (ja) | 車両の運転支援装置 | |
JP2006182108A (ja) | 車両周辺監視装置 | |
JP2009110065A (ja) | 運転支援装置 | |
JP2008186132A (ja) | 運転支援装置、方法およびプログラム | |
CN118306314A (zh) | Svm俯视图像处理方法和装置 | |
JP2022074395A (ja) | 車両用表示制御システム | |
JP2011113120A (ja) | 車両用周辺監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131209 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5445719 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |