Nothing Special   »   [go: up one dir, main page]

JP2008092459A - Periphery monitoring apparatus - Google Patents

Periphery monitoring apparatus Download PDF

Info

Publication number
JP2008092459A
JP2008092459A JP2006273220A JP2006273220A JP2008092459A JP 2008092459 A JP2008092459 A JP 2008092459A JP 2006273220 A JP2006273220 A JP 2006273220A JP 2006273220 A JP2006273220 A JP 2006273220A JP 2008092459 A JP2008092459 A JP 2008092459A
Authority
JP
Japan
Prior art keywords
imaging
area
image
blind spot
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006273220A
Other languages
Japanese (ja)
Other versions
JP4893212B2 (en
Inventor
Akio Fukamachi
映夫 深町
Osamu Ozaki
修 尾崎
Shoichi Hayasaka
祥一 早坂
Junichi Wakita
淳一 脇田
Mamoru Furuta
守 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006273220A priority Critical patent/JP4893212B2/en
Publication of JP2008092459A publication Critical patent/JP2008092459A/en
Application granted granted Critical
Publication of JP4893212B2 publication Critical patent/JP4893212B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a periphery monitoring apparatus which accurately traces an object even in an area where imaging regions are not overlapped. <P>SOLUTION: A visual line direction of a three-dimensional object 22 and image templates are acquired in advance in a picked-up image of a front camera 11, and when the three-dimensional object 22 enters a single imaging region of a left-side camera 13, an image template is selected based on the visual line direction of the three-dimensional object 22. On the basis of the selected image template, the three-dimensional object 22 is traced. Thus, the three-dimensional object 22 is accurately traced. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両などの周囲を監視するための周辺監視装置に関するものである。   The present invention relates to a periphery monitoring device for monitoring the surroundings of a vehicle or the like.

従来、車両などの周囲を監視する周辺監視装置として、例えば特許第3494434号公報に記載されるように、車両の周辺を撮像し、その撮像された画像に基づいて車両周辺の立体物の情報を運転者に伝達する装置が知られている。この装置は、車両の移動中に単一のカメラによって異なる複数の周辺画像を撮像し、それらの画像に基づきステレオ視によって立体物を検出し、画像上の立体物の位置データ及び車両の移動データに基づいて車両から立体物までの距離を算出し、その距離に基づいて周辺画像を生成し運転者に伝達するものである。
特許第3494434号公報
2. Description of the Related Art Conventionally, as a periphery monitoring device for monitoring the periphery of a vehicle or the like, as described in, for example, Japanese Patent No. 3494434, the periphery of the vehicle is imaged, and information on a three-dimensional object around the vehicle is obtained based on the captured image. Devices that communicate to the driver are known. This device captures a plurality of different peripheral images by a single camera during the movement of the vehicle, detects a three-dimensional object by stereo vision based on these images, and detects the position data of the three-dimensional object on the image and the movement data of the vehicle Based on this, the distance from the vehicle to the three-dimensional object is calculated, and a peripheral image is generated based on the distance and transmitted to the driver.
Japanese Patent No. 3494434

しかしながら、このような装置にあっては、周囲の立体物などについて適切な情報を提供することができないという問題点がある。例えば、複数の周辺画像において重複しない範囲では立体物をステレオ視することができず、立体物の追跡が行えない。このため、立体物の三次元情報を十分に取得することができない。この場合、撮像画像に基づき俯瞰図を作成しようとすると、立体物が歪んで不自然なものとなってしまう。   However, in such an apparatus, there is a problem that it is impossible to provide appropriate information about surrounding solid objects. For example, a stereoscopic object cannot be viewed in stereo in a range that does not overlap in a plurality of peripheral images, and the tracking of the stereoscopic object cannot be performed. For this reason, the three-dimensional information of the three-dimensional object cannot be acquired sufficiently. In this case, when an overhead view is created based on the captured image, the three-dimensional object is distorted and becomes unnatural.

そこで本発明は、このような技術課題を解決するためになされたものであって、撮像領域が重複しない領域においても物体を精度よく追跡することができる周辺監視装置を提供することを目的とする。   Therefore, the present invention has been made to solve such a technical problem, and an object of the present invention is to provide a periphery monitoring device capable of accurately tracking an object even in an area where imaging areas do not overlap. .

すなわち本発明に係る周辺監視装置は、第一撮像領域を撮像する第一撮像手段と、前記第一撮像領域と重複しない単独撮像領域を有する第二撮像領域を撮像する第二撮像手段と、前記第一撮像手段により撮像された物体の特徴情報を取得する特徴情報取得手段と、前記物体の特徴情報を取得した際の前記第一撮像手段から前記物体に対する第一視線方向を取得する第一視線方向取得手段と、前記物体の撮像される領域が前記第一撮像領域から前記第二撮像領域における単独撮像領域に相対移動した場合に、前記第二撮像手段から前記物体への視線方向に対し所定の方向差の範囲内である前記第一視線方向で撮像された物体の特徴情報及び前記第二撮像手段により撮像された撮像画像に基づいて、前記物体を追跡する物体追跡手段とを備えて構成されている。   That is, the periphery monitoring device according to the present invention includes a first imaging unit that images the first imaging region, a second imaging unit that images a second imaging region having a single imaging region that does not overlap the first imaging region, Feature information acquisition means for acquiring feature information of an object imaged by the first imaging means, and first line of sight for acquiring a first line-of-sight direction with respect to the object from the first image pickup means when the feature information of the object is acquired Direction acquisition means and a predetermined direction relative to the line-of-sight direction from the second imaging means to the object when the area where the object is imaged is relatively moved from the first imaging area to the single imaging area in the second imaging area; Object tracking means for tracking the object on the basis of the feature information of the object imaged in the first line-of-sight direction within the range of the direction difference and the captured image imaged by the second imaging means. It is.

この発明によれば、物体の撮像される領域が第二撮像領域の単独撮像領域に相対移動した際に、第二撮像手段から物体への視線方向に近い第一視線方向で撮像された物体の特徴情報及び第二撮像手段により撮像された物体の撮像画像に基づいて物体を追跡することにより、第二撮像手段の撮像画像内の物体の位置を精度よく追跡することができる。   According to this invention, when the area where the object is imaged is relatively moved to the single imaging area of the second imaging area, the object imaged in the first line-of-sight direction close to the line-of-sight direction from the second imaging unit to the object is displayed. By tracking the object based on the feature information and the captured image of the object imaged by the second imaging unit, the position of the object in the captured image of the second imaging unit can be accurately tracked.

また本発明に係る周辺監視装置は、前記第二撮像手段から前記物体への視線方向に対し最も近い第一視線方向で撮像された物体の特徴情報と前記第二撮像手段の撮像画像における画像領域との相関値を算出する相関値算出手段を備え、前記物体追跡手段は、前記相関値が最も高い点を前記物体の位置として前記物体を追跡することが好ましい。   Further, the periphery monitoring device according to the present invention is characterized in that the feature information of the object imaged in the first line-of-sight direction closest to the line-of-sight direction from the second imaging unit to the object and the image area in the captured image of the second imaging unit Preferably, the object tracking means tracks the object with the point having the highest correlation value as the position of the object.

また本発明に係る周辺監視装置は、前記第二撮像手段から前記物体への視線方向に対し所定の方向差の範囲内である前記第一視線方向で撮像された物体の複数の特徴情報と前記第二撮像手段の撮像画像における画像領域との相関値をそれぞれ算出する相関値算出手段を備え、前記物体追跡手段は、前記相関値が最も高い点を前記物体の位置として前記物体を追跡することが好ましい。   Further, the periphery monitoring device according to the present invention includes a plurality of pieces of feature information of the object imaged in the first line-of-sight direction within a predetermined direction difference range with respect to the line-of-sight direction from the second imaging unit to the object. Correlation value calculating means for calculating a correlation value with an image area in a captured image of the second imaging means, and the object tracking means tracks the object with the point having the highest correlation value as the position of the object. Is preferred.

また本発明に係る周辺監視装置において、前記第一撮像手段及び前記第二撮像手段の撮像画像に基づくステレオ視によって前記第一撮像領域と前記第二撮像領域が重複する重複領域に存在する物体の三次元情報を取得する第一物体三次元情報取得手段と、前記物体追跡手段による追跡結果と前記第一物体三次元情報取得手段により取得された三次元情報に基づいて前記第二撮像領域の単独撮像領域に存在する物体の三次元情報を取得する第二物体三次元情報取得手段とを備えることが好ましい。   Further, in the periphery monitoring device according to the present invention, an object existing in an overlapping region where the first imaging region and the second imaging region overlap by stereo vision based on the captured images of the first imaging unit and the second imaging unit. A first object three-dimensional information acquisition means for acquiring three-dimensional information; a tracking result by the object tracking means; and a single image of the second imaging region based on the three-dimensional information acquired by the first object three-dimensional information acquisition means. It is preferable to include a second object 3D information acquisition unit that acquires 3D information of an object existing in the imaging region.

この発明によれば、物体追跡手段による追跡結果と第一物体三次元情報取得手段により取得された三次元情報に基づいて第二撮像領域の単独撮像領域に存在する物体の三次元情報を取得することにより、ステレオ視により物体の三次元情報が取得困難な第二撮像領域の単独撮像領域に物体が存在している場合であっても、物体の三次元情報を確実に取得することができる。   According to this invention, the three-dimensional information of the object existing in the single imaging region of the second imaging region is acquired based on the tracking result by the object tracking unit and the three-dimensional information acquired by the first object three-dimensional information acquisition unit. Accordingly, even when the object exists in the single imaging region of the second imaging region where it is difficult to acquire the three-dimensional information of the object by stereo vision, the three-dimensional information of the object can be reliably acquired.

また本発明に係る周辺監視装置において、前記第一物体三次元情報取得手段がステレオ視を行った際に前記物体に遮られて前記第一撮像手段及び前記第二撮像手段の少なくとも一方で撮像できずに三次元情報が取得できない死角領域を特定する死角特定手段と、前記死角領域のうち前記第一撮像手段又は前記第二撮像手段により撮像可能な領域であって輝度が連続的に変化している場合に前記死角領域の周辺領域の三次元情報に基づいて死角領域を補間する死角補間手段と、前記死角補間手段により補間可能な領域と補間不可能な領域を記録する死角補間領域記録手段とを備えることが好ましい。   Further, in the periphery monitoring device according to the present invention, when the first object three-dimensional information acquisition unit performs stereo vision, the first object imaging unit and the second imaging unit can capture images by being blocked by the object. A blind spot area for identifying a blind spot area where three-dimensional information cannot be obtained, and an area that can be imaged by the first imaging means or the second imaging means in the blind spot area, and the luminance is continuously changed. A blind spot interpolation means for interpolating the blind spot area based on the three-dimensional information of the peripheral area of the blind spot area, and a blind spot interpolation area recording means for recording the area that can be interpolated by the blind spot interpolation means and the area that cannot be interpolated. It is preferable to provide.

この発明によれば、死角領域のうち第一撮像手段又は第二撮像手段により撮像可能な領域であって輝度が連続的に変化している場合に死角領域の周辺領域の三次元情報に基づいて死角領域を補間することにより、死角領域を低減してステレオ視で得られない三次元情報を補間することができる。   According to the present invention, based on the three-dimensional information of the surrounding area of the blind spot area when the brightness continuously changes in the blind spot area that can be imaged by the first imaging means or the second imaging means. By interpolating the blind spot area, it is possible to reduce the blind spot area and interpolate three-dimensional information that cannot be obtained by stereo vision.

また本発明に係る周辺監視装置において、前記第二撮像領域と重複する重複領域を有する第三撮像領域を撮像する第三撮像手段と、前記物体の撮像される領域が前記第二撮像領域の単独撮像領域から前記第二撮像領域と前記第三撮像領域の重複領域に相対移動した場合に、前記第二物体三次元情報取得手段により取得された物体の三次元情報を参照して前記第二撮像手段及び前記第三撮像手段の撮像画像に基づくステレオ視により前記物体の三次元情報を取得する第一物体三次元情報取得手段とを備えたことが好ましい。   Further, in the periphery monitoring device according to the present invention, a third imaging unit that images a third imaging region having an overlapping region that overlaps the second imaging region, and a region where the object is imaged is a single region of the second imaging region. When the relative movement from the imaging area to the overlapping area of the second imaging area and the third imaging area, the second imaging is performed with reference to the 3D information of the object acquired by the second object 3D information acquisition means And a first object three-dimensional information acquisition unit that acquires the three-dimensional information of the object by stereo vision based on the captured image of the third imaging unit.

この発明によれば、第二撮像手段及び第三撮像手段の撮像画像に基づくステレオ視により物体の三次元情報を取得する際に第二物体三次元情報取得手段により取得された物体の三次元情報を参照することにより、ステレオ視による物体の三次元情報の導出が精度よく行える。   According to this invention, the three-dimensional information of the object acquired by the second object three-dimensional information acquisition unit when acquiring the three-dimensional information of the object by stereo vision based on the captured images of the second imaging unit and the third imaging unit. By referring to, it is possible to accurately derive the three-dimensional information of the object by stereo vision.

また本発明に係る周辺監視装置において、前記第一撮像手段及び前記第二撮像手段は、移動体に設置され前記移動体の周囲を撮像し、前記第一物体三次元情報取得手段及び前記第二物体三次元情報取得手段は、前記物体の三次元情報として前記移動体に対する前記物体の相対位置座標値を取得することが好ましい。   Moreover, in the periphery monitoring apparatus according to the present invention, the first imaging unit and the second imaging unit are installed on a moving body to image the surroundings of the moving body, and the first object three-dimensional information acquisition unit and the second imaging unit The object three-dimensional information acquisition means preferably acquires the relative position coordinate value of the object with respect to the moving body as the three-dimensional information of the object.

この発明によれば、移動体が移動することによって移動体の周囲にある物体が撮像領域の重複領域から外れた場合でも物体の相対的な位置を把握することができる。   According to the present invention, it is possible to grasp the relative position of an object even when an object around the moving object moves out of the overlapping area of the imaging area as the moving object moves.

また本発明に係る周辺監視装置において、前記物体の相対位置座標値に基づいて前記移動体の周囲の俯瞰図を作成する俯瞰図作成手段を備えたことが好ましい。   Moreover, it is preferable that the periphery monitoring apparatus according to the present invention further includes an overhead view creation means for creating an overhead view around the moving body based on the relative position coordinate value of the object.

この発明によれば、物体の三次元情報を用いて俯瞰図を作成することにより、物体の歪みを低減した状態で見やすい俯瞰図を作成することができる。   According to the present invention, by creating an overhead view using the three-dimensional information of the object, it is possible to create an easy-to-see overhead view with reduced distortion of the object.

また本発明に係る周辺監視装置において、前記物体の相対位置座標値に基づいて前記移動体と前記物体が接触するか否かを判断する接触判断手段と、前記接触判断手段が接触すると判断した場合にその接触を回避させる接触回避手段とを備えたことが好ましい。   Further, in the periphery monitoring device according to the present invention, when it is determined that the contact determination means determines whether or not the moving body contacts the object based on the relative position coordinate value of the object, and the contact determination means contacts It is preferable to include contact avoiding means for avoiding the contact.

この発明によれば、撮影手段の撮像領域が重複する重複領域以外の領域に物体が存在する場合でも、その物体の相対位置に基づいて的確に移動体の接触回避が行える。   According to the present invention, even when an object exists in an area other than the overlapping area where the imaging areas of the imaging means overlap, it is possible to accurately avoid contact with the moving body based on the relative position of the object.

本発明によれば、撮像領域が重複しない領域においても物体を精度よく追跡することができる。   According to the present invention, an object can be accurately tracked even in an area where imaging areas do not overlap.

以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1は本発明の実施形態に係る周辺監視装置の構成概要図であり、図2は本実施形態に係る周辺監視装置におけるカメラの配置及びカメラの撮像領域を示す平面図である。   FIG. 1 is a schematic configuration diagram of a periphery monitoring device according to an embodiment of the present invention, and FIG. 2 is a plan view showing the arrangement of cameras and the imaging region of the camera in the periphery monitoring device according to the present embodiment.

本実施形態に係る周辺監視装置1は、車両3の周辺を監視する装置であって、車両3の周辺を撮像する複数のカメラを備えており、例えば、前方カメラ11、右側方カメラ12、左側方カメラ13、後方カメラ14を備えている。前方カメラ11、右側方カメラ12、左側方カメラ13及び後方カメラ14は、異なる方向を撮像するように設置され、隣り合うカメラと撮像領域が重複しない非重複領域を有するように配置されている。   The periphery monitoring device 1 according to the present embodiment is a device that monitors the periphery of the vehicle 3 and includes a plurality of cameras that image the periphery of the vehicle 3. For example, the front camera 11, the right side camera 12, and the left side A side camera 13 and a rear camera 14 are provided. The front camera 11, the right side camera 12, the left side camera 13, and the rear camera 14 are installed so as to pick up images in different directions, and are arranged so as to have non-overlapping regions where the image pickup regions do not overlap with adjacent cameras.

前方カメラ11は、車両の前方に向けて配置され、車両の前方の撮像領域aを撮像する撮像手段として機能する。右側方カメラ12は、車両の右側方に向けて配置され、車両の右側方の領域aを撮像する撮像手段として機能する。左側方カメラ13は、車両の左側方に向けて配置され、車両の左側方の領域aを撮像する撮像手段として機能する。後方カメラ14は、車両の後方に向けて配置され、車両の後方の領域aを撮像する撮像手段として機能する。 The front camera 11 is disposed toward the front of the vehicle and functions as an imaging unit that images the imaging area a F in front of the vehicle. The right-side camera 12 is disposed toward the right side of the vehicle and functions as an imaging unit that captures an area a R on the right side of the vehicle. The left-side camera 13 is disposed toward the left side of the vehicle and functions as an imaging unit that images a region a L on the left side of the vehicle. The rear camera 14 is disposed toward the rear of the vehicle, and functions as an imaging unit that captures an area a B behind the vehicle.

前方の撮像領域aは、一端側で右側方の撮像領域aと重複する重複領域を有しており、他端側で左側方の撮像領域aと重複する重複領域を有している。また、後方の撮像領域aは、一端側で右側方の撮像領域aと重複する重複領域を有しており、他端側で左側方の撮像領域aと重複する重複領域を有している。 Front of an image area a F has an overlapping area that overlaps with the imaging area a R of the right side at one side, and has an overlapping region overlapping the imaging area a L of the left side at the other end . Further, the rear imaging area a F has an overlapping area that overlaps the right imaging area a R on one end side, and an overlapping area that overlaps the left imaging area a L on the other end side. ing.

前方カメラ11、右側方カメラ12、左側方カメラ13及び後方カメラ14は、視野角度の大きい広角カメラであり、例えば図3に示されるような画像ILOを取得する画角180°の魚眼レンズを備えたものを用いることが好ましい。 The front camera 11, the right side camera 12, the left side camera 13, and the rear camera 14 are wide-angle cameras having a large viewing angle, and include, for example, a fish-eye lens with an angle of view of 180 ° for obtaining an image I LO as shown in FIG. It is preferable to use the same.

例えば、車両3の左側にガードレール4が延びている場合、最前方のレール部分40と最後方のレール部分46は、カメラの視野領域外になる。そして、レール部分41と42は、前方カメラ11の視野領域内に、レール部分42〜44が左側方カメラ13の視野領域内に、レール部分44、45が後方カメラ14の視野領域内にそれぞれ位置する。つまり、レール部分41、43、45はそれぞれ前方カメラ11、左側方カメラ13、後方カメラ14のいずれか一つのカメラのみに視野領域に位置するが、レール部分42は、前方カメラ11と左側方カメラ13の視野が重なる領域に、レール部分44は、左側方カメラ13と後方カメラ14の視野が重なる領域に位置することになる。   For example, when the guard rail 4 extends to the left side of the vehicle 3, the foremost rail portion 40 and the rearmost rail portion 46 are outside the field of view of the camera. The rail parts 41 and 42 are located in the field of view of the front camera 11, the rail parts 42 to 44 are located in the field of view of the left camera 13, and the rail parts 44 and 45 are located in the field of view of the rear camera 14, respectively. To do. That is, the rail portions 41, 43, and 45 are located in the field of view of only one of the front camera 11, the left side camera 13, and the rear camera 14, but the rail portion 42 is the front camera 11 and the left side camera. The rail portion 44 is positioned in a region where the fields of view of the left side camera 13 and the rear camera 14 overlap.

各カメラ11〜14は、画像処理部2に接続されている。各カメラ11〜14で撮像された画像は、デジタル信号として画像処理部2へと送られる。画像信号のデジタル変換は、カメラ11〜14内で行われてもよいが、カメラ11〜14と画像処理部2の間にA/Dコンバータを設けて変換を行ってもよいし、画像処理部2にA/Dコンバータを内蔵する構成としてもよい。   Each camera 11 to 14 is connected to the image processing unit 2. Images captured by the cameras 11 to 14 are sent to the image processing unit 2 as digital signals. The digital conversion of the image signal may be performed in the cameras 11 to 14, but the conversion may be performed by providing an A / D converter between the cameras 11 to 14 and the image processing unit 2, or the image processing unit. 2 may include an A / D converter.

画像処理部2は、各カメラ11〜14で撮像した画像を画像処理するものであり、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random AccessMemory)などを備えて構成されている。この画像処理部2は、各カメラの撮像画像を読み込んで画像処理を行うものであり、二つのカメラの撮像重複領域に立体物がある場合には、重複領域における三次元情報導出処理、エレベーションマップ作成処理、死角補間処理、トラッキング処理、立体物情報の記録更新処理および境界フラグ記録処理を実行する(図5参照)。   The image processing unit 2 performs image processing on images captured by the cameras 11 to 14, and includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. ing. The image processing unit 2 reads the captured images of each camera and performs image processing. When there is a solid object in the imaging overlap area of the two cameras, the image processing unit 2 performs the three-dimensional information derivation process and elevation in the overlap area. Map creation processing, blind spot interpolation processing, tracking processing, solid object information recording update processing, and boundary flag recording processing are executed (see FIG. 5).

また、画像処理部2は、二つのカメラの撮像重複領域から立体物が移動した場合には、トラッキング処理、三次元情報導出処理、エレベーションマップ作成処理、連携処理、記録の削除処理を実行する(図5参照)。なお、これら各処理の内容の詳細について後述する。   Further, when the three-dimensional object moves from the imaging overlap area of the two cameras, the image processing unit 2 executes a tracking process, a three-dimensional information derivation process, an elevation map creation process, a cooperation process, and a record deletion process. (See FIG. 5). Details of the contents of these processes will be described later.

周辺監視装置1には、車速センサ15が設けられている。車速センサ15は、車両の速度を検出するセンサである。車速センサ15にて検出された検出信号は、画像処理部2に入力される。   The periphery monitoring device 1 is provided with a vehicle speed sensor 15. The vehicle speed sensor 15 is a sensor that detects the speed of the vehicle. A detection signal detected by the vehicle speed sensor 15 is input to the image processing unit 2.

周辺監視装置1には、出力部30が設けられている。出力部30は、撮像画像の画像処理により得られた情報を出力するものであり、車両に設置されるモニタ、スピーカ、ブザー、ランプなどが該当する。   The periphery monitoring device 1 is provided with an output unit 30. The output unit 30 outputs information obtained by image processing of a captured image, and corresponds to a monitor, a speaker, a buzzer, a lamp, and the like installed in the vehicle.

次に本実施形態に係る周辺監視装置の動作について説明する。   Next, the operation of the periphery monitoring device according to the present embodiment will be described.

図4は、本実施形態に係る周辺監視装置の動作を示すフローチャートである。図4の制御処理は、例えば車両の電源がオンにされてから所定のタイミングで繰り返し実行される。例えば、カメラ11〜14の画像取得レートに同期して、取得する画像1コマごと、あるいは、数コマおきに処理を行えばよい。   FIG. 4 is a flowchart showing the operation of the periphery monitoring apparatus according to the present embodiment. The control process of FIG. 4 is repeatedly executed at a predetermined timing after the vehicle power is turned on, for example. For example, the processing may be performed for each frame of images to be acquired or every several frames in synchronization with the image acquisition rates of the cameras 11 to 14.

まず、図4のS10に示すように、撮像画像の読み込み処理が行われる。撮像画像の読み込み処理は、前方カメラ11、右側方カメラ12、左側方カメラ13、後方カメラ14のそれぞれで撮像された画像を読み込む処理である。そして、S20に移行し、車両が前進しているか否かが判断される。この判断処理は、車速センサ15の検出信号に基づいて車両が前進しているか否かを判断する処理である。また、この判断処理において、車速センサ15の検出信号とトランスミッションのシフトレバーの操作状態に基づいて車両が前進しているか否かを判断する場合もある。   First, as shown in S10 of FIG. 4, a captured image reading process is performed. The captured image reading process is a process of reading images captured by the front camera 11, the right side camera 12, the left side camera 13, and the rear camera 14. And it transfers to S20 and it is judged whether the vehicle is moving forward. This determination process is a process for determining whether or not the vehicle is moving forward based on the detection signal of the vehicle speed sensor 15. In this determination process, it may be determined whether the vehicle is moving forward based on the detection signal of the vehicle speed sensor 15 and the operation state of the shift lever of the transmission.

S20にて車両が前進していると判断されたときには、前方カメラ画像と左側方カメラ画像における画像処理が行われ(S30)、前方カメラ画像と右側方カメラ画像における画像処理が行われる(S40)。なお、S30の前方カメラ画像と左側方カメラ画像における画像処理及びS40の前方カメラ画像と右側方カメラ画像における画像処理の詳細については後述する。   When it is determined in S20 that the vehicle is moving forward, image processing is performed on the front camera image and the left camera image (S30), and image processing is performed on the front camera image and the right camera image (S40). . Details of the image processing in the front camera image and the left-side camera image in S30 and the image processing in the front camera image and the right-side camera image in S40 will be described later.

一方、S20にて車両が前進していないと判断されたときには車両が後退しているか否かが判断される(S50)。この判断処理は、車速センサ15の検出信号に基づいて車両が後退しているか否かを判断する処理である。また、この判断処理において、車速センサ15の検出信号とトランスミッションのシフトレバーの操作状態に基づいて車両が後退しているか否かを判断する場合もある。   On the other hand, when it is determined in S20 that the vehicle is not moving forward, it is determined whether or not the vehicle is moving backward (S50). This determination process is a process for determining whether or not the vehicle is moving backward based on the detection signal of the vehicle speed sensor 15. In this determination process, it may be determined whether the vehicle is moving backward based on the detection signal of the vehicle speed sensor 15 and the operation state of the transmission shift lever.

S50にて車両が後退していないと判断された場合には、車両が前進も後退もしていないため、制御処理を終了する。なお、この場合、車両が走行していないので、トラッキング処理を行わないが、各カメラ11〜14の撮像画像に基づいて三次元情報などを取得して、立体物の位置情報やエレベーションマップなどを更新してもよい。   If it is determined in S50 that the vehicle has not moved backward, the control process is terminated because the vehicle has not moved forward or backward. In this case, since the vehicle is not running, the tracking process is not performed, but the three-dimensional information is acquired based on the captured images of the cameras 11 to 14, and the position information of the three-dimensional object, the elevation map, and the like. May be updated.

一方、S50にて車両が後退していると判断された場合には、後方カメラ画像と左側方カメラ画像における画像処理が行われ(S60)、後方カメラ画像と右側方カメラ画像における画像処理が行われる(S70)。なお、S60の後方カメラ画像と左側方カメラ画像における画像処理及びS70の後方カメラ画像と右側方カメラ画像における画像処理の詳細については後述する。   On the other hand, if it is determined in S50 that the vehicle is moving backward, image processing is performed on the rear camera image and the left camera image (S60), and image processing is performed on the rear camera image and the right camera image. (S70). Details of the image processing for the rear camera image and the left side camera image in S60 and the image processing for the rear camera image and the right side camera image of S70 will be described later.

そして、S80に移行し、エレベーションマップの統合処理が行われる。この統合処理は、S30、S40、S60及びS70の画像処理により作成されたエレベーションマップを統合して一つの大きなエレベーションマップを作成する処理である。エレベーションマップは、監視領域にある立体物の高さマップである。例えば、エレベーションマップは、車両の周囲の撮像領域を上方から見た俯瞰図に対応するように構成され、一マスが1cm×1cmの単位で立体物の高さ情報が記録できるように作成される。ここでいう立体物とは、ガードレール、支柱、パイロンなど路面より高く構成されるもののほか、側溝など路面より低く構成されるものも含まれる。   Then, the process proceeds to S80, and an elevation map integration process is performed. This integration process is a process of creating one large elevation map by integrating the elevation maps created by the image processing of S30, S40, S60, and S70. The elevation map is a height map of a three-dimensional object in the monitoring area. For example, the elevation map is configured to correspond to an overhead view of the imaging area around the vehicle viewed from above, and is created so that the height information of a three-dimensional object can be recorded in units of 1 cm × 1 cm. The The three-dimensional object referred to here includes not only those that are higher than the road surface such as guardrails, columns, and pylons, but also those that are lower than the road surface such as side grooves.

そして、S90に移行し、出力処理が行われる。出力処理は、撮像画像を画像処理することにより得られた情報を出力部27に出力し、またその情報に基づいて警告処理や車両制御処理を行う処理である。   Then, the process proceeds to S90 and output processing is performed. The output process is a process of outputting information obtained by performing image processing on the captured image to the output unit 27 and performing warning processing and vehicle control processing based on the information.

出力処理として、例えば、撮像領域の俯瞰図をモニタに表示する処理が行われる。この場合、車両の運転者は、車両周辺にある立体物を視覚を通じて容易に認識することができる。その際、立体物の三次元情報を用いて立体物を3Dグラフィックス化して表示してもよい。   As the output process, for example, a process of displaying an overhead view of the imaging region on the monitor is performed. In this case, the driver of the vehicle can easily recognize a three-dimensional object around the vehicle through vision. At that time, the three-dimensional object may be displayed in 3D graphics using the three-dimensional information of the three-dimensional object.

また、出力処理として、走行障害となる立体物がある場合又は車両3が立体物に接触するおそれがある場合に、音声など聴覚を通じ又はランプ点灯、ランプ点滅、警告表示など視覚を通じて障害物の存在又は接触のおそれを運転者に警告してもよい。この場合、運転者はこの警告を受けることにより、障害物を避けて車両走行することができる。   In addition, as an output process, if there is a three-dimensional object that obstructs driving or the vehicle 3 may come into contact with the three-dimensional object, the presence of an obstacle through hearing, such as sound, or through visual perception, such as lamp lighting, lamp blinking, and warning display Alternatively, the driver may be warned of the possibility of contact. In this case, the driver can travel the vehicle avoiding the obstacle by receiving this warning.

また、出力処理として、走行障害となる立体物がある場合に経路探索用情報として信号出力してもよい。この場合、障害物を避けて経路探索を行うことができ、適切な経路探索を実現できる。また、出力処理として、走行障害となる立体物がある場合に自動停止の制御信号を出力してもよい。例えば、制動制御ECU(Electronic Control Unit)に対し、停止制御信号を出力し、車両を自動停止させる。この場合、車両が障害物に接触するなどの事態を回避することができる。S90の出力処理を終えたら、制御処理を終了する。   Further, as an output process, when there is a three-dimensional object that becomes a travel obstacle, a signal may be output as route search information. In this case, a route search can be performed while avoiding obstacles, and an appropriate route search can be realized. As an output process, an automatic stop control signal may be output when there is a three-dimensional object that becomes a running obstacle. For example, a stop control signal is output to a braking control ECU (Electronic Control Unit) to automatically stop the vehicle. In this case, it is possible to avoid such a situation that the vehicle contacts an obstacle. When the output process of S90 is finished, the control process is finished.

図5は、図4のS30の前方カメラ画像と左側方カメラ画像における画像処理を示すフローチャートである。   FIG. 5 is a flowchart showing image processing in the front camera image and the left camera image in S30 of FIG.

図5のS300に示すように、まず、撮像領域が重複する重複領域外へ立体物が移動したか否かが判断される。すなわち、前方カメラ11の撮像領域aと左側方カメラ13の撮像領域aとの重複領域aLF内からその外部へ立体物が移動した否かが判断される。この判断は、例えば、先に実行された画像処理結果と車両走行情報に基づいて行われる。 As shown in S300 of FIG. 5, first, it is determined whether or not the three-dimensional object has moved outside the overlapping area where the imaging areas overlap. That is, it is determined whether or not the three-dimensional object has moved from within the overlapping area a LF between the imaging area a F of the front camera 11 and the imaging area a L of the left camera 13 to the outside. This determination is made based on, for example, the previously executed image processing result and vehicle travel information.

先に実行された画像処理結果で重複領域aLFに立体物があるが、車両が所定の距離以上に走行移動しており、立体物が重複領域aLFにないと推定される場合には、重複領域aLF外へ立体物が移動したと判断される。一方、先に実行された画像処理結果で重複領域aLFに立体物があり、車両が所定の距離まで走行移動しておらず、まだ立体物が重複領域aLFにあると推定される場合には、重複領域aLF外へ立体物が移動していないと判断される。また、先に実行された画像処理結果で重複領域aLFに立体物がない場合には、重複領域aLF外へ立体物が移動していないと判断される。 If there is a three-dimensional object in the overlap area a LF as a result of the image processing executed earlier, but the vehicle is traveling more than a predetermined distance and it is estimated that the three-dimensional object is not in the overlap area a LF , It is determined that the three-dimensional object has moved out of the overlapping region aLF . On the other hand, when it is estimated that there is a three-dimensional object in the overlapping area a LF and the vehicle has not traveled to a predetermined distance and the three-dimensional object is still in the overlapping area a LF as a result of the image processing executed earlier. Is determined that the three-dimensional object has not moved out of the overlapping region aLF . If there is no solid object in the overlapping area a LF as a result of the image processing executed previously, it is determined that the three-dimensional object has not moved outside the overlapping area a LF .

S300にて、重複領域外へ立体物が移動していないと判断された場合には、重複領域における三次元情報導出処理が行われる(S302)。三次元情報導出処理は、前方カメラ11の撮像領域aと左側方カメラ13の撮像領域aの重複領域aLFにおける立体物の三次元情報を導出する処理である。 If it is determined in S300 that the three-dimensional object has not moved outside the overlapping area, a three-dimensional information derivation process in the overlapping area is performed (S302). The three-dimensional information deriving process is a process of deriving three-dimensional information of a three-dimensional object in the overlapping area a LF of the imaging area a F of the front camera 11 and the imaging area a L of the left camera 13.

この三次元情報導出処理として、まず、左側方カメラ13で取得した画像の処理範囲が設定される。図6は、各カメラ11〜14の撮像領域を示している。ここでは、処理範囲として、前方カメラ11の撮像領域aと左側方カメラ13の撮像領域aとが重なっている領域aLFが処理範囲として設定される。その際、例えば、左側方カメラ13の視野角範囲γを処理範囲と設定すればよい。 As this three-dimensional information derivation process, first, a processing range of an image acquired by the left side camera 13 is set. FIG. 6 shows the imaging area of each camera 11-14. Here, an area a LF where the imaging area a F of the front camera 11 and the imaging area a L of the left-side camera 13 overlap is set as the processing area. At this time, for example, the viewing angle range γ of the left side camera 13 may be set as the processing range.

そして、左側方カメラ13の撮影画像ILOから前方45度方向の仮想視点画像ILFが生成される。例えば、撮影画像ILOにおいて、前方45度の方向に仮想の視線方向が設定され、その視線方向に垂直な平面に対し左前方の画像部分を視線変換することにより、仮想視点画像ILFが生成される。図7は仮想視点画像の生成についての説明図であり、図8は撮影画像に基づいて生成した仮想視点画像を示した図である。 Then, a virtual viewpoint image I LF in the direction of 45 degrees forward is generated from the captured image I LO of the left side camera 13. For example, in the captured image I LO , a virtual line-of-sight direction is set in the direction of 45 degrees forward, and a virtual viewpoint image I LF is generated by performing line-of-sight conversion on the left front image portion with respect to a plane perpendicular to the line-of-sight direction. Is done. FIG. 7 is an explanatory diagram of generation of a virtual viewpoint image, and FIG. 8 is a diagram illustrating a virtual viewpoint image generated based on a captured image.

魚眼レンズは通常のカメラ用レンズと異なり、正射影方式ではなく、等立体角射影や当距離射影方式を採用している。このため、画面中心を通る直線を除いて、図3に示されるように、空間上における直線形状(例えば、ガードレールの輪郭等)も画面には曲線として表示される。この画像から射影方式を正射影に変換し、その際の視線方向を変換することで、図8に示されるように直線を直線として表示させることができる。ここで、Iは、左側方方向の仮想視点画像であり、ILBは、後方45度方向の仮想視点画像を表す。 Unlike a normal camera lens, the fish-eye lens adopts an equisolid angle projection method or an equidistant projection method, not an orthographic projection method. For this reason, except for the straight line passing through the center of the screen, as shown in FIG. 3, the straight line shape in space (for example, the contour of the guardrail) is also displayed as a curve on the screen. A straight line can be displayed as a straight line as shown in FIG. 8 by converting the projection method from this image into an orthographic projection and converting the line-of-sight direction at that time. Here, IL is a virtual viewpoint image in the leftward direction, and ILB represents a virtual viewpoint image in the backward 45 degree direction.

画像ILFを生成したら、前方カメラ11で取得した撮像画像の処理範囲を設定し、その前方カメラ11の撮影画像から左方45度方向の仮想視点画像IFLが生成される。前方カメラ11の撮像画像における処理範囲の設定は、図6に示されるように、前方カメラ11の撮像領域a中で、左側方カメラ13の撮像領域aと重なっている領域aLFを処理範囲として設定して行われる。 When the image I LF is generated, the processing range of the captured image acquired by the front camera 11 is set, and the virtual viewpoint image I FL in the 45 ° left direction is generated from the captured image of the front camera 11. As shown in FIG. 6, the processing range in the captured image of the front camera 11 is set by processing an area a LF that overlaps the imaging area a L of the left camera 13 in the imaging area a F of the front camera 11. This is done by setting as a range.

左方45度方向の仮想視点画像IFLの生成は、例えば、前方カメラ11の撮影画像IFOにおいて、左方45度の方向に仮想の視線方向が設定され、その視線方向に垂直な平面に対し左前方の画像部分を視線変換することにより行われる。図9は仮想視点画像の生成についての説明図である。ここで、Iは、前方向の仮想視点画像であり、IFRは、右方45°方向の仮想視点画像を表す。 Generation of the virtual viewpoint image I FL in the direction of 45 degrees to the left is performed, for example, in a captured image I FO of the front camera 11 with a virtual line-of-sight direction set in the direction of 45 degrees to the left and a plane perpendicular to the line-of-sight direction. On the other hand, it is performed by changing the line of sight of the left front image portion. FIG. 9 is an explanatory diagram of generation of a virtual viewpoint image. Here, I F is the forward direction of the virtual viewpoint image, I FR represents a virtual viewpoint image of the right 45 ° direction.

次に、画像ILFとIFLの画素の対応点が探索される。具体的には、図10に示されるように、画像ILF上の任意の小領域に対応する画像IFL上の小領域は、エピポーラ極線eFL上に存在する。そこで、画像IFL中の、画像ILFのエッジ構成点を含む領域に対応するエピポーラ極線eFL上に位置し、かつ、画像IFLのエッジ構成点に近い領域について画像ILFのエッジ構成点を含む領域との相関値を算出し、最も相関値の高い領域を求める。この最大相関値をSとする。そして、Sと閾値THsとを比較し、Sが閾値THs以上であれば、画像間で対応が取れたと判断する。閾値THsは予め設定される設定値である。相関値を導出する手法としては、例えば正規化相関法や差分総和などのパターン認識技術を用いればよい。 Next, the corresponding points of the pixels of the images I LF and I FL are searched. Specifically, as shown in FIG. 10, a small region on the image I FL corresponding to an arbitrary small region on the image I LF exists on the epipolar polar line e FL . Therefore, in the image I FL, located on the epipolar polar e FL corresponding to the region including the edge configuration points of the image I LF, and edge configuration of the image I LF for the area near the edge configuration points of the image I FL A correlation value with an area including a point is calculated, and an area with the highest correlation value is obtained. The maximum correlation value and S L. Then, by comparing the S L and the threshold THs, if S L threshold THs above, it is determined that the corresponding has been established between the images. The threshold value THs is a preset value. As a method for deriving the correlation value, for example, a pattern recognition technique such as a normalized correlation method or a sum of differences may be used.

左側方カメラ13の撮像画像から作成した左前45度の画像ILFと前方カメラ11の撮像画像から作成した左前45度の画像IFLは、各カメラ設置距離(撮像位置の距離)を基線長としたステレオカメラ画像として利用することができる。この場合、視点変換により、画像ILFと画像IFLが同一方向から見た画像となっているので、対応点の検索が容易に行える。 The left front 45 degree image I LF created from the captured image of the left side camera 13 and the left front 45 degree image I FL created from the captured image of the front camera 11 have each camera installation distance (distance of the imaging position) as a base line length. It can be used as a stereo camera image. In this case, since the image I LF and the image I FL are images viewed from the same direction by viewpoint conversion, the corresponding points can be easily searched.

そして、画像IFLと画像ILF中の対応画素位置情報を基にして、被写体の当該画素に対応する部分の空間位置の算出が行われる。図11は、この空間位置算出の原理を説明する図である。 Then, based on the corresponding pixel position information in the image I FL and the image I LF , the spatial position of the part corresponding to the pixel of the subject is calculated. FIG. 11 is a diagram for explaining the principle of calculating the spatial position.

ここで、センサ座標系XsYsZsをとり、左右のカメラはセンサ原点をはさんで、X軸方向に基線長bだけ離れて配置されているものとする。つまり、左カメラの光学中心は、座標位置(−b/2、0、0)に、右カメラの光学中心は、座標位置(b/2、0、0)に位置するものとする。両カメラの焦点距離をf、対象物Pの左カメラの画面上の位置をPl(xl、yl)、右カメラの画面上の位置をPr(xr、yr)とする(画面上のX、X軸は、Xs軸と平行であり、Y、Y軸は、Zs軸と平行とする。)と、三角測量の原理により、対象物Pの空間位置(Xps、Yps、Zps)は、以下の式により表される。

Figure 2008092459

なお、ylとyrとは理想的には一致する。 Here, it is assumed that the sensor coordinate system XsYsZs is taken, and the left and right cameras are arranged apart from the sensor origin by a base line length b in the X-axis direction. That is, the optical center of the left camera is located at the coordinate position (−b / 2, 0, 0), and the optical center of the right camera is located at the coordinate position (b / 2, 0, 0). The focal length of both cameras is f, the position of the object P on the screen of the left camera is Pl (xl, yl), and the position of the right camera on the screen is Pr (xr, yr) (X L , The X R axis is parallel to the Xs axis, and the Y L and Y R axes are parallel to the Zs axis.) And the spatial position of the object P (X ps , Y ps , Z) according to the principle of triangulation ps ) is expressed by the following equation.
Figure 2008092459

Note that yl and yr ideally match.

さらに、このセンサ座標系から車両座標系への変換が行われる。図12は、センサ座標系から車両座標系への座標変換を説明する図である。車両重心を原点とし、センサ座標系と各軸が平行な座標系XcYcZcを考える。このとき各軸Xc、Yc、Zcは、センサ座標系の各軸Xs、Ys、Zsをそれぞれax、ay、azシフトさせたものとなる。さらに、同様に車両重心を原点とし、鉛直軸をZf軸とし、軸Xc、Ycをそれぞれ水平面に投影した軸をXf、Yfとした場合の座標系XfYfZfを考える。ここで、XfとXcのなす角度をロール角φ、YfとYcのなす角度をピッチ角ρとすると、XcYcZc座標系における対象物Pの空間位置(Xpc、Ypc、Zpc)およびXfYfZf座標系における対象物Pの空間位置(Xpf、Ypf、Zpf)は、以下の式により表される。

Figure 2008092459
Further, conversion from the sensor coordinate system to the vehicle coordinate system is performed. FIG. 12 is a diagram illustrating coordinate conversion from the sensor coordinate system to the vehicle coordinate system. Consider a coordinate system XcYcZc in which the center of gravity of the vehicle is the origin and the sensor coordinate system and each axis are parallel. At this time, the axes Xc, Yc, and Zc are obtained by shifting the axes Xs, Ys, and Zs of the sensor coordinate system by ax, ay, and az, respectively. Similarly, consider a coordinate system XfYfZf where the center of gravity of the vehicle is the origin, the vertical axis is the Zf axis, and the axes Xc and Yc are projected on the horizontal plane are Xf and Yf. Here, assuming that the angle formed by Xf and Xc is the roll angle φ, and the angle formed by Yf and Yc is the pitch angle ρ, the spatial position (X pc , Y pc , Z pc ) and XfYfZf coordinates of the object P in the XcYcZc coordinate system. The spatial position (X pf , Y pf , Z pf ) of the object P in the system is represented by the following equation.
Figure 2008092459

これにより、空間上の位置を表すことができる。なお、ax、ay、azはカメラの配置位置に基づいて決まる定数であり、φ、ρは車両3の姿勢情報から求めることができる。このようにして求めた空間位置、すなわち三次元位置情報が画面上の画素位置と関連づけて記録される。   Thereby, the position in space can be expressed. Note that ax, ay, and az are constants determined based on the camera arrangement position, and φ and ρ can be obtained from the attitude information of the vehicle 3. The spatial position thus obtained, that is, the three-dimensional position information is recorded in association with the pixel position on the screen.

図5のS302の三次元情報導出処理を終えたら、S304に移行し、エレベーションマップの作成処理及び死角補間処理が行われる。   When the three-dimensional information derivation process in S302 of FIG. 5 is finished, the process proceeds to S304, and an elevation map creation process and a blind spot interpolation process are performed.

エレベーションマップの作成処理は、三次元位置情報に基づいて前方カメラ11の撮像領域aと左側方カメラ13の撮像領域aの重複領域aLFにおける高さ情報に関するエレベーションマップを作成する処理である。例えば、図13に示すように、エレベーションマップ21は、重複領域aLFを上方から見た俯瞰図に対応するように構成され、一マスが1cm×1cmの単位で立体物22の高さ情報が記録できるように作成される。ここでいう立体物とは、ガードレール、支柱、パイロンなど路面より高く構成されるもののほか、側溝など路面より低く構成されるものも含まれる。 The elevation map creation process is a process for creating an elevation map related to height information in the overlapping area a LF of the imaging area a F of the front camera 11 and the imaging area a L of the left camera 13 based on the three-dimensional position information. It is. For example, as shown in FIG. 13, the elevation map 21 is configured to correspond to an overhead view of the overlapping area a LF as viewed from above, and the height information of the three-dimensional object 22 in units of 1 cm × 1 cm. Is created so that can be recorded. The three-dimensional object referred to here includes not only those that are higher than the road surface such as guardrails, columns, and pylons, but also those that are lower than the road surface such as side grooves.

このエレベーションマップ21において、重複領域aLFにパイロンや支柱などの立体物22がある場合、立体物22の位置情報、高さ情報、輝度情報(色情報)がエレベーションマップ21に記録される。立体物22などの物体の三次元情報が記録されていない画素については、その周囲の画素で三次元情報が記録されているものがある場合、その三次元情報に基づいて補間することが好ましい。 In the elevation map 21, when there is a three-dimensional object 22 such as a pylon or a support in the overlapping area a LF , the position information, height information, and luminance information (color information) of the three-dimensional object 22 are recorded in the elevation map 21. . For pixels in which the three-dimensional information of an object such as the three-dimensional object 22 is not recorded, if there are pixels in which the three-dimensional information is recorded in the surrounding pixels, it is preferable to interpolate based on the three-dimensional information.

死角補間処理は、立体物などにより三次元情報が得られない死角領域について他のカメラの撮像情報に基づいて補間する処理である。この死角補間処理は、例えば、死角領域の導出、死角領域情報の記録処理、補間処理を順次実行することにより行われる。   The blind spot interpolation process is a process of interpolating a blind spot area where three-dimensional information cannot be obtained due to a three-dimensional object or the like based on imaging information of another camera. This blind spot interpolation process is performed, for example, by sequentially executing a blind spot area derivation process, a blind spot area information recording process, and an interpolation process.

立体物による死角領域の導出処理は、立体物の三次元情報に基づいて行われる。図14は、死角領域の導出処理の説明図である。図14(a)は監視領域を側方から見た図であり、図14(b)は監視領域を上方から見た図である。   The process of deriving the blind spot area by the three-dimensional object is performed based on the three-dimensional information of the three-dimensional object. FIG. 14 is an explanatory diagram of the blind spot area derivation process. FIG. 14A is a view of the monitoring area as viewed from the side, and FIG. 14B is a view of the monitoring area as viewed from above.

死角領域の導出処理は、例えば、立体物22の三次元情報に基づいて死角領域の長さL及び幅Wを算出して行われる。まず、立体物22の三次元情報に基づいて立体物22の高さhとカメラ11から立体物22の距離dが算出される。そして、h・d/(Hc−h)を演算することにより、死角領域の長さLが算出される。ここで、Hcは、カメラ11の設置高さである。また、死角領域の幅Wは、立体物22の幅とカメラ11からの距離に基づいて幾何学的な演算を行うことにより算出することができる。   The blind spot area derivation process is performed, for example, by calculating the length L and the width W of the blind spot area based on the three-dimensional information of the three-dimensional object 22. First, based on the three-dimensional information of the three-dimensional object 22, the height h of the three-dimensional object 22 and the distance d of the three-dimensional object 22 from the camera 11 are calculated. Then, the length L of the blind spot area is calculated by calculating h · d / (Hc−h). Here, Hc is the installation height of the camera 11. Further, the width W of the blind spot area can be calculated by performing a geometric calculation based on the width of the three-dimensional object 22 and the distance from the camera 11.

また、この死角領域の導出処理において、立体物22の三次元情報だけなく路面の三次元情報も用いて行ってもよい。この場合、路面が傾斜している場合に、死角領域を正確に導出することができる。   Further, this blind spot area derivation process may be performed using not only the three-dimensional information of the three-dimensional object 22 but also the three-dimensional information of the road surface. In this case, when the road surface is inclined, the blind spot area can be accurately derived.

図15は、死角領域の導出処理の説明図である。図15(a)は監視領域を側方から見た図であり、図15(b)は監視領域を上方から見た図である。図16は、死角領域の導出処理のフローチャートである。   FIG. 15 is an explanatory diagram of the blind spot area derivation process. FIG. 15A is a view of the monitoring area as viewed from the side, and FIG. 15B is a view of the monitoring area as viewed from above. FIG. 16 is a flowchart of the blind spot area derivation process.

図16のS400に示すように、死角領域の導出処理として、まず計測点Pvまでの距離Dvの算出処理が行われる。この算出処理は、カメラから重複領域aFLにおいて三次元情報を取得した計測点Pvまでの距離Dvを算出する処理である。この距離Dvは、計測点Pvの三次元座標データを用いて算出される。そして、S402に移行し、計測点PV−1までの距離DV−1の算出処理が行われる。計測点PV−1は、計測点Pvの手前側で計測点Pvと隣り合う計測点である。この距離DV−1は、計測点PV−1の三次元データを用いて算出される。 As shown in S400 of FIG. 16, as the blind spot area derivation process, first, a calculation process of the distance Dv to the measurement point Pv is performed. This calculation process is a process for calculating the distance Dv from the camera to the measurement point Pv where the three-dimensional information is acquired in the overlap region a FL . This distance Dv is calculated using the three-dimensional coordinate data of the measurement point Pv. Then, the process proceeds to S402, calculation processing of the distance D V-1 to the measurement point P V-1 is performed. The measurement point P V-1 is a measurement point adjacent to the measurement point Pv on the near side of the measurement point Pv. This distance D V-1 is calculated using the three-dimensional data of the measurement point P V-1 .

そして、S404に移行し、計測点間の距離Svの算出処理が行われる。この算出処理は、計測点Pvと計測点PV−1との距離Svを算出する処理であり、例えばPv−PV−1を算出して行われる。そして、S406に移行し、死角距離Lrの算出処理が行われる。この算出処理は、路面が水平であって傾斜していないと仮定した際の立体物22による死角距離Lrを算出する処理である。この死角距離Lrは、h・d/(Hc−h)を演算することにより算出される。 Then, the process proceeds to S404, and a calculation process of the distance Sv between the measurement points is performed. This calculation process is a process of calculating the distance Sv between the measurement point Pv and the measurement point P V-1, and is performed by calculating, for example, Pv-P V-1 . Then, the process proceeds to S406, and a blind spot distance Lr calculation process is performed. This calculation process is a process of calculating the blind spot distance Lr by the three-dimensional object 22 when it is assumed that the road surface is horizontal and not inclined. This blind spot distance Lr is calculated by calculating h · d / (Hc−h).

そして、S408に移行し、計測点PV−1の高さが計測点Pvの高さより低いか否かが判断される。計測点PV−1の高さが計測点Pvの高さより低いか否かは、それぞれの三次元座標データを比較することにより判断することができる。S408にて計測点PV−1の高さが計測点Pvの高さより低くないと判断された場合には、死角判断距離しきい値THの算出処理が行われる(S412)。この死角判断距離しきい値THの算出処理は、TH=Lr+K1・dの演算式により、死角判断距離しきい値THを算出する処理である。ここで、dはカメラから立体物22までの距離であり、K1は予め設定される係数である。 Then, the process proceeds to S408, and it is determined whether or not the height of the measurement point P V-1 is lower than the height of the measurement point Pv. Whether or not the height of the measurement point P V-1 is lower than the height of the measurement point Pv can be determined by comparing the respective three-dimensional coordinate data. Measurement point height of P V-1 at S408 is when it is determined not lower than the height of the measurement point Pv is calculation processing of the blind spot determining distance threshold TH D is performed (S412). Process for calculating the blind spot judgment distance threshold TH D is the arithmetic expression of TH D = Lr + K1 · d , is a process of calculating the blind spot determining distance threshold TH D. Here, d is a distance from the camera to the three-dimensional object 22, and K1 is a coefficient set in advance.

一方、S408にて計測点PV−1の高さが計測点Pvの高さより低いと判断された場合には、死角判断距離しきい値THの算出処理が行われる(S410)。この死角判断距離しきい値THの算出処理は、TH=Lr−K2・dの演算式により、死角判断距離しきい値THを算出する処理である。ここで、K2は予め設定される係数である。 On the other hand, the height of the measurement point P V-1 is when it is judged to be lower than the height of the measurement point Pv is calculation processing of the blind spot determining distance threshold TH D is performed in S408 (S410). Process for calculating the blind spot judgment distance threshold TH D is the arithmetic expression of TH D = Lr-K2 · d , is a process of calculating the blind spot determining distance threshold TH D. Here, K2 is a preset coefficient.

そして、S414に移行し、死角距離Lrが死角判断距離しきい値THより大きいか否かが判断される。死角距離Lrが死角判断距離しきい値THより大きくないと判断された場合には、計測点PV−1から計測点Pvまでが死角領域でないと判定される(S416)。一方、死角距離Lrが死角判断距離しきい値THより大きいと判断された場合には、計測点PV−1から計測点Pvまでが死角領域であると判定される(S418)。 Then, the process proceeds to S414, blind spot distance Lr is whether a blind spot determining distance threshold TH D is larger than or not. If the blind spot distance Lr is not greater than the blind spot determining distance threshold TH D from the measurement point P V-1 to the measurement point Pv is determined not to be blind area (S416). On the other hand, when the blind spot distance Lr is determined to be greater than the blind spot determining distance threshold TH D from the measurement point P V-1 to the measurement point Pv is determined as a blind area (S418).

そして、S420に移行し、全ての計測点について死角領域の判定が実施されたか否かが判断される。全ての計測点について死角領域の判定が実施されていない場合には、S400に戻る。一方、全ての計測点について死角領域の判定が実施された場合には、死角領域導出処理を終了する。   Then, the process proceeds to S420, and it is determined whether or not the blind spot area has been determined for all the measurement points. If the blind spot area has not been determined for all measurement points, the process returns to S400. On the other hand, when the blind spot area is determined for all the measurement points, the blind spot area derivation process ends.

このように、図16の死角領域導出処理を行うことにより、路面が傾斜している場合であっても、立体物による死角領域を正確に導出することができる。   As described above, by performing the blind spot area derivation process of FIG. 16, it is possible to accurately derive the blind spot area due to the three-dimensional object even when the road surface is inclined.

この死角領域導出処理によって導出された死角領域情報は、エレベータマップに記録される。この死角領域導出処理は、前方カメラ11に対する死角領域を導出すると共に、左側方カメラ13に対する死角領域の導出も行われる。これらの死角領域情報はそれぞれエレベータマップに記録される。   The blind spot area information derived by this blind spot area derivation process is recorded in the elevator map. In this blind spot area derivation process, a blind spot area for the front camera 11 is derived and a blind spot area for the left camera 13 is also derived. Each of these blind spot area information is recorded in the elevator map.

図17は前方カメラ11に対する死角領域D11を示した図であり、図18は左側方カメラ13に対する死角領域D13を示した図である。図17、18に示すように、前方カメラ11に対する死角領域D11と左側方カメラ13に対する死角領域D13は、前方カメラ11と左側方カメラ13の設置位置が異なることから、異なる領域となっている。   FIG. 17 is a view showing a blind spot area D11 for the front camera 11, and FIG. 18 is a view showing a blind spot area D13 for the left camera 13. As shown in FIG. As shown in FIGS. 17 and 18, the blind spot area D <b> 11 for the front camera 11 and the blind spot area D <b> 13 for the left camera 13 are different because the installation positions of the front camera 11 and the left camera 13 are different.

図19〜24は、死角領域の補間処理の説明図である。   19 to 24 are explanatory diagrams of the blind spot area interpolation processing.

死角領域の補間処理として、まず、前方カメラ11の死角領域D11及び左側方カメラ13の死角領域D13を用いて、前方カメラ11に対し死角領域であって左側方カメラ13に対して非死角領域である領域の抽出が行われる。図19に示すように、前方カメラ11の死角領域D11において死角領域D13と重複する領域Dxを除いた領域が、前方カメラ11に対し死角領域であって左側方カメラ13に対し非死角領域である領域となる。   As the blind spot area interpolation processing, first, the blind spot area D11 of the front camera 11 and the blind spot area D13 of the left side camera 13 are used. A certain region is extracted. As shown in FIG. 19, the area excluding the area Dx overlapping the blind spot area D13 in the blind spot area D11 of the front camera 11 is a blind spot area with respect to the front camera 11 and a non-dead spot area with respect to the left side camera 13. It becomes an area.

そして、エレベーションマップを参照し、前方カメラ11の死角領域に相当する左側方カメラ13の画像における画素位置が求められる。例えば、図20に示すエレベーションマップ21において前方カメラ11の死角領域D11内にあり三次元情報を持たない画素p0が図21の左側方カメラ13の画像においてどの位置に対応しているかに基づいて、前方カメラ11の死角領域に相当する左側方カメラ13の画像における画素位置が求められる。左側方カメラ13の画像としては、例えば仮想視点画像ILFが用いられる。 Then, with reference to the elevation map, the pixel position in the image of the left camera 13 corresponding to the blind spot area of the front camera 11 is obtained. For example, in the elevation map 21 shown in FIG. 20, based on which position the pixel p0 that is in the blind spot area D11 of the front camera 11 and has no three-dimensional information corresponds to the image of the left camera 13 of FIG. Then, the pixel position in the image of the left side camera 13 corresponding to the blind spot area of the front camera 11 is obtained. As an image of the left side camera 13, for example, a virtual viewpoint image ILF is used.

そして、図22に示すように、左側方カメラ13の画像において、前方カメラ11の死角領域D11のラベリングが行われる。また、死角領域D11の周辺領域Sが抽出される。そして、図23に示すように、周辺領域Sに隣接し死角領域D11を含まない小領域R、Rの縦ライン上下ペアが設定される。小領域Rとしては、例えば5×5画素の領域が設定される。また、小領域Rは、矩形状のものでもよいし、周辺領域Sのエッジ等の形に添って柔軟に変動する形であってもよい。   Then, as shown in FIG. 22, the blind spot area D <b> 11 of the front camera 11 is labeled in the image of the left camera 13. Further, the peripheral area S of the blind spot area D11 is extracted. Then, as shown in FIG. 23, a vertical line upper / lower pair of small areas R, R adjacent to the peripheral area S and not including the blind spot area D11 is set. As the small region R, for example, a region of 5 × 5 pixels is set. Further, the small region R may be a rectangular shape, or may be a shape that flexibly varies along the shape of the edge or the like of the peripheral region S.

そして、小領域R、Rに挟まれる死角部分領域Qが最小二乗法やHough変換などにより平面近似される。その平面近似により得られた三次元座標値は、図24に示すエレベーションマップ21に記録される。   Then, the blind spot partial area Q sandwiched between the small areas R and R is approximated in a plane by a least square method, a Hough transform, or the like. The three-dimensional coordinate values obtained by the plane approximation are recorded in the elevation map 21 shown in FIG.

なお、死角部分領域Qの平面近似処理に先立って、死角部分領域Qについて死角調査処理を行うことが好ましい。例えば、図23の画像において、死角部分領域Qに大きく輝度変化する部分があるか否かを調査し、大きく輝度変化がある場合には死角部分領域Qが連続的に繋がっていないので平面近似すべきでないと判断され、その領域については死角部として記録される。この調査方法としては、例えば画像ILFからSobelフィルタ等により輝度変化量が導出され、死角部分領域Qに輝度変化が所定のしきい値以上の部分が存在する密度が調べられ、そのしきい値以上の輝度変化の大きい領域が存在する場合には補間処理が行われずに死角フラグが記録される。また、周辺領域Sとその周辺部分の輝度分布を調べ、それらの領域に所定のしきい値以上の分布幅がある場合に、死角フラグを記録するようにしてもよい。 Prior to the plane approximation process of the blind spot partial area Q, it is preferable to perform the blind spot investigation process on the blind spot partial area Q. For example, in the image of FIG. 23, it is investigated whether or not there is a portion where the luminance is greatly changed in the blind spot partial area Q. If there is a large change in luminance, the blind spot partial area Q is not continuously connected and is approximated in a plane. It is determined that it should not be, and the area is recorded as a blind spot. This as a research method is, for example, the image I LF derived luminance variation by Sobel filter or the like from, the luminance change in the blind spot region Q is examined density present is more portions predetermined threshold, the threshold If there is an area with a large change in luminance as described above, the blind spot flag is recorded without performing the interpolation process. Further, the luminance distribution of the peripheral region S and the peripheral portion thereof is examined, and when these regions have a distribution width equal to or larger than a predetermined threshold, a blind spot flag may be recorded.

そして、小領域R、Rの設定位置を死角領域D11が延びる方向へ移動させ、上述した平面近似の処理が行われ、死角領域D11の全ての範囲が網羅されるまで繰り返される。   Then, the setting positions of the small areas R and R are moved in the direction in which the blind spot area D11 extends, the above-described planar approximation process is performed, and the process is repeated until the entire range of the blind spot area D11 is covered.

このような補間処理は、同様にして左側方カメラ13の死角領域D13に対しても行われる。この補間処理によれば、監視領域における死角領域を減らすことができる。   Such an interpolation process is similarly performed on the blind spot area D13 of the left-side camera 13. According to this interpolation processing, the blind spot area in the monitoring area can be reduced.

図25は、補間処理の結果を示す図である。図25(a)は補間処理前の死角領域を表したものであり、図25(b)は補間処理後の死角領域を表したものである。図25(a)に示す補間処理前では、前方カメラ11の死角領域D11及び左側方カメラ13の死角領域D13が大きく存在する。これに対し、図25(b)に示す補間処理後には、死角領域D11と死角領域D13が重複する死角領域Dxのみが存在するのみであり、監視領域の死角領域が低減している。これにより、前方カメラ11の撮像領域aと左側方カメラ13の撮像領域aとの重複領域aLFにおいて、より正確に立体物の三次元座標値などの三次元情報を取得することができる。従って、監視領域の俯瞰図作成に用いられる立体物の平面図をより正確に作成することができる。 FIG. 25 is a diagram illustrating a result of the interpolation process. FIG. 25A shows a blind spot area before interpolation processing, and FIG. 25B shows a blind spot area after interpolation processing. Before the interpolation process shown in FIG. 25A, a blind spot area D11 of the front camera 11 and a blind spot area D13 of the left camera 13 are large. On the other hand, after the interpolation processing shown in FIG. 25B, only the blind spot area Dx where the blind spot area D11 and the blind spot area D13 overlap exists, and the blind spot area of the monitoring area is reduced. Thereby, in the overlapping area a LF between the imaging area a F of the front camera 11 and the imaging area a L of the left side camera 13, it is possible to more accurately acquire the three-dimensional information such as the three-dimensional coordinate value of the three-dimensional object. . Therefore, it is possible to more accurately create a plan view of a three-dimensional object used for creating a bird's eye view of a monitoring area.

図5のS304のエレベーションマップの作成処理及び死角補間処理を終えたら、立体物のトラッキング処理が行われる(S306)。トラッキング処理は、前方カメラ11の撮像領域aと左側方カメラ13の撮像領域aとの重複領域aLF内で検出された立体物を追跡する処理である。例えば、車両が前方に走行した場合、立体物が車両に対し相対的に後方へ移動し、重複領域aLFの外部にまで移動する。その際、立体物が重複領域aLFの内にある時に取得した立体物の三次元情報を利用することにより、精度よく立体物の追跡が行える。 When the elevation map creation process and the blind spot interpolation process of S304 in FIG. 5 are finished, the tracking process of the three-dimensional object is performed (S306). The tracking process is a process of tracking a solid object detected in an overlapping area a LF between the imaging area a F of the front camera 11 and the imaging area a L of the left camera 13. For example, when the vehicle travels forward, the three-dimensional object moves rearward relative to the vehicle and moves to the outside of the overlapping region aLF . At this time, the three-dimensional object can be accurately tracked by using the three-dimensional information of the three-dimensional object acquired when the three-dimensional object is within the overlapping region a LF .

このトラッキング処理としては、まずS304にて作成したエレベーションマップを利用して重複領域aLF内にある立体物で設定しきい値以上の高さの立体物及び設定しきい値以下の窪み部分にラベリングが施され、それぞれ固有のID番号が付加される。例えば、図26に示すように、重複領域aLF内で検出した立体物22に対しID=iのごとく固有のID番号が付加される。そして、次のタイミングで取得した画像により導出したエレベータマップ情報やその画像情報を用いて同じ立体物22がトラッキングされる。次のタイミングで取得した画像としては、例えば次のフレーム画像が用いられる。またトラッキングの手法としては、例えばオプティカルフローなどの画像処理技術を用いればよい。このトラッキング処理において、図27に示すように、新たな立体物22aが出現した場合には、新たな固有のID番号、例えばID=i+1が付加され、トラッキングの対象とされる。 As the tracking process, first, using the elevation map created in S304, the three-dimensional object in the overlapping area a LF is higher than the set threshold value and the hollow part below the set threshold value. Labeling is performed and a unique ID number is added to each. For example, as shown in FIG. 26, a unique ID number is added to the three-dimensional object 22 detected in the overlapping area a LF as ID = i. Then, the same three-dimensional object 22 is tracked using the elevator map information derived from the image acquired at the next timing and the image information. As an image acquired at the next timing, for example, the next frame image is used. As a tracking method, for example, an image processing technique such as an optical flow may be used. In this tracking process, as shown in FIG. 27, when a new three-dimensional object 22a appears, a new unique ID number, for example, ID = i + 1, is added to be a tracking target.

そして、図5のS308に移行し、立体物情報の記録更新処理が行われる。この記録更新処理は、重複領域aLF内にある立体物の情報を記録し更新する処理である。この処理において、立体物の情報として、例えば立体物を撮像した前方カメラ11の撮像画像情報、立体物の位置情報、立体物に対するカメラからの視線方向情報の記録及び更新が行われる。前方カメラ11の撮像画像情報は、画像テンプレートとして記録され更新される。この場合、この画像テンプレートは、立体物の特徴情報として記録される。立体物の画像テンプレートは、立体物全体の画像でもよいし、立体物を部分的に分割した画像であってもよい。また、立体物の画像テンプレートに代えて、立体物のエッジ情報や輝度パターン情報などを立体物の特徴情報として記録し更新してもよい。なお、その際、立体物の特徴情報がない場合や特徴情報が取得できない場合には、NULLが記録される。 Then, the process proceeds to S308 in FIG. 5 and the recording update process of the three-dimensional object information is performed. This recording update process is a process for recording and updating information of a three-dimensional object in the overlapping area a LF . In this process, for example, information on the captured image of the front camera 11 that captured the three-dimensional object, position information of the three-dimensional object, and information on the direction of the line of sight from the camera with respect to the three-dimensional object are recorded and updated. The captured image information of the front camera 11 is recorded and updated as an image template. In this case, this image template is recorded as feature information of the three-dimensional object. The image template of the three-dimensional object may be an image of the entire three-dimensional object or an image obtained by partially dividing the three-dimensional object. Further, instead of the image template of the three-dimensional object, edge information, luminance pattern information, etc. of the three-dimensional object may be recorded and updated as feature information of the three-dimensional object. At this time, NULL is recorded when there is no feature information of the three-dimensional object or when feature information cannot be acquired.

立体物の位置情報は、立体物の三次元座標情報に基づいて記録更新が行われる。立体物の視線方向情報は、例えば、カメラに対する立体物の相対的な位置情報に基づいて視線方向ベクトルとして記録され更新される。   The position information of the three-dimensional object is recorded and updated based on the three-dimensional coordinate information of the three-dimensional object. The line-of-sight direction information of the three-dimensional object is recorded and updated as a line-of-sight direction vector based on, for example, relative position information of the three-dimensional object with respect to the camera.

そして、S310に移行し、境界フラグの記録処理が行われる。境界フラグの記録処理は、立体物が重複領域aLFの外縁部分の境界位置まで移動した場合にその立体物の情報として境界フラグを記録する処理である。例えば、図28に示すように、車両が前方へ移動する場合、立体物22は、相対的に監視領域の後方へ移動する。そして、立体物22が重複領域aLFの外縁部分の境界位置まで移動した場合には、立体物22の情報として境界フラグがセットされる。 Then, the process proceeds to S310, and a boundary flag recording process is performed. The boundary flag recording process is a process of recording a boundary flag as information of a three-dimensional object when the three-dimensional object moves to the boundary position of the outer edge portion of the overlapping region aLF . For example, as shown in FIG. 28, when the vehicle moves forward, the three-dimensional object 22 moves relatively behind the monitoring area. When the three-dimensional object 22 moves to the boundary position of the outer edge portion of the overlapping area a LF , a boundary flag is set as information on the three-dimensional object 22.

これにより、立体物22が重複領域aLFの内部から外部で出てきたものであることが認識できる。また、この境界フラグがセットされることにより、左側方カメラ13の撮像画像によるトラッキング処理及びモーションベースステレオ処理の準備及びトリガをかけることができる。図5のS310の境界フラグの記録処理において、立体物が重複領域aLFの外縁部分の境界位置まで移動していない場合には境界フラグの記録を行うことなく、制御処理を終了する。 Thereby, it can be recognized that the three-dimensional object 22 comes out from the inside of the overlap region aLF . Further, by setting this boundary flag, it is possible to prepare and trigger a tracking process and a motion-based stereo process based on an image captured by the left camera 13. In the boundary flag recording process of S310 in FIG. 5, if the three-dimensional object has not moved to the boundary position of the outer edge portion of the overlapping area aLF , the control process is terminated without recording the boundary flag.

ところで、S300にて、重複領域外へ立体物が移動したと判断された場合には、トラッキング処理が行われる(S312)。このトラッキング処理は、先に取得した立体物の特徴情報と左側方カメラ13により撮像された立体物の撮像画像に基づいて立体物を追跡する処理である。   By the way, when it is determined in S300 that the three-dimensional object has moved out of the overlapping area, tracking processing is performed (S312). This tracking process is a process of tracking a three-dimensional object based on the previously acquired feature information of the three-dimensional object and the captured image of the three-dimensional object captured by the left side camera 13.

例えば、立体物22が重複領域aLF内に存在していた際の前方カメラ11の撮像画像情報とその際の前方カメラ11からの視線方向情報を用いて、立体物22のトラッキングが行われる。前方カメラ11の撮像画像情報としては、S308で取得した立体物22の画像テンプレートが用いられる。また前方カメラ11からの視線方向情報としては、画像テンプレートとともに記録される立体物22の位置情報に基づいて演算される視線方向ベクトルが用いられる。 For example, the tracking of the three-dimensional object 22 is performed using the captured image information of the front camera 11 when the three-dimensional object 22 is present in the overlapping area a LF and the line-of-sight direction information from the front camera 11 at that time. As the captured image information of the front camera 11, the image template of the three-dimensional object 22 acquired in S308 is used. Further, as the line-of-sight direction information from the front camera 11, a line-of-sight direction vector calculated based on the position information of the three-dimensional object 22 recorded together with the image template is used.

具体的な処理内容としては、図29に示すように、時刻Tn+1に立体物22のトラッキング処理を行う場合、まず一つ前の情報、すなわち時刻Tnにおける立体物22の左側方カメラ13からの相対位置PLtn1(XLtn1、YLtn1、ZLtn1)から視線方向単位ベクトルGLnが求められる。この視線方向単位ベクトルGLnは、PLtn1/|PLtn1|を演算することにより求めればよい。 Specifically, as shown in FIG. 29, when the tracking processing of the three-dimensional object 22 is performed at time Tn + 1, first, the previous information, that is, the relative of the three-dimensional object 22 from the left-side camera 13 at time Tn. A line-of-sight direction unit vector G Ln is obtained from the position P Ltn1 (X Ltn1 , Y Ltn1 , Z Ltn1 ). The line-of-sight direction unit vector G Ln may be obtained by calculating P Ltn1 / | P Ltn1 |.

そして、過去の時刻T1〜Tn−1における同一ID番号の立体物22の前方カメラ11からの相対位置情報に基づいて、上記と同様な手法により視線方向単位ベクトルGLF1〜GLFn−1が求められる。そして、視線方向単位ベクトルGLF1〜GLFn−1のうちGLnに最も近い視線方向ベクトルが求められる。GLnに最も近い視線方向ベクトルの算出手法としては、例えば次の式により、Jiを求め、Jiが1に最も近い視線方向ベクトルをGLnに最も近い視線方向ベクトルとすればよい。 Then, based on the relative position information from the front camera 11 of the three-dimensional object 22 having the same ID number at a past time Tl to Tn-1, required viewing direction unit vector G LF1 ~G LFn-1 by the similar method It is done. Then, the line -of- sight direction vector closest to G Ln is obtained from the line -of- sight direction unit vectors G LF1 to G LFn−1 . The method of calculating the closest line-of-sight direction vector G Ln, for example by the following equation, obtains a Ji, Ji may be the closest line-of-sight direction vector closest line-of-sight direction vector 1 to G Ln.

Ji=GLn・GFi/|GLn|・|GFiJi = G Ln · G Fi / | G Ln | · | G Fi |

そして、GLnに最も近い視線方向ベクトルを求めたら、その視線方向ベクトルの位置情報を取得した時刻から設定範囲内の時刻における前方カメラ11の画像テンプレートを用いて、時刻Tn+1の左側方カメラ13の画像内で最も相関値の高い点が探索される。 Then, when prompted closest line-of-sight direction vector G Ln, using an image template of the front camera 11 at the time of the set range from the time acquiring the positional information of the visual line direction vector, at time Tn + 1 of the left side camera 13 The point with the highest correlation value is searched for in the image.

そして、その最も相関値の高い位置が立体物22の画像内における位置であると判断され、その位置情報が画像処理部2に記録される。   Then, it is determined that the position having the highest correlation value is the position in the image of the three-dimensional object 22, and the position information is recorded in the image processing unit 2.

なお、画像内探索範囲は、時刻Tn+1と時刻Tnの左側方カメラ13の画像から求めたオプティカルフローを利用して予測された位置周辺に限定してもよい。この場合、探索範囲が狭まるため、探索処理が迅速に行える。また、前方カメラ11から立体物22までの距離と左側方カメラ13から立体物22までの距離との比に基づいて前方カメラ1の画像テンプレートサイズを変更することが好ましい。これにより、探索処理を精度よく行うことができる。   The in-image search range may be limited to the vicinity of the position predicted using the optical flow obtained from the images of the left side camera 13 at time Tn + 1 and time Tn. In this case, since the search range is narrowed, the search process can be performed quickly. Moreover, it is preferable to change the image template size of the front camera 1 based on the ratio of the distance from the front camera 11 to the three-dimensional object 22 and the distance from the left side camera 13 to the three-dimensional object 22. Thereby, the search process can be performed with high accuracy.

次の時刻Tn+2においても、上述した時刻Tn+1の場合と同様の処理により、過去の同一IDの立体物の位置情報から視線方向情報が算出され、最も視線方向が近似する画像テンプレートを用いて立体物の位置が探索され立体物の追跡が行われる。   At the next time Tn + 2, the line-of-sight direction information is calculated from the position information of the solid object with the same ID in the past by the same processing as at the time Tn + 1 described above, and the solid object is used by using the image template with the closest line-of-sight direction. Is searched for and the tracking of the three-dimensional object is performed.

また、上述したトラッキング処理では、左側方カメラ13から立体物22への視線方向に対し最も近い視線方向で前方カメラ11に撮像された立体物22の画像テンプレートを用いて立体物22の位置を探索しているが、左側方カメラ13から立体物22への視線方向に対し所定の方向差の視線方向で前方カメラ11に撮像された立体物22の複数の画像テンプレートを用いて立体物22の位置を探索してもよい。例えば、複数の画像テンプレートについてそれぞれ左側方カメラ13の撮像画像に対し相関値の高い位置を探索し、それらの位置のうち最も相関値の高い位置を立体物22の位置としてもよい。   In the tracking process described above, the position of the three-dimensional object 22 is searched using the image template of the three-dimensional object 22 captured by the front camera 11 in the line-of-sight direction closest to the line-of-sight direction from the left-side camera 13 to the three-dimensional object 22. However, the position of the three-dimensional object 22 using a plurality of image templates of the three-dimensional object 22 imaged by the front camera 11 in a line-of-sight direction with a predetermined direction difference with respect to the line-of-sight direction from the left-side camera 13 to the three-dimensional object 22. May be searched. For example, a position with a high correlation value may be searched for each of a plurality of image templates with respect to the captured image of the left camera 13, and a position with the highest correlation value may be set as the position of the three-dimensional object 22.

そして、図5のS314に移行し、三次元情報導出処理が行われる。三次元情報導出処理は、左側方カメラ13の撮像画像を用いモーションベースステレオ法によって立体物の三次元情報を導出する処理である。例えば、時刻Tn+1において立体物22の三次元情報を導出する場合、時刻Tn+1における立体物22の撮像画像内の位置、時刻Tnにおける立体物22の撮像画像内の位置、時刻Tnと時刻Tn+1の時間差及び車両の速度に基づき時刻Tn+1、Tnの撮像画像を用いてモーションベースステレオ技術によって立体物22の三次元位置が導出される。   And it transfers to S314 of FIG. 5 and a three-dimensional information derivation process is performed. The three-dimensional information deriving process is a process of deriving three-dimensional information of a three-dimensional object by using a motion-based stereo method using an image captured by the left camera 13. For example, when the three-dimensional information of the three-dimensional object 22 is derived at time Tn + 1, the position in the captured image of the three-dimensional object 22 at time Tn + 1, the position in the captured image of the three-dimensional object 22 at time Tn, and the time difference between time Tn and time Tn + 1. The three-dimensional position of the three-dimensional object 22 is derived by the motion-based stereo technique using the captured images at times Tn + 1 and Tn based on the vehicle speed.

このとき、前方カメラ11と左側方カメラ13の重複領域に立体物22があるときに作成したエレベーションマップを用い、そのエレベーションマップ上の立体物22の移動軌跡の延長線上にあると仮定して、時刻Tn+1の左側方カメラ13の撮像画像内の立体物22の位置との交点から時刻Tn+1の立体物22の三次元位置を推定してもよい。この手法により立体物22の三次元位置を推定することにより、モーションベースステレオの処理を省略することができる。   At this time, it is assumed that the elevation map created when the three-dimensional object 22 exists in the overlapping area of the front camera 11 and the left-side camera 13 is on the extension line of the movement locus of the three-dimensional object 22 on the elevation map. Thus, the three-dimensional position of the three-dimensional object 22 at time Tn + 1 may be estimated from the intersection with the position of the three-dimensional object 22 in the captured image of the left camera 13 at time Tn + 1. By estimating the three-dimensional position of the three-dimensional object 22 by this method, the motion-based stereo process can be omitted.

また、このエレベーションマップにおける立体物22の移動軌跡データとモーションベースステレオによって導出される位置データを併用して立体物22の三次元位置の導出精度を向上させてよい。例えば、一方の手法により導出した位置データを他方の手法により導出した位置データで確認することにより、立体物22の一データの信頼性を高めることができる。また、両者の手法により導出した位置データの平均を採ることにより、立体物22の位置データを求めてもよい。   Further, the accuracy of deriving the three-dimensional position of the three-dimensional object 22 may be improved by using together the movement trajectory data of the three-dimensional object 22 in this elevation map and the position data derived by the motion-based stereo. For example, the reliability of one data of the three-dimensional object 22 can be improved by confirming the position data derived by one method with the position data derived by the other method. Further, the position data of the three-dimensional object 22 may be obtained by taking the average of the position data derived by both methods.

そして、S316に移行し、エレベーションマップ作成処理が行われる。このエレベーションマップ作成処理は、重複領域aLFを除いた撮影領域aのエレベーションマップを作成する処理である。例えば、S314で導出した三次元位置に基づき立体物22の位置が設定され、立体物22が重複領域aLFを内に存在していた時に取得したデータを用いて立体物22の高さなどの三次元情報や輝度情報が設定される。これにより、重複領域aLFを除いた撮影領域aのエレベーションマップが作成される。 Then, the process proceeds to S316, and an elevation map creation process is performed. The elevation map creation process is a process for creating elevation map of the imaging area a L excluding the overlapping region a LF. For example, the position of the three-dimensional object 22 is set using the data acquired when the position of the three-dimensional object 22 is set based on the three-dimensional position derived in S314 and the three-dimensional object 22 exists in the overlapping area aLF . Three-dimensional information and luminance information are set. Thus, elevation maps excluding the overlapping region a LF imaging area a L is created.

なお、立体物22などに三次元情報がない部分については、三次元情報がある近隣領域から線形補間等の技術を用いて補間することが好ましい。   It should be noted that it is preferable to interpolate a portion having no three-dimensional information in the three-dimensional object 22 or the like from a neighboring region having the three-dimensional information using a technique such as linear interpolation.

また、S312におけるトラッキング処理は、前方カメラ11の画像テンプレートが試用できる範囲は、立体物22が左側方カメラ13の真横位置にあるときまである。このため、立体物22が左側方カメラ13の真横位置より後方へ移動した場合には、時系列画像を利用したオプティカルフローによるモーションベースステレオ法を用いてトラッキング処理及び三次元情報導出処理を行って、エレベーションマップを作成すればよい。   In the tracking process in S <b> 312, the range in which the image template of the front camera 11 can be used is the time when the three-dimensional object 22 is in a position directly beside the left camera 13. For this reason, when the three-dimensional object 22 moves rearward from the position just beside the left-side camera 13, tracking processing and three-dimensional information derivation processing are performed using a motion-based stereo method based on optical flow using time-series images. What is necessary is just to create an elevation map.

そして、S318に移行し、連携処理が行われる。連携処理は、立体物が左側方カメラ13の単独の撮像領域a(重複領域aLF及び重複領域aLBを除く撮像領域a)から重複領域aLBに入った際の連携を採る処理である。例えば、立体物22が左側方カメラ13の単独の撮像領域aにある場合の左側方カメラ13の撮像画像を画像テンプレートとして予め記録しておき、立体物22が後方カメラ14の撮像領域aに入った場合に左側方カメラ13の画像テンプレートを用いることにより、後方カメラ14と左側方カメラ13とのステレオ視による三次元導出結果の精度を高めることが可能となる。また、左側方カメラ13から遠くなりすぎて左側方カメラ13からは立体物22が追跡できない距離でも、後方カメラ14の撮像画像と左側方カメラ13の画像テンプレートを用いて追跡処理が行える。 And it transfers to S318 and a cooperation process is performed. In cooperative processing, the three-dimensional object takes cooperation when entering the overlap region a LB from a single imaging area a L of the left side camera 13 (overlapping region a LF and overlapping area imaging region excluding a LB a L) process is there. For example, the captured image of the left-side camera 13 when the three-dimensional object 22 is in the single imaging area a L of the left-side camera 13 is recorded in advance as an image template, and the three-dimensional object 22 is recorded in the imaging area a B of the rear camera 14. By using the image template of the left side camera 13 when entering, it is possible to increase the accuracy of the three-dimensional derivation result by the stereo view of the rear camera 14 and the left side camera 13. In addition, the tracking process can be performed using the captured image of the rear camera 14 and the image template of the left camera 13 even at a distance where the three-dimensional object 22 cannot be tracked from the left camera 13 due to being too far from the left camera 13.

そして、S320に移行し、削除処理が行われる。削除処理は、立体物などの画像テンプレートや位置情報などを削除する処理である。例えば、立体物22が前方カメラ11の視野から離れた場合、不要な画像テンプレートや位置情報のデータが削除される。   Then, the process proceeds to S320, and a deletion process is performed. The deletion process is a process of deleting an image template such as a three-dimensional object or position information. For example, when the three-dimensional object 22 moves away from the field of view of the front camera 11, unnecessary image templates and position information data are deleted.

そして、この削除処理を終えたら、図5に示す前方カメラ画像と左側方カメラ画像における画像処理を終了する。   When the deletion process is finished, the image process for the front camera image and the left camera image shown in FIG. 5 is finished.

図4のS40における前方カメラ画像と右側方カメラ画像における画像処理は、上述した前方カメラ画像と左側方カメラ画像における画像処理と同様に行われる。すなわち、左側方カメラ画像を右側方カメラ画像に置き換えて処理することにより、前方カメラ画像と左側方カメラ画像における画像処理と同様に実行することができる。   The image processing for the front camera image and the right side camera image in S40 in FIG. 4 is performed in the same manner as the image processing for the front camera image and the left side camera image described above. That is, by performing processing by replacing the left-side camera image with the right-side camera image, it can be executed in the same manner as the image processing for the front camera image and the left-side camera image.

また、図4のS60における後方カメラ画像と左側方カメラ画像における画像処理は、上述した前方カメラ画像と左側方カメラ画像における画像処理と同様に行われる。すなわち、前方カメラ画像を後方カメラ画像に置き換えて処理することにより、前方カメラ画像と左側方カメラ画像における画像処理と同様に実行することができる。   Further, the image processing for the rear camera image and the left camera image in S60 of FIG. 4 is performed in the same manner as the image processing for the front camera image and the left camera image described above. That is, by performing processing by replacing the front camera image with the rear camera image, it can be executed in the same manner as the image processing for the front camera image and the left camera image.

さらに、図4のS70における後方カメラ画像と右側方カメラ画像における画像処理は、上述した前方カメラ画像と左側方カメラ画像における画像処理と同様に行われる。すなわち、前方カメラ画像を後方カメラ画像に置き換え、かつ左側方カメラ画像を右側方カメラ画像に置き換えて処理することにより、前方カメラ画像と左側方カメラ画像における画像処理と同様に実行することができる。   Further, the image processing for the rear camera image and the right side camera image in S70 of FIG. 4 is performed in the same manner as the image processing for the front camera image and the left side camera image described above. That is, by replacing the front camera image with the rear camera image and replacing the left side camera image with the right side camera image, processing can be performed in the same manner as the image processing for the front camera image and the left side camera image.

以上のように、本実施形態に係る周辺監視装置によれば、先に立体物を撮像したカメラの撮像画像から立体物の画像テンプレートなどの特徴情報を取得しつつ、その物体の特徴情報を取得した際のカメラから物体に対する第一視線方向を取得することにより、立体物の撮像される領域が撮像領域の重複領域から他のカメラの単独撮像領域に相対移動した際に、他のカメラから立体物への視線方向に近い第一視線方向で撮像された物体の特徴情報及び他のカメラにより撮像された立体物の撮像画像に基づいて物体を追跡する。これにより、他のカメラの撮像画像内の物体の位置を精度よく追跡することができる。   As described above, according to the periphery monitoring device according to the present embodiment, the feature information of the object is acquired while acquiring the feature information such as the image template of the three-dimensional object from the captured image of the camera that first captured the three-dimensional object. By acquiring the first line-of-sight direction with respect to the object from the camera at the time when the three-dimensional object is imaged, when the area where the three-dimensional object is imaged is relatively moved from the overlapping area of the imaging area to the single imaging area of the other camera, The object is tracked based on the feature information of the object imaged in the first line-of-sight direction close to the object's line-of-sight direction and the captured image of the three-dimensional object imaged by another camera. Thereby, the position of the object in the captured image of the other camera can be accurately tracked.

また、本実施形態に係る周辺監視装置によれば、重複した撮像領域を有する二つのカメラの撮像画像に基づくステレオ視によって重複領域に存在する立体物の三次元情報を取得し、トラッキング処理による追跡結果とステレオ視により予め取得された三次元情報に基づいてカメラの単独撮像領域に存在する物体の三次元情報を取得することにより、ステレオ視により立体物の三次元情報が取得困難な単独撮像領域に物体が存在している場合であっても、立体物の三次元情報を確実に取得することができる。   Further, according to the periphery monitoring device according to the present embodiment, the three-dimensional information of the three-dimensional object existing in the overlapping region is acquired by stereo vision based on the captured images of the two cameras having the overlapping imaging region, and tracking is performed by the tracking process. Single imaging area where it is difficult to obtain three-dimensional information of a three-dimensional object by stereo vision by acquiring three-dimensional information of an object existing in the single imaging area of the camera based on the result and three-dimensional information obtained in advance by stereo vision Even if an object exists in the three-dimensional object, the three-dimensional information of the three-dimensional object can be reliably acquired.

また、本実施形態に係る周辺監視装置によれば、二つのカメラのいずれかが撮像できず立体物の三次元情報が得られない死角領域を特定し、その死角領域のうちいずれかのカメラにより撮像可能な領域であって輝度が連続的に変化している場合に死角領域の周辺領域の三次元情報に基づいて死角領域を補間する。これにより、死角領域を低減してステレオ視で得られない三次元情報を補間することができる。   In addition, according to the periphery monitoring device according to the present embodiment, a blind spot area in which one of the two cameras cannot be captured and the three-dimensional information of the three-dimensional object cannot be obtained is identified, and one of the blind spot areas is When it is an imageable area and the luminance changes continuously, the blind spot area is interpolated based on the three-dimensional information of the peripheral area of the blind spot area. Thereby, it is possible to interpolate three-dimensional information that cannot be obtained by stereo viewing by reducing the blind spot area.

また、本実施形態に係る周辺監視装置によれば、二つのカメラの撮像画像に基づくステレオ視により立体物の三次元情報を取得する際に、先に取得された立体物の三次元情報を参照することにより、ステレオ視による物体の三次元情報の導出が精度よく行える。   Further, according to the periphery monitoring device according to the present embodiment, when acquiring the three-dimensional information of the three-dimensional object by stereo vision based on the captured images of the two cameras, refer to the three-dimensional information of the three-dimensional object acquired previously. By doing so, it is possible to accurately derive the three-dimensional information of the object by stereo vision.

また、本実施形態に係る周辺監視装置によれば、各カメラが移動体である車両3に設置され車両3の周囲を撮像し、その撮影画像に基づいて車両3に対する立体物の相対位置座標値を取得することにより、車両3が移動して立体物が撮像領域の重複領域から外れた場合でも立体物相対的な位置を容易に把握することができる。   In addition, according to the periphery monitoring apparatus according to the present embodiment, each camera is installed in the vehicle 3 that is a moving body, images the surroundings of the vehicle 3, and the relative position coordinate value of the three-dimensional object with respect to the vehicle 3 based on the captured image. As a result, the relative position of the three-dimensional object can be easily grasped even when the vehicle 3 moves and the three-dimensional object deviates from the overlapping area of the imaging regions.

また、車両周囲の立体物の相対位置座標値及び三次元座標値に基づいて車両周囲の俯瞰図を作成することにより、立体物を正確な位置に表示でき、立体物の歪みの少ない俯瞰図を作成することができる。   Also, by creating a bird's-eye view around the vehicle based on the relative position coordinate value and three-dimensional coordinate value of the three-dimensional object around the vehicle, the three-dimensional object can be displayed at an accurate position, and the bird's-eye view with less distortion of the three-dimensional object can be displayed. Can be created.

さらに、本実施形態に係る周辺監視装置によれば、立体物の相対位置座標値に基づいて車両3と立体物が接触するか否かを判断し、車両3が立体物に接触すると判断した場合にその接触を回避させる。これにより、カメラの撮像領域が重複する重複領域以外の領域に立体物が存在する場合でも、その立体物の相対位置に基づいて的確に車両3の接触回避が行える。   Furthermore, according to the periphery monitoring device according to the present embodiment, when it is determined whether the vehicle 3 and the three-dimensional object are in contact based on the relative position coordinate value of the three-dimensional object, and it is determined that the vehicle 3 is in contact with the three-dimensional object. To avoid that contact. Thereby, even when a three-dimensional object exists in an area other than the overlapping area where the imaging areas of the cameras overlap, it is possible to accurately avoid contact with the vehicle 3 based on the relative position of the three-dimensional object.

なお、上述した実施形態は本発明に係る周辺監視装置の一例を示すものである。本発明に係る周辺監視装置は、これらの実施形態に係る周辺監視装置に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る周辺監視装置を変形し、又は他のものに適用したものであってもよい。   In addition, embodiment mentioned above shows an example of the periphery monitoring apparatus which concerns on this invention. The periphery monitoring device according to the present invention is not limited to the periphery monitoring device according to these embodiments, and the periphery monitoring device according to the embodiment is modified or changed without changing the gist described in each claim, or It may be applied to other things.

本発明の実施形態に係る周辺監視装置の構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of the periphery monitoring apparatus which concerns on embodiment of this invention. 図1の周辺監視装置におけるカメラの配置とカメラの撮像領域を示す平面図である。It is a top view which shows the arrangement | positioning of the camera and the imaging area of a camera in the periphery monitoring apparatus of FIG. 図1の周辺監視装置におけるカメラで得られる画像の一例を示す図である。It is a figure which shows an example of the image obtained with the camera in the periphery monitoring apparatus of FIG. 図1の周辺監視装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the periphery monitoring apparatus of FIG. 図1の周辺監視装置の前方カメラ画像と左側方カメラ画像における画像処理を示すフローチャートである。It is a flowchart which shows the image process in the front camera image and left side camera image of the periphery monitoring apparatus of FIG. 図1の周辺監視装置の画像処理範囲の設定についての説明図である。It is explanatory drawing about the setting of the image processing range of the periphery monitoring apparatus of FIG. 図1の周辺監視装置における仮想視点画像の生成についての説明図である。It is explanatory drawing about the production | generation of the virtual viewpoint image in the periphery monitoring apparatus of FIG. 撮像画像に基づいて生成した仮想視点画像を示した図である。It is the figure which showed the virtual viewpoint image produced | generated based on the captured image. 図1の周辺監視装置における仮想視点画像の生成についての説明図である。It is explanatory drawing about the production | generation of the virtual viewpoint image in the periphery monitoring apparatus of FIG. エピポーラ極線を説明する図である。It is a figure explaining an epipolar polar line. ステレオ視による空間位置算出原理を説明する図である。It is a figure explaining the spatial position calculation principle by stereo vision. センサ座標系から車両座標系への変換を説明する図である。It is a figure explaining conversion from a sensor coordinate system to a vehicle coordinate system. エレベーションマップの説明図である。It is explanatory drawing of an elevation map. 図1の周辺監視装置における死角領域の導出処理の説明図である。It is explanatory drawing of the derivation process of a blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角領域の導出処理の説明図である。It is explanatory drawing of the derivation process of a blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角導出処理を示すフローチャートである。It is a flowchart which shows the blind spot derivation | leading-out process in the periphery monitoring apparatus of FIG. 立体物による死角領域の説明図である。It is explanatory drawing of the blind spot area | region by a solid object. 立体物による死角領域の説明図である。It is explanatory drawing of the blind spot area | region by a solid object. 図1の周辺監視装置における死角領域の補間処理の説明図である。It is explanatory drawing of the interpolation process of the blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角領域の補間処理の説明図である。It is explanatory drawing of the interpolation process of the blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角領域の補間処理の説明図である。It is explanatory drawing of the interpolation process of the blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角領域の補間処理の説明図である。It is explanatory drawing of the interpolation process of the blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角領域の補間処理の説明図である。It is explanatory drawing of the interpolation process of the blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角領域の補間処理の説明図である。It is explanatory drawing of the interpolation process of the blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における死角領域の補間処理結果の説明図である。It is explanatory drawing of the interpolation process result of a blind spot area | region in the periphery monitoring apparatus of FIG. 図1の周辺監視装置におけるトラッキング処理の説明図である。It is explanatory drawing of the tracking process in the periphery monitoring apparatus of FIG. 図1の周辺監視装置におけるトラッキング処理の説明図である。It is explanatory drawing of the tracking process in the periphery monitoring apparatus of FIG. 図1の周辺監視装置における境界フラグ記録処理の説明図である。It is explanatory drawing of the boundary flag recording process in the periphery monitoring apparatus of FIG. 図1の周辺監視装置におけるトラッキング処理の説明図である。It is explanatory drawing of the tracking process in the periphery monitoring apparatus of FIG.

符号の説明Explanation of symbols

1…周辺監視装置、2…画像処理部、11…前方カメラ、12…右側方カメラ、13…左側方カメラ、14…後方カメラ、22…立体物、30…出力部。   DESCRIPTION OF SYMBOLS 1 ... Perimeter monitoring apparatus, 2 ... Image processing part, 11 ... Front camera, 12 ... Right side camera, 13 ... Left side camera, 14 ... Back camera, 22 ... Three-dimensional object, 30 ... Output part.

Claims (9)

第一撮像領域を撮像する第一撮像手段と、
前記第一撮像領域と重複しない単独撮像領域を有する第二撮像領域を撮像する第二撮像手段と、
前記第一撮像手段により撮像された物体の特徴情報を取得する特徴情報取得手段と、
前記物体の特徴情報を取得した際の前記第一撮像手段から前記物体に対する第一視線方向を取得する第一視線方向取得手段と、
前記物体の撮像される領域が前記第一撮像領域から前記第二撮像領域における単独撮像領域に相対移動した場合に、前記第二撮像手段から前記物体への視線方向に対し所定の方向差の範囲内である前記第一視線方向で撮像された物体の特徴情報及び前記第二撮像手段により撮像された撮像画像に基づいて、前記物体を追跡する物体追跡手段と、
を備えた周辺監視装置。
First imaging means for imaging the first imaging region;
Second imaging means for imaging a second imaging area having a single imaging area that does not overlap with the first imaging area;
Feature information acquisition means for acquiring feature information of an object imaged by the first imaging means;
First gaze direction acquisition means for acquiring a first gaze direction with respect to the object from the first imaging means when acquiring the feature information of the object;
A range of a predetermined direction difference with respect to the line-of-sight direction from the second imaging means to the object when the area where the object is imaged is relatively moved from the first imaging area to the single imaging area in the second imaging area Object tracking means for tracking the object based on feature information of the object imaged in the first line-of-sight direction and the captured image captured by the second imaging means,
Perimeter monitoring device with
前記第二撮像手段から前記物体への視線方向に対し最も近い第一視線方向で撮像された物体の特徴情報と前記第二撮像手段の撮像画像における画像領域との相関値を算出する相関値算出手段を備え、
前記物体追跡手段は、前記相関値が最も高い点を前記物体の位置として前記物体を追跡すること、
を特徴とする請求項1に記載の周辺監視装置。
Correlation value calculation for calculating the correlation value between the feature information of the object imaged in the first line-of-sight direction closest to the line-of-sight direction from the second imaging unit to the object and the image area in the captured image of the second imaging unit With means,
The object tracking means is configured to track the object using the point having the highest correlation value as the position of the object;
The periphery monitoring device according to claim 1.
前記第二撮像手段から前記物体への視線方向に対し所定の方向差の範囲内である前記第一視線方向で撮像された物体の複数の特徴情報と前記第二撮像手段の撮像画像における画像領域との相関値をそれぞれ算出する相関値算出手段を備え、
前記物体追跡手段は、前記相関値が最も高い点を前記物体の位置として前記物体を追跡すること、
を特徴とする請求項1に記載の周辺監視装置。
A plurality of feature information of the object imaged in the first line-of-sight direction within a predetermined direction difference range with respect to the line-of-sight direction from the second imaging unit to the object, and an image area in the captured image of the second imaging unit Correlation value calculating means for calculating the correlation value with
The object tracking means is configured to track the object using the point having the highest correlation value as the position of the object;
The periphery monitoring device according to claim 1.
前記第一撮像手段及び前記第二撮像手段の撮像画像に基づくステレオ視によって前記第一撮像領域と前記第二撮像領域が重複する重複領域に存在する物体の三次元情報を取得する第一物体三次元情報取得手段と、
前記物体追跡手段による追跡結果と前記第一物体三次元情報取得手段により取得された三次元情報に基づいて前記第二撮像領域の単独撮像領域に存在する物体の三次元情報を取得する第二物体三次元情報取得手段と、
を備えたことを特徴とする請求項1〜3のいずれか一項に記載の周辺監視装置。
A first object tertiary that obtains three-dimensional information of an object existing in an overlapping region where the first imaging region and the second imaging region overlap by stereo vision based on the captured images of the first imaging unit and the second imaging unit. Original information acquisition means;
A second object that acquires three-dimensional information of an object existing in a single imaging region of the second imaging region based on the tracking result by the object tracking unit and the three-dimensional information acquired by the first object three-dimensional information acquisition unit. Three-dimensional information acquisition means;
The periphery monitoring device according to any one of claims 1 to 3, further comprising:
前記第一物体三次元情報取得手段がステレオ視を行った際に前記物体に遮られて前記第一撮像手段及び前記第二撮像手段の少なくとも一方で撮像できずに三次元情報が取得できない死角領域を特定する死角特定手段と、
前記死角領域のうち前記第一撮像手段又は前記第二撮像手段により撮像可能な領域であって輝度が連続的に変化している場合に前記死角領域の周辺領域の三次元情報に基づいて死角領域を補間する死角補間手段と、
前記死角補間手段により補間可能な領域と補間不可能な領域を記録する死角補間領域記録手段と、
を備えたことを特徴とする請求項4に記載の周辺監視装置。
When the first object three-dimensional information acquisition means performs a stereo view, the blind spot area is blocked by the object and cannot be imaged by at least one of the first imaging means and the second imaging means and cannot acquire three-dimensional information. Blind spot identifying means for identifying
The blind spot area based on the three-dimensional information of the peripheral area of the blind spot area when the brightness is continuously changing in the blind spot area that is imageable by the first imaging means or the second imaging means. Blind spot interpolation means for interpolating
A blind spot interpolation area recording means for recording an area that can be interpolated by the blind spot interpolation means and a non-interpolable area;
The periphery monitoring device according to claim 4, further comprising:
前記第二撮像領域と重複する重複領域を有する第三撮像領域を撮像する第三撮像手段と、
前記物体の撮像される領域が前記第二撮像領域の単独撮像領域から前記第二撮像領域と前記第三撮像領域の重複領域に相対移動した場合に、前記第二物体三次元情報取得手段により取得された物体の三次元情報を参照して前記第二撮像手段及び前記第三撮像手段の撮像画像に基づくステレオ視により前記物体の三次元情報を取得する第一物体三次元情報取得手段と、
を備えたことを特徴とする請求項4又は5に記載の周辺監視装置。
A third imaging means for imaging a third imaging area having an overlapping area overlapping the second imaging area;
Acquired by the second object three-dimensional information acquisition means when the area where the object is imaged is relatively moved from the single imaging area of the second imaging area to the overlapping area of the second imaging area and the third imaging area. First object three-dimensional information acquisition means for acquiring three-dimensional information of the object by stereo vision based on the captured images of the second imaging means and the third imaging means with reference to the three-dimensional information of the object,
The periphery monitoring device according to claim 4 or 5, comprising:
前記第一撮像手段及び前記第二撮像手段は、移動体に設置され前記移動体の周囲を撮像し、
前記第一物体三次元情報取得手段及び前記第二物体三次元情報取得手段は、前記物体の三次元情報として前記移動体に対する前記物体の相対位置座標値を取得すること、
を特徴とする請求項4〜6のいずれか一項に記載の周辺監視装置。
The first imaging means and the second imaging means are installed on a moving body and images the periphery of the moving body,
The first object three-dimensional information acquisition means and the second object three-dimensional information acquisition means acquire the relative position coordinate value of the object with respect to the moving body as three-dimensional information of the object;
The perimeter monitoring device according to any one of claims 4 to 6.
前記物体の相対位置座標値に基づいて前記移動体の周囲の俯瞰図を作成する俯瞰図作成手段を備えたことを特徴とする請求項7に記載の周辺監視装置。   The periphery monitoring device according to claim 7, further comprising an overhead view creation unit that creates an overhead view around the moving body based on a relative position coordinate value of the object. 前記物体の相対位置座標値に基づいて前記移動体と前記物体が接触するか否かを判断する接触判断手段と、
前記接触判断手段が接触すると判断した場合にその接触を回避させる接触回避手段と、
を備えたことを特徴とする請求項7に記載の周辺監視装置。
Contact determining means for determining whether or not the moving body and the object are in contact based on a relative position coordinate value of the object;
Contact avoiding means for avoiding contact when the contact determining means determines to contact;
The periphery monitoring device according to claim 7, comprising:
JP2006273220A 2006-10-04 2006-10-04 Perimeter monitoring device Expired - Fee Related JP4893212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006273220A JP4893212B2 (en) 2006-10-04 2006-10-04 Perimeter monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006273220A JP4893212B2 (en) 2006-10-04 2006-10-04 Perimeter monitoring device

Publications (2)

Publication Number Publication Date
JP2008092459A true JP2008092459A (en) 2008-04-17
JP4893212B2 JP4893212B2 (en) 2012-03-07

Family

ID=39376087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006273220A Expired - Fee Related JP4893212B2 (en) 2006-10-04 2006-10-04 Perimeter monitoring device

Country Status (1)

Country Link
JP (1) JP4893212B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123293A (en) * 2006-11-13 2008-05-29 Toyota Motor Corp Image processor
JP2009085651A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Image processing system
JP2012089084A (en) * 2010-10-22 2012-05-10 Toyota Motor Corp Risk calculation device and risk calculation method
JP2013025528A (en) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd Image generation device for vehicles and image generation method for vehicles
JP2013093865A (en) * 2012-12-07 2013-05-16 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2013097390A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Own vehicle travel estimation method and own vehicle travel estimation program
WO2020021954A1 (en) * 2018-07-26 2020-01-30 ソニー株式会社 Information processing device, information processing method, and program
EP3382336A4 (en) * 2015-11-25 2020-02-19 Hitachi Automotive Systems, Ltd. Stereo camera device
US11126859B2 (en) 2018-10-31 2021-09-21 Fanuc Corporation Robot system
KR102343052B1 (en) * 2021-06-17 2021-12-24 주식회사 인피닉 Method for identifying the path of an object in a 2D image based on 3D data, and computer program recorded on record-medium for executing method therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9139135B2 (en) 2012-09-07 2015-09-22 Musaid A. ASSAF System and method that minimizes hazards of blind spots while driving
EP4137926A4 (en) * 2020-09-14 2024-01-10 LG Electronics, Inc. Image processing apparatus for vehicle and method for displaying visual information on display included in vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269362A (en) * 1997-03-21 1998-10-09 Omron Corp Object recognition method and device therefor
JPH11252587A (en) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd Object tracking device
JP2002166802A (en) * 2000-11-30 2002-06-11 Toyota Motor Corp Device for monitoring around vehicle
JP2003061075A (en) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd Object-tracking device, object-tracking method and intruder monitor system
JP2006321419A (en) * 2005-05-20 2006-11-30 Nissan Motor Co Ltd Image display device and image display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269362A (en) * 1997-03-21 1998-10-09 Omron Corp Object recognition method and device therefor
JPH11252587A (en) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd Object tracking device
JP2002166802A (en) * 2000-11-30 2002-06-11 Toyota Motor Corp Device for monitoring around vehicle
JP2003061075A (en) * 2001-08-09 2003-02-28 Matsushita Electric Ind Co Ltd Object-tracking device, object-tracking method and intruder monitor system
JP2006321419A (en) * 2005-05-20 2006-11-30 Nissan Motor Co Ltd Image display device and image display method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123293A (en) * 2006-11-13 2008-05-29 Toyota Motor Corp Image processor
JP2009085651A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Image processing system
JP2012089084A (en) * 2010-10-22 2012-05-10 Toyota Motor Corp Risk calculation device and risk calculation method
JP2013025528A (en) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd Image generation device for vehicles and image generation method for vehicles
JP2013097390A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Own vehicle travel estimation method and own vehicle travel estimation program
JP2013093865A (en) * 2012-12-07 2013-05-16 Mitsubishi Motors Corp Vehicle periphery monitoring device
EP3382336A4 (en) * 2015-11-25 2020-02-19 Hitachi Automotive Systems, Ltd. Stereo camera device
WO2020021954A1 (en) * 2018-07-26 2020-01-30 ソニー株式会社 Information processing device, information processing method, and program
US11126859B2 (en) 2018-10-31 2021-09-21 Fanuc Corporation Robot system
KR102343052B1 (en) * 2021-06-17 2021-12-24 주식회사 인피닉 Method for identifying the path of an object in a 2D image based on 3D data, and computer program recorded on record-medium for executing method therefor

Also Published As

Publication number Publication date
JP4893212B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
JP4893212B2 (en) Perimeter monitoring device
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP4899424B2 (en) Object detection device
JP2004198212A (en) Apparatus for monitoring vicinity of mobile object
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2002319091A (en) Device for recognizing following vehicle
JP2004198211A (en) Apparatus for monitoring vicinity of mobile object
JPH05265547A (en) On-vehicle outside monitoring device
JP7263731B2 (en) Image processing device
JP2007334859A (en) Object detector
JP4154980B2 (en) Moving object periphery monitoring device
JP2008158640A (en) Moving object detection apparatus
JP2010165142A (en) Device and method for recognizing road sign for vehicle
JP2004203068A (en) Mobile body periphery monitor device
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
JP2004356845A (en) Apparatus for supervising surrounding of vehicle
JP3562250B2 (en) Leading vehicle detection device
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP5825713B2 (en) Dangerous scene reproduction device for vehicles
JP2004104478A (en) Device and method for assisting parking
JP2005170290A (en) Obstacle detecting device
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2010056975A (en) Object detection system by rear camera
JP4207519B2 (en) Moving object periphery monitoring device
JPH1011585A (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111205

R151 Written notification of patent or utility model registration

Ref document number: 4893212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees