Nothing Special   »   [go: up one dir, main page]

JP2009301494A - Image processing unit and image processing method - Google Patents

Image processing unit and image processing method Download PDF

Info

Publication number
JP2009301494A
JP2009301494A JP2008158190A JP2008158190A JP2009301494A JP 2009301494 A JP2009301494 A JP 2009301494A JP 2008158190 A JP2008158190 A JP 2008158190A JP 2008158190 A JP2008158190 A JP 2008158190A JP 2009301494 A JP2009301494 A JP 2009301494A
Authority
JP
Japan
Prior art keywords
moving body
imaging
image
image processing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008158190A
Other languages
Japanese (ja)
Inventor
Hiroaki Saito
裕昭 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2008158190A priority Critical patent/JP2009301494A/en
Publication of JP2009301494A publication Critical patent/JP2009301494A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing unit and an image processing method, capable of effectively eliminating a shadow portion of a moving body imaged on an imaged image and correctly detecting the moving body type-by-type. <P>SOLUTION: Between an image data acquired from a first imaging unit imaging in a far infrared wavelength band and an image data substantially simultaneously acquired from a second imaging unit imaging in either a visible light wavelength band or a near infrared wavelength band, each difference is obtained from each background difference etc., so that a candidate of the moving body area having the moving body imaged thereon is extracted. An overlapped area of the difference obtained by composing each difference is decided to be a genuine moving body area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置により撮像された撮像画像に写る移動体を検出するための画像処理装置に関する。特に、撮像画像に写る移動体の影部を効果的に除去し、移動体を種類別に正しく検出することを可能とする画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus for detecting a moving body that appears in a captured image captured by an imaging apparatus. In particular, the present invention relates to an image processing apparatus and an image processing method that can effectively remove a shadow portion of a moving body that appears in a captured image and correctly detect the moving body by type.

従来より、見通しの悪いT字路、十字路等の交差点での交通事故を防止するための交通制御システムが種々提案されている。特に、交差点近傍の路側に道路状況を上方から可視光波長帯にて撮像する撮像装置を設置し、撮像した画像を自動車へ送信することにより運転者に警告、注意を通知できるシステムが提案されている(例えば、特許文献1参照)。   Conventionally, various traffic control systems for preventing traffic accidents at intersections such as T-shaped roads and crossroads with poor visibility have been proposed. In particular, a system has been proposed in which an imaging device that captures road conditions in the visible light wavelength band from above is installed on the roadside in the vicinity of the intersection, and the driver can be alerted and alerted by transmitting the captured image to the automobile. (For example, refer to Patent Document 1).

この場合、撮像した画像から自動車を検出するための前処理が行なわれる場合がある(例えば、特許文献2参照)。この場合、前処理として「背景差分」、「エッジ抽出」、「時間差分(フレーム差分)」、「オプティカルフロー」等の技術を利用し、撮像した画像内の車両に相当する領域を判別している。
特開2003−109199号公報 特開2008−46761号公報
In this case, preprocessing for detecting a car from a captured image may be performed (see, for example, Patent Document 2). In this case, by using techniques such as “background difference”, “edge extraction”, “time difference (frame difference)”, and “optical flow” as preprocessing, an area corresponding to the vehicle in the captured image is determined. Yes.
JP 2003-109199 A JP 2008-46761 A

自動車同士の衝突のみならず、自動車と自転車との衝突、自動車と人との衝突等の種々の交通事故を削減するため、更に高度な安全運転支援システムの実現が期待されている。具体的には、交差点における他の自転車、人、又は落下物の有無及び位置の情報を交差点に進入しようとする自動車へ送信する。そして、自動車側で受信する情報に基づき事故を回避するための制御を自動的に実行する。これにより事故を未然に防ぐこと、及び被害を最小限に抑えることが期待される。したがってこの場合、撮像画像から交差点での単なる移動体の有無のみならず、自転車、人、又は落下物等の移動体の種類を夫々識別した上で移動体を検出することが必要となる。   In order to reduce various traffic accidents such as a collision between a car and a bicycle, a collision between a car and a person as well as a collision between cars, it is expected to realize a more advanced safe driving support system. Specifically, information on the presence and position of other bicycles, people, or fallen objects at the intersection is transmitted to the vehicle that is about to enter the intersection. And the control for avoiding an accident is automatically performed based on the information received by the vehicle side. This is expected to prevent accidents and minimize damage. Therefore, in this case, it is necessary to detect the moving body after identifying not only the presence / absence of the moving body at the intersection but also the type of the moving body such as a bicycle, a person, or a falling object.

撮像画像から移動体の種類をも区別して検出するためには、撮像画像内の移動体に相当する領域を背景差分又は時間差分などを用いて抽出した後、各移動体の特徴量を検知できるか否かを判断することが有効である。例えば、撮像画像内における検出対象の形状及び大きさを特徴量として設定しておき、移動体に相当する領域の形状及び大きさが設定されている形状及び大きさと一致するか否かによって移動体を識別することが可能である。   In order to distinguish and detect the type of moving object from the captured image, the feature amount of each moving object can be detected after extracting the area corresponding to the moving object in the captured image using the background difference or the time difference. It is effective to determine whether or not. For example, the shape and size of the detection target in the captured image are set as the feature amount, and the moving object depends on whether or not the shape and size of the area corresponding to the moving object matches the set shape and size. Can be identified.

しかしながら、従来のシステムで利用されている可視光波長帯による撮像装置では、昼間の日照がある状況下での撮像画像から移動体に相当する領域を識別しようとする場合、移動体から背景に投影された影部分により移動体の種類を誤って識別する可能性がある。画像処理で差分を算出する場合に影部分を移動体の一部として抽出し、移動体のサイズを大きく検出する可能性があるからである。   However, in an imaging device using a visible light wavelength band used in a conventional system, when an area corresponding to a moving object is to be identified from a captured image in a daytime sunshine situation, the moving object is projected onto the background. There is a possibility that the type of the moving object is erroneously identified by the shadowed portion. This is because when calculating the difference by image processing, the shadow portion may be extracted as a part of the moving body, and the size of the moving body may be detected largely.

また、可視光波長帯による撮像装置では、夜間に自動車以外の移動体を検出することが困難である。自動車及び自転車等の車両はヘッドライト、テールライト等の発光部を有するためにこれらを利用して検出することが可能であるが、人は発光部が通常無く、環境照度が低い夜間では撮像が困難である。また、自転車は発光部を有していても無灯火で走行する場合がある。したがって可視光波長帯による撮像装置を用いて、夜間に自転車又は人を検出することは困難である。   In addition, it is difficult for an imaging apparatus using a visible light wavelength band to detect a moving body other than an automobile at night. Since vehicles such as automobiles and bicycles have light-emitting parts such as headlights and taillights, they can be detected using these, but people usually do not have light-emitting parts and can capture images at night when the ambient illuminance is low. Have difficulty. In addition, even if the bicycle has a light emitting part, it may run without a light. Therefore, it is difficult to detect a bicycle or a person at night using an imaging device using a visible light wavelength band.

本発明は斯かる事情に鑑みてなされたものであり、夜間・昼間を問わずに撮像画像に基づき、撮像画像に写る移動体を種類別に正しく検出することを可能とする画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an image processing apparatus and image processing capable of correctly detecting, by type, a moving body that appears in a captured image based on a captured image regardless of nighttime or daytime. It aims to provide a method.

第1発明に係る画像処理装置は、撮像画像に基づいて移動体を検出するための画像処理を行なう画像処理装置において、遠赤外線波長帯にて撮像する第1撮像手段と、該第1撮像手段の撮像範囲を可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段と、前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出する抽出手段と、該抽出手段が抽出した夫々の候補の重複部分を、移動体領域と特定する特定手段と、該特定手段が特定した移動体領域の特徴量に基づき移動体を検出する手段とを備えることを特徴とする。   An image processing apparatus according to a first aspect of the present invention is an image processing apparatus that performs image processing for detecting a moving object based on a captured image. The first imaging unit that captures an image in a far-infrared wavelength band, and the first imaging unit A moving body in which a moving body is shown from a second imaging means for imaging the imaging range of the first imaging area in the visible light wavelength band or near-infrared wavelength band, and captured images simultaneously captured by the first and second imaging means. Extracting means for extracting region candidates, specifying means for specifying overlapping portions of the candidates extracted by the extracting means as moving object regions, and moving objects based on feature quantities of moving object regions specified by the specifying means And means for detecting.

第2発明に係る画像処理装置は、前記第1及び第2撮像手段は、略平面をなす背景面を含む範囲を撮像するようにしてあり、撮像画像中における複数の異なる位置に対応付けて、各位置に物体が写る領域がある場合の前記背景面上の所定位置から前記物体までの実空間における距離を記憶しておく第1の記憶手段と、前記特定手段が特定した移動体領域の撮像画像中における位置を求める手段と、求めた位置に対応付けてある距離に基づき、前記所定位置から移動体までの実空間における距離を特定する距離特定手段とを備えることを特徴とする。   In the image processing apparatus according to the second invention, the first and second imaging means are configured to image a range including a substantially flat background surface, and are associated with a plurality of different positions in the captured image. First storage means for storing a distance in real space from the predetermined position on the background surface to the object when there is an area where the object is captured at each position, and imaging of the moving body area specified by the specifying means It is characterized by comprising means for obtaining a position in the image and distance identifying means for identifying a distance in real space from the predetermined position to the moving body based on a distance associated with the obtained position.

第3発明に係る画像処理装置は、移動体の種類、前記所定位置からの距離、及び移動体領域が撮像画像中で占めるべき領域の縦横の大きさの対応関係を記憶しておく第2の記憶手段と、前記距離特定手段が特定した移動体までの距離、及び前記特定手段が特定した移動体領域の縦横の大きさに基づき、移動体の種類を識別する識別手段とを更に備えることを特徴とする。   An image processing apparatus according to a third aspect of the present invention stores a correspondence relationship between a type of a moving body, a distance from the predetermined position, and a vertical and horizontal size of an area that the moving body area should occupy in the captured image. A storage unit; and an identification unit that identifies the type of the moving body based on the distance to the moving body specified by the distance specifying unit and the vertical and horizontal sizes of the moving body area specified by the specifying unit. Features.

第4発明に係る画像処理装置は、前記第1及び第2撮像手段は交差点を俯瞰するように設置されており、前記1の記憶手段は、前記第1及び第2撮像手段の路面からの高さ及び俯角に基づき、撮像画像中における物体の領域の位置と、実空間における交差点中の所定位置から前記物体までの距離とが対応付けて記憶するようにしてあり、前記第2の記憶手段は、距離に対応付けて移動体領域が撮像画像中で占めるべき縦横の大きさを記憶するようにしてあり、更に、前記識別手段は、前記第1及び第2の記憶手段により記憶してある位置と距離との対応付け、及び縦横の大きさに基づき、移動体の種類を識別するようにしてあることを特徴とする。   In an image processing apparatus according to a fourth aspect of the present invention, the first and second imaging means are installed so as to look down on the intersection, and the first storage means is a high-level device from the road surface of the first and second imaging means. Based on the height and the depression angle, the position of the object region in the captured image and the distance from the predetermined position in the intersection in the real space to the object are stored in association with each other, and the second storage means The vertical and horizontal sizes that the moving body region should occupy in the captured image are stored in association with the distance, and the identification means is a position stored by the first and second storage means. The type of the moving body is identified based on the correspondence between the distance and the distance and the vertical and horizontal sizes.

第5発明に係る画像処理装置は、前記第1及び第2撮像手段の撮像範囲を、前記第1及び第2撮像手段とは異なる角度から撮像するように設置されている第3撮像手段と、前記第1及び第2撮像手段と同時的に、前記第3撮像手段が撮像した撮像画像から移動体領域の候補を抽出する抽出手段と、前記特定手段が特定した移動体領域、及び前記抽出手段が第3撮像手段の撮像画像から抽出した候補を対応付ける手段と、対応付けた移動体領域及び候補の夫々の撮像画像中における位置を特定する手段と、夫々で特定された位置間の差異に基づき、前記第1乃至第3撮像手段のいずれかから移動体までの実空間における距離を算出する手段とを備えることを特徴とする。   An image processing apparatus according to a fifth aspect of the present invention is a third imaging unit installed so as to capture an imaging range of the first and second imaging units from an angle different from that of the first and second imaging units; Simultaneously with the first and second imaging means, an extraction means for extracting a candidate for a moving body region from a captured image captured by the third imaging means, a moving body area specified by the specifying means, and the extracting means Is based on the difference between the position specified by the means for associating the candidate extracted from the captured image of the third imaging means, the means for specifying the position of the associated moving body region and the candidate in each captured image, and And a means for calculating a distance in real space from any one of the first to third imaging means to the moving body.

第6発明に係る画像処理装置は、前記第1乃至第3撮像手段は車両にとりつけてあり、車両から移動体までの距離を算出するようにしてあることを特徴とする。   The image processing apparatus according to a sixth aspect of the invention is characterized in that the first to third imaging means are attached to a vehicle, and the distance from the vehicle to the moving body is calculated.

第7発明に係る画像処理方法は、遠赤外線波長帯にて撮像する第1撮像手段、及び該第1撮像手段の撮像範囲を可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段により撮像される撮像画像から移動体を検出するための画像処理方法であって、前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出し、抽出した夫々の候補の重複部分を移動体領域として特定し、特定した移動体領域の特徴量に基づき移動体を検出することを特徴とする。   An image processing method according to a seventh aspect of the invention is a first imaging means for imaging in the far infrared wavelength band, and a second imaging means for imaging the imaging range of the first imaging means in the visible light wavelength band or near infrared wavelength band. An image processing method for detecting a moving body from a picked-up image picked up by the first imaging means, wherein each of the moving body regions in which the moving body is captured from the picked-up images picked up simultaneously by the first and second image pickup means. A candidate is extracted, an overlapping portion of each extracted candidate is specified as a moving body region, and a moving body is detected based on a feature amount of the specified moving body region.

第1発明及び第7発明にあっては、略同一の撮像範囲を撮像する第1撮像手段及び第2撮像手段により画像が撮像される。
移動体の影は、周辺との間に色味の差異又は輝度差を生じさせるが、移動体と共に短時間で移動するため、日射の有無による温度変化を生じさせない。したがって、移動体の影部分の領域は、可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段が撮像した撮像画像内では、背景差分又は時間差分などを用いて抽出した移動体領域の候補に含まれる。しかしながら、遠赤外線波長帯にて撮像する第1撮像手段で撮像した撮像画像内では、他の部分との温度差、即ち輝度差がないので移動体領域の候補に含まれない。これにより、移動体そのものが写っている移動体領域外に位置する移動体の影部分は、重複部分から除かれる。
一方、移動体そのものが写っている移動体領域内であるが周辺との温度差がない部分は、遠赤外線波長帯にて撮像する第1撮像手段による撮像画像内で移動体領域の候補に含まれない。したがって、第1撮像画像内における移動体そのものに相当する領域は、複数に分離して抽出される可能性がある。この場合、第2撮像手段による撮像画像内では、移動体そのものに相当する領域は周辺部分との色味又は輝度の差異により一連の領域として抽出される。第1撮像手段によって撮像された撮像画像から分離した複数の領域が抽出されても、第2撮像手段によって撮像された撮像画像から一連の領域として抽出された領域と重複する部分は一の移動体領域として特定することが可能である。
In the first invention and the seventh invention, images are picked up by the first image pickup means and the second image pickup means that pick up an image of substantially the same image pickup range.
The shadow of the moving body causes a color difference or a luminance difference with the surroundings, but does not cause a temperature change due to the presence or absence of solar radiation because it moves with the moving body in a short time. Therefore, the area of the shadow part of the moving body is the moving body area extracted using the background difference or the time difference in the captured image captured by the second imaging unit that captures an image in the visible light wavelength band or the near infrared wavelength band. Included in the candidate. However, the picked-up image picked up by the first image pick-up means picked up in the far-infrared wavelength band is not included in the moving object region candidate because there is no temperature difference, that is, no luminance difference from other parts. Thereby, the shadow part of the moving body located outside the moving body area in which the moving body itself is shown is removed from the overlapping part.
On the other hand, a portion within the moving body region where the moving body itself is shown but having no temperature difference from the surroundings is included in the moving body region candidates in the captured image by the first imaging means that captures images in the far infrared wavelength band. I can't. Accordingly, there is a possibility that a region corresponding to the moving body itself in the first captured image may be extracted separately. In this case, in the image picked up by the second image pickup means, the region corresponding to the moving body itself is extracted as a series of regions due to the difference in color or brightness from the peripheral part. Even if a plurality of regions separated from the captured image captured by the first imaging unit are extracted, a portion overlapping with the region extracted as a series of regions from the captured image captured by the second imaging unit is one moving body It can be specified as a region.

第2発明にあっては、第1及び第2撮像手段は、略平面をなす地面、床面又は路面等の背景面を含む範囲を撮像するようにしてあると共に、撮像画像内における移動体領域の位置と、背景面上の所定位置から移動体までの実空間における距離との対応を予め記憶しておく。これにより、所定位置から移動体までの実空間における距離を簡易に特定することが可能である。   In the second invention, the first and second imaging means are adapted to image a range including a background surface such as a substantially flat ground, floor or road surface, and a moving body region in the captured image. And a correspondence between a predetermined position on the background surface and a distance in the real space from the moving body is stored in advance. Thereby, the distance in the real space from a predetermined position to a moving body can be specified easily.

第3発明にあっては、移動体の種類により、移動体領域が占めるべき領域の縦横の大きさは、移動体の第1及び第2撮像手段からの距離に応じて決定できる。移動体領域として特定された領域が、予め移動体の種類毎に記憶されている縦横の大きさの条件に対応している場合、移動体は対応する条件に相当する種類であると識別される。影部分を精度よく除去することができるので正確に移動体領域を抽出することができ、更に領域の大きさを特徴量として該特徴量に基づいて正確に移動体の種類を識別することも可能である。   In the third invention, depending on the type of the moving body, the vertical and horizontal sizes of the area that the moving body area should occupy can be determined according to the distance from the first and second imaging means of the moving body. When the area specified as the mobile object area corresponds to the vertical and horizontal size conditions stored in advance for each type of mobile object, the mobile object is identified as the type corresponding to the corresponding condition. . Since shadows can be accurately removed, moving object regions can be accurately extracted, and the size of the region can be used as a feature value to accurately identify the type of moving object. It is.

第4発明にあっては、交差点の道路上を移動中の自動車、自転車、人又は落下物等の移動体の路面における影部分を除去して、正確に移動体の縦横の大きさなどの特徴量を特定することができる。これにより、交差点に進入してきた自動車若しくは自転車等の車両、人又は落下物等の移動体の種類を識別し、交差点における移動体の実空間の位置を特定することが可能となる。   In the fourth invention, features such as the vertical and horizontal sizes of the moving body are accurately removed by removing shadow portions on the road surface of the moving body such as automobiles, bicycles, people or falling objects moving on the road of the intersection. The amount can be specified. This makes it possible to identify the type of a moving body such as a vehicle such as an automobile or a bicycle that has entered the intersection, a person, or a fallen object, and specify the position of the real space of the moving body at the intersection.

第5発明にあっては、第1及び第2撮像手段による撮像画像から重複して抽出され、影部分が除去されて特定される移動体領域の撮像画像内における位置と、第3撮像手段による撮像画像から抽出される移動体領域の候補の撮像画像内における位置との差異、即ち、2つの撮像手段への入射角度の差異に基づき、三角測量法の手法を用いて移動体までの距離を精度よく算出することが可能である。   In the fifth invention, the position in the captured image of the moving body region that is extracted from the captured images by the first and second imaging means and is specified by removing the shadow portion, and the third imaging means Based on the difference between the position of the moving body region candidate extracted from the picked-up image in the picked-up image, that is, the difference in the incident angle to the two image pickup means, the distance to the moving object is determined using the triangulation method. It is possible to calculate with high accuracy.

第6発明にあっては、自身が移動体である車両に第1乃至第3撮像手段が設置される。自車両にとっての移動体である他の車両、人、又は落下物等の移動体の路面への影に相当する部分を除去することができるので、三角測量法の手法により車両から移動体までの距離を精度よく算出することが可能である。   In the sixth invention, the first to third imaging means are installed in a vehicle that is itself a moving body. Since it is possible to remove the part corresponding to the shadow on the road surface of the moving body such as other vehicles, people, or falling objects that are moving bodies for the own vehicle, the method of triangulation method from the vehicle to the moving body It is possible to calculate the distance with high accuracy.

本発明による場合、遠赤外線波長帯にて撮像する第1撮像手段を用いることにより、影部分が移動体の一部として誤って検出されることを回避することが可能となる。また、移動体の表面の一部が、周辺と温度差を生じずに第1撮像手段による撮像画像で輝度差を生じない場合でも、第2撮像手段により可視光波長帯又は近赤外線波長帯にて撮像された画像で判別される領域が加味されて移動体領域が正確に抽出される。これにより、移動体を種類別に高精度に正しく識別することが可能となる。   In the case of the present invention, it is possible to avoid the shadow portion being erroneously detected as a part of the moving body by using the first imaging means for imaging in the far infrared wavelength band. Further, even when a part of the surface of the moving body does not cause a temperature difference from the surroundings and does not cause a luminance difference in the image captured by the first imaging means, the second imaging means causes the visible light wavelength band or the near infrared wavelength band to be generated. The moving body region is accurately extracted by taking into account the region discriminated from the captured image. As a result, it is possible to correctly identify the moving object by type with high accuracy.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。   Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.

なお、以下に示す実施の形態では、本発明に係る画像処理装置によって交差点上の自動車、自転車、人又は落下物等の移動体を正確に検出することを可能とし、交差点に進入する自動車で事故防止のための走行制御を実行させる安全運転支援システムに適用した場合を例に説明する。   In the embodiment shown below, the image processing apparatus according to the present invention makes it possible to accurately detect a moving object such as an automobile, a bicycle, a person, or a fallen object on an intersection, and an accident occurs in an automobile entering the intersection. A case where the present invention is applied to a safe driving support system that executes traveling control for prevention will be described as an example.

(実施の形態1)
図1は、実施の形態1における安全運転支援システムが設置されている交差点の例を示す上方からの斜視図である。図1中の1は、交差点を撮像する2台の撮像装置と一体に構成される画像処理装置である。画像処理装置1は、路側に設置されて所定の高さで道路側に伸びている支柱に取り付けられている。画像処理装置1と一体に構成されている2台の撮像装置のレンズが交差点及びその近傍の範囲を俯瞰するように設置されており、画像処理装置1及び撮像装置は撮像装置のレンズ側を遠赤外線、及び可視光線又は近赤外線を透過する素材とした筐体に収められている。図1中の2は路側機であり、画像処理装置1と同様に路側の支柱に取り付けられている。画像処理装置1と路側機2とは通信線により接続されている。
(Embodiment 1)
FIG. 1 is a perspective view from above showing an example of an intersection where the safe driving support system according to Embodiment 1 is installed. Reference numeral 1 in FIG. 1 denotes an image processing apparatus configured integrally with two imaging apparatuses that capture an intersection. The image processing apparatus 1 is attached to a column installed on the road side and extending to the road side at a predetermined height. The lenses of the two image pickup devices that are configured integrally with the image processing device 1 are installed so as to overlook the intersection and the vicinity thereof, and the image processing device 1 and the image pickup device are far away from the lens side of the image pickup device. It is housed in a casing made of a material that transmits infrared rays and visible rays or near infrared rays. Reference numeral 2 in FIG. 1 denotes a roadside machine, which is attached to a roadside column like the image processing apparatus 1. The image processing apparatus 1 and the roadside machine 2 are connected by a communication line.

画像処理装置1は、路側機2を介して無線通信によりデータを送受信することが可能である。例えば、図1中には2台の自動車が示されている。各自動車の車載器は、例えばDSRC(Dedicated Short Range Communication)技術により路側機2との無線通信が可能に構成されている。   The image processing apparatus 1 can transmit and receive data via wireless communication via the roadside device 2. For example, two cars are shown in FIG. The vehicle-mounted device of each automobile is configured to be able to perform wireless communication with the roadside device 2 by, for example, DSRC (Dedicated Short Range Communication) technology.

実施の形態1における安全運転支援システムでは、画像処理装置1が以下に説明する動作を行なうことにより各自動車での走行制御を実現する。画像処理装置1が、交差点を俯瞰するように撮像する撮像装置により得られる画像データから、交差点における自動車、自転車、歩行者、又は落下物等の移動体を検出する。そして、画像処理装置1は検出した移動体の情報を路側機2を介して各自動車に送信する。これにより各自動車では、路側機2を介して受信した情報に基づき、進行方向に歩行者の存在を検知した場合にはブレーキを自動的に作動させるなどの走行制御が実現可能となる。また、緩衝装置を作動させるなど、衝突事故が起こった場合でも衝突による衝撃を軽減させるための安全制御も実現可能となる。   In the safe driving support system according to the first embodiment, the image processing apparatus 1 performs the operation described below, thereby realizing traveling control in each automobile. The image processing apparatus 1 detects a moving body such as an automobile, a bicycle, a pedestrian, or a fallen object at the intersection from image data obtained by an imaging apparatus that captures an image of the intersection. Then, the image processing apparatus 1 transmits information on the detected moving body to each automobile via the roadside device 2. Thereby, in each automobile, it is possible to realize traveling control such as automatically operating a brake when the presence of a pedestrian is detected in the traveling direction based on information received via the roadside device 2. In addition, even when a collision accident occurs, such as operating a shock absorber, it is possible to realize safety control for reducing the impact caused by the collision.

このような安全運転支援システムを実現するために、画像処理装置1が画像データに基づき行なう画像処理、及び画像処理によって得られる各種情報について以下に説明する。   In order to realize such a safe driving support system, image processing performed by the image processing apparatus 1 based on image data and various information obtained by the image processing will be described below.

図2は、実施の形態1における安全運転支援システムを構成する画像処理装置1、路側機2、並びに第1及び第2撮像装置3,4の内部構成を示すブロック図である。画像処理装置1は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等を利用して各構成部を制御する制御部10と、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ等の不揮発性のメモリを利用した記憶部11と、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等のメモリを利用した画像メモリ12と、第1及び第2撮像装置3,4からの画像信号を受け付ける第1画像取得部13及び第2画像取得部14と、路側機2との通信を実現する通信部15とを備える。   FIG. 2 is a block diagram showing an internal configuration of the image processing device 1, the roadside device 2, and the first and second imaging devices 3 and 4 constituting the safe driving support system in the first embodiment. The image processing apparatus 1 includes a control unit 10 that controls each component using a CPU (Central Processing Unit), an MPU (Micro Processing Unit), etc., an EEPROM (Electrically Erasable and Programmable Read Only Memory), a flash memory, and the like. A storage unit 11 using a nonvolatile memory, an image memory 12 using a memory such as SRAM (Static Random Access Memory) and DRAM (Dynamic Random Access Memory), and the first and second imaging devices 3 and 4 A first image acquisition unit 13 and a second image acquisition unit 14 that receive image signals, and a communication unit 15 that realizes communication with the roadside device 2 are provided.

制御部10は、内蔵するROM(Read Only Memory)又は記憶部11に記憶されている制御プログラムを読み出して実行することにより各構成部を制御し、後述にて説明する画像処理を行なうようにしてある。記憶部11は制御部10に内蔵される構成としてもよい。制御部10の処理によって発生する各種データは、更に別途備えられる不揮発性のメモリ又は制御部10内蔵のメモリに一時的に記憶される。   The control unit 10 reads out and executes a control program stored in a built-in ROM (Read Only Memory) or the storage unit 11 to control each component unit and perform image processing described later. is there. The storage unit 11 may be built in the control unit 10. Various data generated by the processing of the control unit 10 is temporarily stored in a non-volatile memory provided separately or in a memory built in the control unit 10.

画像メモリ12は、第1及び第2画像取得部13,14により取得された画像データを記憶する。制御部10は、第1及び第2画像取得部13,14にて画像データを取得した場合に、第1及び第2画像取得部13,14夫々に対応する画像メモリ12内の記憶領域への書き込みを指示する。また、後述にて説明する各処理は、画像メモリ12に記憶されている画像データ、又はその複製に対して行なう。   The image memory 12 stores the image data acquired by the first and second image acquisition units 13 and 14. When the image data is acquired by the first and second image acquisition units 13 and 14, the control unit 10 stores data in the storage areas in the image memory 12 corresponding to the first and second image acquisition units 13 and 14, respectively. Instruct to write. Each process described below is performed on the image data stored in the image memory 12 or a copy thereof.

画像メモリ12は、制御部10が内蔵するRAM(Random Access Memory)の一部の記憶領域であってもよい。また、記憶部11又は画像メモリ12は画像処理装置1の外部に設置され、画像処理装置1の制御部10が読み書きが可能なように、画像処理装置1と接続されている構成としてもよい。   The image memory 12 may be a partial storage area of a RAM (Random Access Memory) built in the control unit 10. The storage unit 11 or the image memory 12 may be installed outside the image processing apparatus 1 and connected to the image processing apparatus 1 so that the control unit 10 of the image processing apparatus 1 can read and write.

第1画像取得部13は第1撮像装置3から出力される画像信号を受け付け、第2画像取得部14は、第2撮像装置4から出力される画像信号を受け付ける。そして第1画像取得部13及び第2画像取得部14は夫々、受け付けた画像信号から画像データを取り出し、画像メモリ12に記憶する。詳細には、第1及び第2画像取得部13,14は制御部10からの指示に従い、夫々受け付けている画像信号から画像を構成する画素毎の輝度値又は色差等を特定して画像データとし、画像メモリ12へ書き込む。   The first image acquisition unit 13 receives an image signal output from the first imaging device 3, and the second image acquisition unit 14 receives an image signal output from the second imaging device 4. Then, the first image acquisition unit 13 and the second image acquisition unit 14 respectively extract image data from the received image signal and store it in the image memory 12. More specifically, the first and second image acquisition units 13 and 14 specify the luminance value or color difference of each pixel constituting the image from the received image signal according to the instruction from the control unit 10 and use it as image data. Write to the image memory 12.

通信部15は、路側機2との間を接続する通信線を介した情報の送受信を実現する。制御部10は、画像処理によって得られた情報を通信部15にて路側機2へ送信し、通信部15にて路側機2からの情報を受信する。   The communication unit 15 realizes transmission / reception of information via a communication line connecting the roadside unit 2. The control unit 10 transmits information obtained by the image processing to the roadside device 2 through the communication unit 15, and receives information from the roadside unit 2 through the communication unit 15.

路側機2は、CPU又はMPUを利用して各構成部を制御する制御部20と、画像処理装置1との通信を実現する通信部21と、各自動車に搭載されている車載器への通信を無線により実現する無線通信部22とを備える。   The roadside machine 2 includes a control unit 20 that controls each component using a CPU or MPU, a communication unit 21 that realizes communication with the image processing apparatus 1, and communication with an on-vehicle device mounted on each vehicle. And a wireless communication unit 22 that realizes the above wirelessly.

通信部21は画像処理装置1の通信部15と対応して情報の送受信が可能である。制御部20は、通信部21が画像処理装置1から送信された情報を受信した場合、通信部21からの通知を受けてこれを受信する。   The communication unit 21 can transmit and receive information in correspondence with the communication unit 15 of the image processing apparatus 1. When the communication unit 21 receives information transmitted from the image processing apparatus 1, the control unit 20 receives a notification from the communication unit 21 and receives it.

無線通信部22は、DSRC技術の方式により無線通信が可能である。制御部20は、通信部22により画像処理装置1から受信した情報を無線通信部22により各自動車の車載器へ送信する。なお、無線通信部22は車載器へのDSRC方式による通信のみならず、遠隔地にある交通管制センター内の通信装置宛に情報を送信できるように構成してあってもよい。   The wireless communication unit 22 can perform wireless communication using a DSRC technique. The control unit 20 transmits information received from the image processing apparatus 1 by the communication unit 22 to the vehicle-mounted device of each automobile by the wireless communication unit 22. The wireless communication unit 22 may be configured not only to communicate with the vehicle-mounted device by the DSRC method but also to transmit information to a communication device in a traffic control center at a remote location.

第1撮像装置3は、赤外線レンズ及び遠赤外線撮像素子を備え、遠赤外線波長帯にて撮像を行なう遠赤外線カメラである。赤外線レンズは硫化亜鉛、カルコゲンガラス、ゲルマニウム、ジンクセレン等を原料として作製されている。遠赤外線撮像素子は、酸化バナジウム(VOx)、アモルファスシリコン、SOI(Silicon on Insulator)ダイオード、サーモパイル等を用いた非冷却型のものを用いる。遠赤外線撮像素子が検出可能な波長帯は例えば、8μm〜12μmである。フィルタを備えて他の波長の光を遮断するようにしてもよい。   The first imaging device 3 is a far-infrared camera that includes an infrared lens and a far-infrared imaging device and performs imaging in the far-infrared wavelength band. The infrared lens is manufactured using zinc sulfide, chalcogen glass, germanium, zinc selenium, or the like as a raw material. As the far-infrared imaging device, an uncooled type using vanadium oxide (VOx), amorphous silicon, SOI (Silicon on Insulator) diode, thermopile or the like is used. The wavelength band that can be detected by the far-infrared imaging device is, for example, 8 μm to 12 μm. A filter may be provided to block light of other wavelengths.

第1撮像装置3の遠赤外線撮像素子は、温度差を輝度差に変換して出力する。画角内に移動体から路面へ投影される影部分を含む場合、影部分も短時間で移動するので温度変化が生じにくく輝度差が生じない。したがって、遠赤外線撮像素子により出力された画像信号から取得される画像データ内の移動体の影部分には、他の路面との輝度値に差異が現れない。   The far-infrared imaging device of the first imaging device 3 converts the temperature difference into a luminance difference and outputs it. When a shadow part projected from the moving body onto the road surface is included in the angle of view, the shadow part also moves in a short time, so that a temperature change hardly occurs and a luminance difference does not occur. Therefore, no difference appears in the brightness value with respect to other road surfaces in the shadow portion of the moving object in the image data acquired from the image signal output by the far-infrared imaging device.

第2撮像装置4は、可視光レンズ及び可視光撮像素子を備え、可視光波長帯にて撮像を行なうカメラである。可視光撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device Image Sensor)を用いる。可視光撮像素子の感度特性は例えば、450nm〜700nmである。フィルタを更に備えて他の波長の光を遮断するようにしてもよい。なお、第2撮像装置4は、近赤外(例えば、900nm〜1.2μm)波長帯に感度特性を有するように、赤外線レンズ及び近赤外線撮像素子を備える構成としてもよい。   The second imaging device 4 is a camera that includes a visible light lens and a visible light imaging device, and performs imaging in the visible light wavelength band. As the visible light imaging element, a complementary metal oxide semiconductor (CMOS) and a charge coupled device image sensor (CCD) are used. The sensitivity characteristic of the visible light imaging element is, for example, 450 nm to 700 nm. A filter may be further provided to block light of other wavelengths. In addition, the 2nd imaging device 4 is good also as a structure provided with an infrared lens and a near-infrared imaging element so that it may have a sensitivity characteristic in a near-infrared (for example, 900 nm-1.2 micrometers) wavelength band.

第2撮像装置4の可視光撮像素子は、光の強度を輝度値に変換して出力する。画角内に移動体から路面へ投影される影部分を含む場合、勿論、影部分は光の強度が周辺の路面と異なる。したがって、可視光撮像素子により出力された画像信号から取得される画像データ内の移動体の影部分には、影以外の部分と比して輝度差が生じる。   The visible light imaging element of the second imaging device 4 converts the intensity of light into a luminance value and outputs it. When a shadow portion projected from the moving body onto the road surface is included in the angle of view, of course, the shadow portion has a light intensity different from that of the surrounding road surface. Therefore, a luminance difference is generated in the shadow portion of the moving body in the image data acquired from the image signal output from the visible light imaging device as compared with the portion other than the shadow.

第1撮像装置3の遠赤外線撮像素子及び第2撮像装置4の可視光撮像素子の画素数はいずれも例えば320×240であり、1秒間に約30フレームのレートで生成される画像の画像信号を出力する。第1及び第2撮像装置3,4における撮像タイミングは厳密に同期されていることが望ましいが、必ずしも厳密な同期性は求められない。例えば、第1及び第2撮像装置3,4における撮像タイミングの時間差は後述する画像処理に影響を及ぼすが、時間差が特定又は推定できる場合にはその時間差による誤差を吸収することも可能である。   The number of pixels of the far-infrared imaging device of the first imaging device 3 and the visible light imaging device of the second imaging device 4 are both 320 × 240, for example, and an image signal of an image generated at a rate of about 30 frames per second Is output. Although it is desirable that the imaging timings in the first and second imaging devices 3 and 4 are strictly synchronized, exact synchronization is not always required. For example, the time difference between the imaging timings of the first and second imaging devices 3 and 4 affects image processing, which will be described later. If the time difference can be specified or estimated, an error due to the time difference can be absorbed.

第1撮像装置3の画角と、第2撮像装置4の画角とは略一致するように構成されている。つまり、第1及び第2撮像装置3,4では焦点距離が同一となるように内蔵するレンズ群の光学的配置が構成されている。同一画角での撮像を簡易に実現するため、第1及び第2撮像装置3,4は同一の画素数の撮像素子を用い、同一の方向、即ち交差点へ向けて並設されている。   The angle of view of the first imaging device 3 and the angle of view of the second imaging device 4 are configured to substantially match. That is, in the first and second imaging devices 3 and 4, the optical arrangement of the built-in lens group is configured so that the focal length is the same. In order to easily realize imaging at the same angle of view, the first and second imaging devices 3 and 4 use imaging elements having the same number of pixels and are arranged in parallel in the same direction, that is, toward the intersection.

なお、上述のように第1及び第2撮像装置3,4の画角は、後述する処理のためには一致することが望ましいが、完全に一致することは困難である。ただし、少なくとも画角が重複するように構成されることが必要となる。略一致するように並設できない場合は、第1及び第2画像取得部13,14にて取得される画像データの重複範囲を記憶部11に記憶しておけばよい。そして、重複範囲内における相互に対応する画素を特定することが可能なように対応関係を記憶しておく。これにより制御部10は、画像メモリ12に記憶されている第1及び第2画像取得部13,14にて取得された2つの画像データの重複範囲内で同一の被写体に相当する領域を検出することができる。   As described above, it is desirable that the angles of view of the first and second imaging devices 3 and 4 match for the processing described later, but it is difficult to match them completely. However, it is necessary that at least the angles of view overlap. When it is not possible to arrange them so as to be substantially coincident, the overlapping range of the image data acquired by the first and second image acquisition units 13 and 14 may be stored in the storage unit 11. Then, a correspondence relationship is stored so that pixels corresponding to each other within the overlapping range can be specified. Accordingly, the control unit 10 detects an area corresponding to the same subject within the overlapping range of the two image data acquired by the first and second image acquisition units 13 and 14 stored in the image memory 12. be able to.

次に、上述のように構成される画像処理装置1の制御部10が、画像データに対して行なう画像処理について詳細を説明する。   Next, details of the image processing performed on the image data by the control unit 10 of the image processing apparatus 1 configured as described above will be described.

制御部10は、第1及び第2画像取得部13,14にて取得した画像データから、自動車、自転車、人又は落下物等の移動体を検出する。具体的には制御部10は画像データから、移動体領域を抽出する。画像データに基づく移動体検出方法としては従来より種々の技術がある。実施の形態1では背景差分の方法を用いる構成とするが、一又は複数フレーム分前の画像データとの差分をとるフレーム差分の方法を用いてもよいし、オプティカルフローと呼ばれる方法を用いてもよい。   The control unit 10 detects a moving body such as an automobile, a bicycle, a person, or a fallen object from the image data acquired by the first and second image acquisition units 13 and 14. Specifically, the control unit 10 extracts a moving body region from the image data. Conventionally, there are various techniques as a moving body detection method based on image data. In the first embodiment, the background difference method is used. However, a frame difference method that obtains a difference from one or more previous frames of image data may be used, or a method called an optical flow may be used. Good.

図3は、実施の形態1における画像処理装置1の記憶部11に予め記憶されている背景の画像データ及び移動体の種類毎のサイズ情報の内容例を示す説明図である。図3(a)は、背景の画像データの内容例を示し、図3(b)は移動体の種類毎のサイズ情報の内容例を示している。なお、図3(a)に示すような遠赤外線用の背景の画像データ、及び可視光用の背景の画像データが夫々、記憶部11に記憶してある。   FIG. 3 is an explanatory diagram illustrating an example of the contents of background image data and size information for each type of moving body, which are stored in advance in the storage unit 11 of the image processing apparatus 1 according to the first embodiment. FIG. 3A shows an example of the content of background image data, and FIG. 3B shows an example of the content of size information for each type of moving object. It should be noted that far-infrared background image data and visible light background image data as shown in FIG. 3A are stored in the storage unit 11, respectively.

図3(a)に示すように、背景の画像データには固定物である路面が写っている。第1撮像装置3から取得される画像データと背景の画像データとの背景差分、及び第2撮像装置4から取得される画像データと背景の画像データとの背景差分を夫々算出することにより、移動体領域の候補が抽出される。   As shown in FIG. 3A, the background image data includes a road surface that is a fixed object. Movement is performed by calculating the background difference between the image data acquired from the first imaging device 3 and the background image data, and the background difference between the image data acquired from the second imaging device 4 and the background image data, respectively. Body region candidates are extracted.

なお、画像処理装置1の設置位置、設置高さ、並びに第1及び第2撮像装置3,4の俯角、画角に応じて撮像範囲は決定される。実施の形態1の場合、第1及び第2撮像装置3,4は交差点を俯瞰するように設置されるので、画像データ内における位置、特に垂直方向の位置と実空間の交差点における位置とに対応関係がある。図3(a)中の破線で表わされる水平線は夫々、画像データ内における垂直方向の位置に対応する実空間における画像処理装置1からの距離を示している。例えば、図3(a)中の一番下方にある破線上に写る路面の一部は、画像処理装置1が設置される位置から20mの距離に位置する。また、中央にある破線上に写る路面の一部は、画像処理装置1が設置される位置から50mの距離に位置する。一番上方にある破線上に写る路面の一部は、画像処理装置1が設置される位置から100mの距離に位置する。   Note that the imaging range is determined according to the installation position and installation height of the image processing apparatus 1 and the depression angle and field angle of the first and second imaging apparatuses 3 and 4. In the case of the first embodiment, the first and second imaging devices 3 and 4 are installed so as to look down on the intersection, so that they correspond to positions in the image data, in particular, positions in the vertical direction and positions at the intersection in the real space. There is a relationship. Each horizontal line represented by a broken line in FIG. 3A indicates the distance from the image processing apparatus 1 in the real space corresponding to the vertical position in the image data. For example, a part of the road surface shown on the lowermost broken line in FIG. 3A is located at a distance of 20 m from the position where the image processing apparatus 1 is installed. A part of the road surface shown on the broken line at the center is located at a distance of 50 m from the position where the image processing apparatus 1 is installed. A part of the road surface shown on the uppermost broken line is located at a distance of 100 m from the position where the image processing apparatus 1 is installed.

そして、移動体の大きさは、移動体の種類毎によってある程度決まる。例えば、移動体が普通乗用車及び小型乗用車である場合、それらは概ね縦(車長)×横(車幅)×高さ(車高)が5.5m×2m×1.8mの体積以内に収まるはずである。また人は、概ね縦×横×高さが80cm×80cm×2m(身長)の体積以内に収まるはずである。第1及び第2撮像装置3,4によって移動体が撮像された場合、画像データ内の移動体領域の大きさは、画像処理装置1から遠いほど小さく、近いほど大きくなる。そして、移動体領域の大きさは、第1及び第2撮像装置3,4から移動体までの距離、並びに第1及び第2撮像装置3,4の画角に応じて決まる。   The size of the moving body is determined to some extent depending on the type of moving body. For example, when the moving body is a normal passenger car and a small passenger car, they generally fit within a volume of 5.5 m × 2 m × 1.8 m in length (vehicle length) × width (vehicle width) × height (vehicle height). It should be. In addition, a person should fit within a volume of approximately 80 cm × 80 cm × 2 m (height) in length × width × height. When the moving body is imaged by the first and second imaging devices 3 and 4, the size of the moving body region in the image data is smaller as it is farther from the image processing device 1 and is larger as it is closer. The size of the moving body region is determined according to the distance from the first and second imaging devices 3 and 4 to the moving body and the angle of view of the first and second imaging devices 3 and 4.

したがって、画像処理装置1から所定の距離に位置する移動体領域の画像データ内に占めるべき縦横の大きさは移動体の種類毎に求まる。そこで、図3(b)に示すように移動体の種類毎に、画像処理装置1から所定の距離に位置する移動体領域の縦横の大きさを記憶部11に記憶しておく。例えば、乗用車は概ね車幅2m以内、車高1.8m以内である。したがって画像データの垂直方向に対応する方向に、画像処理装置1から50mの位置を走行中の乗用車が第1及び第2撮像装置3,4によって撮像された場合、乗用車の領域が占めるべき領域の大きさは例えば、縦×横が30ピクセル×48ピクセル以内となる。一方、画像データの水平方向に対応する方向に、画像処理装置1から50mの位置を走行中の乗用車が第1及び第2撮像装置3,4によって撮像された場合、乗用車の領域が占めるべき領域の大きさは例えば、縦×横が30ピクセル×64ピクセル以内となる。   Therefore, the vertical and horizontal sizes to be occupied in the image data of the moving object region located at a predetermined distance from the image processing apparatus 1 are obtained for each type of moving object. Therefore, as shown in FIG. 3B, the vertical and horizontal sizes of the moving body region located at a predetermined distance from the image processing apparatus 1 are stored in the storage unit 11 for each type of moving body. For example, passenger cars generally have a vehicle width of 2 m or less and a vehicle height of 1.8 m or less. Therefore, when a passenger car traveling at a position 50 m from the image processing device 1 in the direction corresponding to the vertical direction of the image data is imaged by the first and second imaging devices 3 and 4, The size is, for example, within 30 pixels × 48 pixels in the vertical × horizontal direction. On the other hand, when a passenger car that is traveling 50 m from the image processing device 1 in the direction corresponding to the horizontal direction of the image data is imaged by the first and second imaging devices 3 and 4, the region that the region of the passenger car should occupy For example, the vertical size and the horizontal size are within 30 pixels × 64 pixels.

実施の形態1では図3(b)に示すように、移動体の種類毎に移動体領域が占めるべき縦横の大きさを記憶部11に予め記憶しておく。これにより、制御部10は移動体領域の縦横の大きさに基づき、移動体の種類を逆に識別することが可能である。例えば制御部10は、移動体領域が画像処理装置1から50mの距離に相当する位置にある場合、領域の縦横の大きさから以下のように種類を識別することが可能である。例えば、制御部10は、移動体領域の縦の大きさが30ピクセル以内であって横の大きさが64ピクセル以内であり、且つ、横の大きさが48ピクセルよりも大きい場合、移動体を画像データの水平方向に対応する方向を走行中の乗用車と識別することが可能となる。同様に、制御部10は、移動体領域の縦の大きさが30ピクセル以内であって横の大きさが15ピクセル以内である場合には、移動体を人と識別することが可能となる。   In the first embodiment, as shown in FIG. 3B, the vertical and horizontal sizes that should be occupied by the moving object region are stored in advance in the storage unit 11 for each type of moving object. Thereby, the control part 10 can identify the kind of moving body reversely based on the vertical and horizontal size of a moving body area | region. For example, when the moving body region is at a position corresponding to a distance of 50 m from the image processing apparatus 1, the control unit 10 can identify the type from the vertical and horizontal sizes of the region as follows. For example, when the vertical size of the moving object region is 30 pixels or less, the horizontal size is 64 pixels or less, and the horizontal size is larger than 48 pixels, the control unit 10 selects the moving object. The direction corresponding to the horizontal direction of the image data can be distinguished from the traveling car. Similarly, when the vertical size of the moving object region is within 30 pixels and the horizontal size is within 15 pixels, the control unit 10 can identify the moving object as a person.

移動体領域の画像データ内における位置が、記憶部11に記憶されているサイズ情報に対応する所定の位置(図3(b)では50mの距離の位置)とは異なる位置である場合、制御部10は、その差異に応じて移動体に相当する領域が占めるべき縦横の大きさを算出する。制御部10は、移動体領域の画像データ内における縦横の大きさと、算出した大きさとに基づき同様に移動体の種類を識別することが可能である。例えば画像処理装置1から100mの距離に対応する位置に、移動体領域が位置する場合、所定の50mの距離から倍の距離なので縦横の大きさも夫々半分以内となるはずである。   When the position in the image data of the moving body region is a position different from a predetermined position corresponding to the size information stored in the storage unit 11 (a position at a distance of 50 m in FIG. 3B), 10 calculates the vertical and horizontal sizes that should be occupied by the area corresponding to the moving object according to the difference. The control unit 10 can similarly identify the type of the moving object based on the vertical and horizontal sizes in the image data of the moving object region and the calculated size. For example, when the moving body region is located at a position corresponding to a distance of 100 m from the image processing apparatus 1, the vertical and horizontal sizes should be within half because the distance is double from the predetermined distance of 50 m.

また、移動体に相当する領域の縦横比は移動体の種類によって一定であるはずである。したがって図3(b)の説明図に示す縦横の大きさから求められる縦横比に基づいて、移動体の種類を識別してもよい。   The aspect ratio of the area corresponding to the moving body should be constant depending on the type of the moving body. Therefore, the type of the moving body may be identified based on the aspect ratio obtained from the vertical and horizontal sizes shown in the explanatory diagram of FIG.

このように、画像データ中の位置と、実空間における位置とを対応付けて記憶しておくことにより、移動体領域の画像データ中の位置に基づいて移動体の種類を識別することができる。その他、移動体の実空間における位置を特定することができる。移動体の位置を特定すると、移動体の情報を各自動車へ送信することによって各自動車の走行制御装置がこれを受信して移動体の位置を認識することができ、高精度な走行制御を行なうことができる。   Thus, by storing the position in the image data and the position in the real space in association with each other, the type of the moving object can be identified based on the position in the image data of the moving object region. In addition, the position of the moving body in the real space can be specified. When the position of the moving body is specified, information on the moving body is transmitted to each automobile, so that the traveling control device of each automobile can receive the information and recognize the position of the moving body, thereby performing highly accurate traveling control. be able to.

画像処理装置1の制御部10は、上述のように記憶部11に記憶されている情報を用い、以下に示す処理を行なう。図4は、実施の形態1における画像処理装置1の制御部10が行なう画像処理の手順の一例を示すフローチャートである。   The control unit 10 of the image processing apparatus 1 performs the following process using the information stored in the storage unit 11 as described above. FIG. 4 is a flowchart showing an example of an image processing procedure performed by the control unit 10 of the image processing apparatus 1 according to the first embodiment.

制御部10は、第1画像取得部13及び第2画像取得部14へ同時的に指示信号を出力することにより、第1撮像装置3及び第2撮像装置4から出力される画像信号に基づく画像データを同時的に取得する(ステップS1)。なお、ステップS1における画像データの取得タイミングは任意である。例えば1秒等の一定時間毎に行なう構成としてもよいし、路側機2で車載器からの情報を受信した場合など、自動車が交差点への進入を検知した場合に行なう構成としてもよい。   The control unit 10 outputs an instruction signal simultaneously to the first image acquisition unit 13 and the second image acquisition unit 14, so that an image based on the image signals output from the first imaging device 3 and the second imaging device 4 is obtained. Data is acquired simultaneously (step S1). In addition, the acquisition timing of the image data in step S1 is arbitrary. For example, it may be configured to be performed at regular intervals such as 1 second, or may be configured to be performed when the vehicle detects entry into an intersection, such as when the roadside device 2 receives information from the vehicle-mounted device.

制御部10は、第1撮像装置3から出力される画像信号からステップS1で第1画像取得部13が取得した画像データと、記憶部11に記憶してある遠赤外線用の背景の画像データとの差分データを算出する(ステップS2)。算出された差分データは、画像メモリ12又は制御部10内蔵メモリに一時的に記憶される。これにより、遠赤外線波長帯にて撮像する第1撮像装置3から得られる画像データから、背景の画像データには写っていない移動体が存在する領域が抽出される。   The control unit 10 includes the image data acquired by the first image acquisition unit 13 in step S <b> 1 from the image signal output from the first imaging device 3, and far-infrared background image data stored in the storage unit 11. Is calculated (step S2). The calculated difference data is temporarily stored in the image memory 12 or the control unit 10 built-in memory. Thereby, the area | region where the mobile body which is not reflected in background image data exists is extracted from the image data obtained from the 1st imaging device 3 imaged in a far-infrared wavelength band.

更に制御部10は、第2撮像装置4から出力される画像信号からステップS1で第2画像取得部14が取得した画像データと、記憶部11に記憶してある可視光用の背景の画像データとの差分(背景差分)を算出する(ステップS3)。算出された差分データは、画像メモリ12又は制御部10内蔵メモリに一時的に記憶される。これにより、可視光波長帯にて撮像する第2撮像装置4から得られる画像データから、背景の画像データには写っていない移動体が存在する領域が識別される。   Further, the control unit 10 acquires the image data acquired by the second image acquisition unit 14 in step S1 from the image signal output from the second imaging device 4, and the background image data for visible light stored in the storage unit 11. (Background difference) is calculated (step S3). The calculated difference data is temporarily stored in the image memory 12 or the control unit 10 built-in memory. Thereby, the area | region where the moving body which is not reflected in background image data exists from the image data obtained from the 2nd imaging device 4 imaged in a visible light wavelength band is identified.

制御部10は差分データを例えば以下のようにして算出する。制御部10は画素毎に、背景の画像データと取得した画像データとの輝度値の差分を算出し、差分が所定値以上である画素と、差分が所定値未満である画素とに区別する。制御部10は、画像データを構成する画素毎の、差分が所定値以上であるか否かの真偽を示す1ビット情報の二次元配列を、差分データとして算出する。   The control unit 10 calculates the difference data as follows, for example. For each pixel, the control unit 10 calculates a difference in luminance value between the background image data and the acquired image data, and distinguishes between a pixel whose difference is greater than or equal to a predetermined value and a pixel whose difference is less than the predetermined value. The control unit 10 calculates, as difference data, a two-dimensional array of 1-bit information indicating whether the difference is greater than or equal to a predetermined value for each pixel constituting the image data.

更に具体的には、制御部10は取得した画像データの画素毎に、以下に示す式1に基づく演算を行なう。   More specifically, the control unit 10 performs an operation based on Expression 1 shown below for each pixel of the acquired image data.

Figure 2009301494
Figure 2009301494

ただし、式1におけるf(x,y)は、取得した画像データを構成する水平方向の位置x及び垂直方向の位置yで特定される各画素の1ビット情報である。なお、水平方向の位置xは画像データの左端からの画素数であり、垂直方向のyは画像データの上端からの画素数とする。Ix,yは取得した画像データにおけるx、yで特定される画素毎の輝度値である。I´x,yは、背景の画像データにおけるx、yで特定される画素毎の輝度値である。 However, f (x, y) in Expression 1 is 1-bit information of each pixel specified by the position x in the horizontal direction and the position y in the vertical direction constituting the acquired image data. The position x in the horizontal direction is the number of pixels from the left end of the image data, and y in the vertical direction is the number of pixels from the upper end of the image data. I x, y is a luminance value for each pixel specified by x, y in the acquired image data. I ′ x, y is a luminance value for each pixel specified by x and y in the background image data.

なお、式1に示すように背景差分を算出する際、取得した画像データ及び背景の画像データ夫々にエッジ抽出処理を施すなどした後の輝度値に基づいて算出してもよい。   Note that when the background difference is calculated as shown in Equation 1, it may be calculated based on the luminance value after performing edge extraction processing on the acquired image data and background image data, respectively.

制御部10は、ステップS2及びS3で夫々算出された遠赤外線画像データの差分データ、及び可視光画像データの差分データの合成を行なう(ステップS4)。具体的には、制御部10は差分データ同士の論理積をとる。即ち、制御部10は、2つの差分データの同一の場所に位置する画素同士で、輝度値の差分が所定値以上であるか否かの真偽の論理積をとる。   The control unit 10 combines the difference data of the far-infrared image data and the difference data of the visible light image data calculated in steps S2 and S3, respectively (step S4). Specifically, the control unit 10 performs a logical product of the difference data. That is, the control unit 10 performs a true logical product of whether or not the luminance value difference is equal to or greater than a predetermined value between pixels located at the same place of the two difference data.

更に具体的には、制御部10は算出した差分データについて、以下に示す式2に基づく演算を行なう。   More specifically, the control unit 10 performs an operation based on Equation 2 shown below for the calculated difference data.

h(x,y)=f(x,y)*g(x,y)…(2)   h (x, y) = f (x, y) * g (x, y) (2)

ただし、式2におけるf(x,y)は式1によって得られた遠赤外線画像データの差分データであり、g(x,y)は式1によって得られる可視光画像データの差分データである。また、式2中の「*」は論路積を表わす。   However, f (x, y) in Expression 2 is difference data of far-infrared image data obtained by Expression 1, and g (x, y) is difference data of visible light image data obtained by Expression 1. Further, “*” in Equation 2 represents a theoretical product.

この処理により、いずれの差分データでも輝度値の差分が所定値以上であることが真である画素のみ真となる。つまり、遠赤外線波長帯による画像データからも移動体領域として抽出され、可視光波長帯による画像データからも移動体領域として抽出された領域のみが移動体領域として残る。なお、複数の連続する画素で真である場合以外、即ち、真である画素が連続しない場合は当該画素の1ビット情報を偽としてもよい。ノイズにより差分が所定値以上となった画素を除去するためである。   By this processing, only the pixel that is true that the difference in luminance value is equal to or greater than a predetermined value in any difference data is true. In other words, the moving object region is extracted from the image data in the far-infrared wavelength band, and only the region extracted as the moving object region from the image data in the visible light wavelength band remains as the moving object region. It should be noted that the 1-bit information of the pixel may be set to false unless the true pixel is true, that is, if the true pixel is not continuous. This is to remove pixels whose difference is equal to or greater than a predetermined value due to noise.

制御部10は、ステップS4にて得られた遠赤外線画像データの差分データ、及び可視光画像データの差分データの合成結果から、移動体領域を特定する(ステップS5)。このとき、移動体領域が複数特定されてもよいのは勿論である。具体的には、制御部10は差分データの論理積の結果、画像データの水平方向及び垂直方向に連続して真である画素を結合し、移動体領域とする。この場合、特定される移動体領域は任意の形状をしている。制御部10は最終的に、移動体領域に外接する矩形を移動体領域とする。   The control unit 10 identifies the moving body region from the result of combining the difference data of the far-infrared image data and the difference data of the visible light image data obtained in step S4 (step S5). At this time, of course, a plurality of mobile object regions may be specified. Specifically, as a result of the logical product of the difference data, the control unit 10 combines pixels that are true continuously in the horizontal direction and the vertical direction of the image data to form a moving body region. In this case, the specified moving body region has an arbitrary shape. The control unit 10 finally sets a rectangle circumscribing the moving body area as the moving body area.

なお制御部10は、ステップS5の特定処理において、ステップS4において差分データの論理積により複数の異なる領域として抽出された領域について以下の処理を行なう。複数の異なる領域に分離している場合でも、いずれも可視光画像データの差分においては1つの領域に含まれるものがある。この場合には、制御部10は一の移動体に相当するとして複数の領域を包括的に外接する矩形を特定する。複数の異なる領域に分離していても、夫々同一の移動体の一部に相当する領域であるからである。   In addition, in the specific process of step S5, the control part 10 performs the following process about the area | region extracted as several different area | regions by the logical product of difference data in step S4. Even when the images are separated into a plurality of different regions, some of the differences in the visible light image data are included in one region. In this case, the control unit 10 specifies a rectangle that comprehensively circumscribes a plurality of regions as corresponding to one moving body. This is because even if separated into a plurality of different regions, each region corresponds to a part of the same moving body.

次に制御部10は、ステップS5で特定した移動体領域に基づき、移動体を識別する(ステップS6)。図3(b)に示したように移動体領域の画像データ中における所定の位置に対し、移動体の種類毎に移動体領域が占めるべき縦横の大きさが設定されている。制御部10は、ステップS5で特定した移動体領域の外接矩形の縦横の大きさと、領域の画像データ中における位置と、図3(b)に示したように設定されているサイズ情報とに基づき、移動体の種類を識別する。これにより、移動体は種類を識別された上で検出される。いずれのサイズ情報が示す縦横の大きさにも合致しない場合には、移動体は検出されなかったとして処理が為される。   Next, the control part 10 identifies a moving body based on the moving body area | region specified by step S5 (step S6). As shown in FIG. 3B, the vertical and horizontal sizes that the moving object region should occupy are set for each type of moving object with respect to a predetermined position in the image data of the moving object region. Based on the size of the circumscribed rectangle of the moving object area identified in step S5, the position of the area in the image data, and the size information set as shown in FIG. Identify the type of mobile. As a result, the moving body is detected after its type is identified. If the size does not match the vertical and horizontal sizes indicated by any of the size information, processing is performed assuming that no moving object has been detected.

なお、制御部10はステップS6において図3(b)に示したようなサイズ情報に基づき種類を識別した。しかしながら本発明では、移動体の種類を識別する方法は問わない。例えば、移動体領域(外接矩形)に対し、移動体の種類毎のテンプレートとのパターンマッチングにより移動体の種類を識別するテンプレートマッチングの方式を用いてもよい。その他、サポートベクターマシン、ブースティング等の機械学習方法の方式を用いてパターン認識を行なうようにしてもよい。更に、制御部10は、ステップS5で特定した領域で可視光画像データを切り出し、移動体の種類毎のモデルとなるカラー画像データとの相関をとり、相関の高さに基づく類似度を評価する。そして類似度の高さに基づいて移動体の種類を識別するようにしてもよい。   In step S6, the control unit 10 identifies the type based on the size information as shown in FIG. However, in the present invention, the method for identifying the type of the moving body is not limited. For example, a template matching method for identifying the type of moving object by pattern matching with the template for each type of moving object may be used for the moving object region (circumscribed rectangle). In addition, pattern recognition may be performed using a machine learning method such as support vector machine or boosting. Further, the control unit 10 cuts out visible light image data in the region specified in step S5, correlates it with color image data serving as a model for each type of moving object, and evaluates similarity based on the level of correlation. . And you may make it identify the kind of moving body based on the height of similarity.

本発明では、ステップS5により影部分を除去した移動体領域を精度よく特定することができる。したがってステップS6においていずれの識別の方法を用いても、移動体の種類を正しく識別することが可能である。   In the present invention, it is possible to accurately identify the moving body region from which the shadow portion has been removed in step S5. Therefore, regardless of which identification method is used in step S6, it is possible to correctly identify the type of the moving object.

次に、制御部10は移動体の情報を通信部15により路側機2へ送信し(ステップS7)、処理を終了する。詳細には、制御部10はステップS6で識別した移動体の種類、及び移動体領域の画像データ中の位置から特定される画像処理装置1からの実空間における距離を移動体の情報として送信する。複数の移動体を検出できた場合には、路側機2へ送信された移動体の情報は、路側機2の無線通信部22により各自動車の車載器へ向けて送信される。   Next, the control part 10 transmits the information of a moving body to the roadside machine 2 by the communication part 15 (step S7), and complete | finishes a process. Specifically, the control unit 10 transmits the distance in the real space from the image processing apparatus 1 specified from the type of the moving body identified in step S6 and the position of the moving body area in the image data as the moving body information. . When a plurality of mobile bodies can be detected, the mobile body information transmitted to the roadside device 2 is transmitted to the vehicle-mounted device of each automobile by the wireless communication unit 22 of the roadside device 2.

画像処理装置1の制御部10は、上述の処理により、移動体の種類を示す情報を共に送信するので、自動車の走行制御装置側で事故を防止するための制御を精度良く行なうことができる。   Since the control unit 10 of the image processing apparatus 1 transmits information indicating the type of the moving body together by the above-described processing, the control for preventing an accident can be performed with high accuracy on the traveling control apparatus side of the automobile.

次に、画像処理装置1の制御部10による処理を具体例を示して説明する。図5は、実施の形態1における画像処理装置1の制御部10が行なう画像処理結果の具体例を示す説明図である。図5(a)は、第2画像取得部14にて取得される画像データ、即ち可視光画像データの内容例を模式的に示す。なお、図5(a)に示す画像データは白黒で輪郭を示し、可視光波長帯にて撮像される影部分を射線領域にて示している。   Next, processing by the control unit 10 of the image processing apparatus 1 will be described with a specific example. FIG. 5 is an explanatory diagram illustrating a specific example of an image processing result performed by the control unit 10 of the image processing apparatus 1 according to the first embodiment. FIG. 5A schematically shows an example of the content of the image data acquired by the second image acquisition unit 14, that is, visible light image data. In addition, the image data shown to Fig.5 (a) shows the outline in black and white, and has shown the shadow part imaged in a visible light wavelength band in a ray area.

図5(b)は、図5(a)に示した可視光画像データと、可視光用の背景の画像データとの差分データを模式的に示している。図5(c)は、遠赤外線画像データと、遠赤外線用の背景の画像データとの差分データを模式的に示している。また、図5(d)は、可視光画像データから算出される差分データと、遠赤外線画像データから算出される差分データとの合成後の画像データを模式的に示している。なお、図5(a)、図5(b)、及び図5(c)では一点鎖線により、画像データ内における位置を明確にするために道路の輪郭に相当する線を示している。   FIG. 5B schematically shows difference data between the visible light image data shown in FIG. 5A and the background image data for visible light. FIG. 5C schematically shows difference data between far-infrared image data and background image data for far-infrared rays. FIG. 5D schematically shows the image data after combining the difference data calculated from the visible light image data and the difference data calculated from the far-infrared image data. In FIGS. 5A, 5B, and 5C, a dashed line indicates a line corresponding to a road contour in order to clarify the position in the image data.

図5(a)に示すように、具体例における可視光画像データには交差点を走行中の2台の自動車、及び交差点を歩行中の人物が写っている。可視光波長帯にて撮像する第2撮像装置4から取得したので、画像データには、他の路面部分と輝度値に差異を生じた影部分が明確に写る。   As shown in FIG. 5A, the visible light image data in the specific example shows two cars traveling at the intersection and a person walking at the intersection. Since the image data is acquired from the second imaging device 4 that captures an image in the visible light wavelength band, the image data clearly shows a shadow portion that has a difference in luminance value from other road surface portions.

したがって、制御部10が可視光用の背景の画像データとの差分データを算出することにより、図5(b)中の3つの射線部分に示すように、2台の自動車夫々の領域、及び歩行中の人物の領域が夫々抽出される。そのまま夫々の領域の外接矩形を破線に示すように求めた場合、差分データは影部分を含むので影部分の大きさだけ縦横の大きさが大きくなる。したがって、図5(b)に示す外接図形に基づき、移動体の種類を識別しようとする場合、大きさ及び縦横比も実際とは異なるので誤って識別される可能性が高い。   Accordingly, the control unit 10 calculates difference data from the background image data for visible light, so that the areas of the two automobiles and the walking are shown as shown in the three ray portions in FIG. The area of the person inside is extracted. When the circumscribed rectangle of each area is obtained as indicated by the broken line as it is, the difference data includes the shadow portion, and therefore the vertical and horizontal sizes increase by the size of the shadow portion. Therefore, when trying to identify the type of the moving body based on the circumscribed figure shown in FIG. 5B, the size and aspect ratio are different from the actual ones, so there is a high possibility that they are erroneously identified.

一方、遠赤外線画像データでは、移動体の影部分は他の路面部分と輝度差を生じない。この場合も制御部10が遠赤外線用の背景の画像データとの差分データを算出することにより、2台の自動車夫々の領域、及び歩行中の人物の領域が夫々抽出される。しかしながら、図5(c)に示すようにいずれも影部分の領域は含まれていない。なお、図5(c)では、左側を走行中の自動車に相当する領域は2つに分離している。   On the other hand, in the far-infrared image data, the shadow portion of the moving body does not produce a luminance difference from other road surface portions. Also in this case, the control unit 10 calculates the difference data from the background image data for far-infrared rays, thereby extracting the areas of the two cars and the area of the person who is walking. However, as shown in FIG. 5C, none of the shadow areas are included. In FIG. 5C, the area corresponding to the car traveling on the left side is separated into two.

このように、遠赤外線画像データには影部分が残らない。周辺と温度差がない移動体の影部分は他の路面と輝度差を生じないからである。したがって、可視光画像データにおける差分データとの論理積を算出して差分データを合成することにより、図5(d)に示すように影部分を除去することができる。   Thus, no shadow portion remains in the far-infrared image data. This is because the shadow portion of the moving body having no temperature difference from the surroundings does not cause a difference in brightness from other road surfaces. Therefore, by calculating the logical product of the difference data in the visible light image data and synthesizing the difference data, the shadow portion can be removed as shown in FIG.

遠赤外線画像データでは温度差がない部分は輝度差を生じないので、図5(c)に示したように、同一の移動体の移動体領域が2つの分離した領域として抽出される。これについては、制御部10は遠赤外線の差分データと可視光の差分データとに基づき移動体領域を特定する際に、同一の移動体の移動体領域として特定する。遠赤外線画像データで2つの分離した領域に抽出されても、いずれも可視光画像データの差分データ内で連続して真である領域に含まれ、同一の移動体の異なる部分に相当する領域であるからである。この結果、図5(d)中の破線に示すように、2台の自動車及び人物の領域は影部分を除去して正確に特定される。   In the far-infrared image data, since there is no luminance difference in a portion where there is no temperature difference, as shown in FIG. 5C, the moving body region of the same moving body is extracted as two separate regions. About this, when specifying the moving body region based on the far infrared difference data and the visible light difference data, the control unit 10 specifies the moving body region of the same moving body. Even if the far-infrared image data is extracted into two separate areas, both are included in the continuous true area in the difference data of the visible light image data, and are areas corresponding to different parts of the same moving object. Because there is. As a result, as indicated by the broken line in FIG. 5D, the areas of the two cars and the person are accurately identified by removing the shadow portion.

このように、遠赤外線波長帯にて撮像する第1撮像装置3及び可視光波長帯又は近赤外線波長帯にて撮像する第2撮像装置4のいずれか一方ではなく、両者によって撮像される撮像画像夫々から抽出され領域の重複部分を真の移動体領域として特定する。第1撮像装置3を用いることにより、影部分を除去して誤検出を回避することができると共に、第2撮像装置4を併せて用いることにより、遠赤外線のみでは不足する情報を加味して移動体自体に相当する領域を正確に特定することができる。これにより、移動体の種類を識別した上で高精度に移動体を検出することが可能となり、優れた効果を奏する。   In this way, the first imaging device 3 that captures an image in the far-infrared wavelength band and the second imaging device 4 that captures an image in the visible light wavelength band or the near-infrared wavelength band, but a captured image captured by both of them. The overlapping part of the region extracted from each is specified as the true moving body region. By using the first imaging device 3, it is possible to eliminate shadows and avoid false detections, and also to use the second imaging device 4 to move in consideration of information that is insufficient only with far infrared rays. The region corresponding to the body itself can be accurately specified. Thereby, it becomes possible to detect the moving body with high accuracy after identifying the type of the moving body, and an excellent effect can be obtained.

また、遠赤外線波長帯による第1撮像装置3を用いることで移動体の影部分が必然的に除去されることを利用しているので、影部分が含まれるか否かを日照の有無等に基づいて判断する必要もない。このように、画像処理装置1の制御部10による画像処理としては簡易な構成により、有効に影部分を除去することができる点、優れた効果を奏する。   In addition, since it uses the fact that the shadow portion of the moving body is inevitably removed by using the first imaging device 3 in the far-infrared wavelength band, whether or not the shadow portion is included is determined by whether or not there is sunlight. There is no need to make a judgment based on this. As described above, the image processing by the control unit 10 of the image processing apparatus 1 has an excellent effect in that a shadow portion can be effectively removed with a simple configuration.

(変形例)
上述の実施の形態1における画像処理装置1は、移動体の種類毎に移動体領域が占めるべき縦横の大きさを記憶部11に記憶しておき、移動体の種類を識別する構成とした。しかしながら、画像処理装置1の記憶部11には移動体の種類毎に実空間における移動体の大きさを記憶しておくようにしてもよい。この場合制御部10は、特定された移動体領域の大きさから、検出した移動体の実空間における位置及び大きさを算出し、算出した大きさを移動体の特徴量として扱い、該特徴量に基づいて移動体の種類を識別する。
(Modification)
The image processing apparatus 1 according to the first embodiment described above is configured to store the vertical and horizontal sizes that should be occupied by the moving body region for each type of moving body in the storage unit 11 and identify the type of moving body. However, you may make it memorize | store the magnitude | size of the moving body in real space for every kind of moving body in the memory | storage part 11 of the image processing apparatus 1. FIG. In this case, the control unit 10 calculates the position and size of the detected moving object in the real space from the size of the specified moving object region, treats the calculated size as the feature value of the moving object, and the feature value. The type of the moving object is identified based on the above.

図6は、実施の形態1の変形例における画像処理装置1の制御部10が、移動体の実空間における大きさを算出する原理を模式的に示す説明図である。   FIG. 6 is an explanatory diagram schematically illustrating the principle by which the control unit 10 of the image processing apparatus 1 according to the modification of the first embodiment calculates the size of the moving object in real space.

図6(a)は、第1及び第2撮像装置3,4が設置される画像処理装置1の位置と、画像処理装置1による検出対象となる交差点中の人物の位置との関係を示している。図6(b)は、画像処理装置1と人物とが図6(a)に示される位置関係にある場合に第1及び第2撮像装置3,4によって撮像される画像データの内容例を模式的に示している。   FIG. 6A shows the relationship between the position of the image processing apparatus 1 where the first and second imaging devices 3 and 4 are installed and the position of a person in an intersection to be detected by the image processing apparatus 1. Yes. FIG. 6B schematically illustrates an example of content of image data captured by the first and second imaging devices 3 and 4 when the image processing apparatus 1 and the person are in the positional relationship illustrated in FIG. Is shown.

図6(a)に示すように、第1及び第2撮像装置3,4の画角θv が設定される場合に、人物が画像処理装置1の設置位置から距離Dにいると特定できたとき、人物の実空間における大きさTは、以下の式3に示すような関係式で求められる。 As illustrated in FIG. 6A, when the angle of view θ v of the first and second imaging devices 3 and 4 is set, it can be specified that the person is at a distance D from the installation position of the image processing device 1. At this time, the size T of the person in the real space can be obtained by a relational expression as shown in the following Expression 3.

Figure 2009301494
Figure 2009301494

ただし、式3におけるHc は、図6(b)に示すように画像データの垂直方向の画素数である。実施の形態1では、第1及び第2撮像装置3,4の撮像素子の画素数はいずれも、水平方向×垂直方向が320×240とした。そしてHo は、図6(b)に示すように画像データ中における検出対象となる人物の領域の垂直方向(縦)の大きさを示す画素数である。 However, H c in Expression 3 is the number of pixels in the vertical direction of the image data as shown in FIG. In the first embodiment, the number of pixels of the imaging elements of the first and second imaging devices 3 and 4 is 320 × 240 in the horizontal direction × vertical direction. H o is the number of pixels indicating the size in the vertical direction (vertical) of the area of the person to be detected in the image data as shown in FIG.

式3の関係式を予め記憶部11に記憶しておくことにより、移動体の実空間における画像処理装置1の設置位置からの距離Dと、画像データから抽出された検出対象の移動体に相当する領域の垂直方向の大きさHo とに基づいて、実空間における大きさを算出することが可能である。 By storing the relational expression of Expression 3 in the storage unit 11 in advance, it corresponds to the distance D from the installation position of the image processing apparatus 1 in the real space of the moving object and the moving object to be detected extracted from the image data. based on the vertical size of H o of the region, it is possible to calculate the size in the real space.

そして制御部10は、式3により算出した実空間における大きさに基づき、移動体の種類を識別することが可能である。例えば制御部10は、算出した実空間における高さが1.7mであり、抽出した領域の縦横比(横/縦)が約0.30(=60cm/2.0m)である場合には移動体を人物と識別する。   And the control part 10 can identify the kind of moving body based on the magnitude | size in the real space calculated by Formula 3. FIG. For example, the control unit 10 moves when the calculated height in the real space is 1.7 m and the aspect ratio (horizontal / vertical) of the extracted area is about 0.30 (= 60 cm / 2.0 m). Identify the body as a person.

なお、図6(a)に示す人の画像処理装置1からの距離Dは、上述の実施の形態1に示したように予め記憶部11に記憶してある情報から求める。具体的には、制御部10は人に相当する領域として抽出された領域の下端の画像データにおける垂直方向の位置Yに対応付けて記憶してある実空間における画像処理装置1からの距離を求める。   It should be noted that the distance D of the person from the image processing apparatus 1 shown in FIG. 6A is obtained from information stored in the storage unit 11 in advance as described in the first embodiment. Specifically, the control unit 10 obtains the distance from the image processing apparatus 1 in the real space stored in association with the vertical position Y in the image data at the lower end of the region extracted as the region corresponding to the person. .

ただし、画像データにおける垂直方向の位置Yと、第1及び第2撮像装置3,4を備える画像処理装置1からの距離Dとの関係は、図6(a)及び図6(b)に示した画角θv 、画像データの垂直方向の画素数Hc に加え、第1及び第2撮像装置3,4を備える画像処理装置1が設置される高さh、俯角φc を含む以下の式4に示す関係式により成立する。 However, the relationship between the vertical position Y in the image data and the distance D from the image processing apparatus 1 including the first and second imaging devices 3 and 4 is shown in FIGS. 6 (a) and 6 (b). In addition to the vertical angle of view θ v and the number of pixels H c in the vertical direction of the image data, the image processing apparatus 1 including the first and second imaging devices 3 and 4 is installed and includes the height h and the depression angle φ c as follows. The relational expression shown in Expression 4 is established.

Figure 2009301494
Figure 2009301494

式4を記憶部11に記憶しておくことにより、制御部10は移動体領域(外接矩形)を特定した場合、領域の下端の画像データ中における垂直方向の座標Yを特定し、式4に基づいて実空間における、画像処理装置1から移動体までの距離Dを算出してもよい。   By storing Equation 4 in the storage unit 11, when the control unit 10 specifies the moving body region (circumscribed rectangle), the control unit 10 specifies the vertical coordinate Y in the image data at the lower end of the region. Based on this, the distance D from the image processing apparatus 1 to the moving body in the real space may be calculated.

なお、実施の形態1では式4に基づいて予め算出しておいた座標Yと、距離Dとの対応を記憶部11に記憶しておき、特定される座標Yに対応する距離Dを記憶部11から読み出すことによって実空間における所定位置からの距離を求めた。これにより、演算によらずに簡易に実空間における移動体の位置(第1及び第2撮像装置3,4からの距離)を特定することができる。したがって、自動車へ移動体の情報として交差点内での実空間での位置情報を送信することができ、安全運転支援のために高精度な走行制御を実現することを可能とする。   In the first embodiment, the correspondence between the coordinate Y calculated in advance based on Expression 4 and the distance D is stored in the storage unit 11, and the distance D corresponding to the specified coordinate Y is stored in the storage unit. The distance from a predetermined position in the real space was obtained by reading from 11. Thereby, the position (distance from the 1st and 2nd imaging devices 3 and 4) of the mobile body in real space can be easily specified, without calculating. Therefore, the position information in the real space in the intersection can be transmitted to the automobile as the moving body information, and high-precision traveling control can be realized for safe driving support.

(実施の形態2)
図7は、実施の形態2における安全運転支援システムが設置されている自動車の例を模式的に示す模式図である。図7中の3は、遠赤外線波長帯にて撮像を行なう第1撮像装置3である。図7中の4は、可視光波長帯又は近赤外線波長帯にて撮像を行なう第2撮像装置4である。図7中の5は、遠赤外線波長帯にて撮像を行なう第3撮像装置である。そして、図7中の6は、画像処理装置であって、車載LAN7を介して自動車の走行制御の処理を行なう走行制御装置8に接続されている。また、第1乃至第3撮像装置3,4,5は、信号線9を介して画像処理装置6に接続されている。
(Embodiment 2)
FIG. 7 is a schematic diagram schematically showing an example of an automobile in which the safe driving support system according to the second embodiment is installed. Reference numeral 3 in FIG. 7 denotes a first imaging device 3 that performs imaging in the far-infrared wavelength band. Reference numeral 4 in FIG. 7 denotes a second imaging device 4 that performs imaging in the visible light wavelength band or the near-infrared wavelength band. Reference numeral 5 in FIG. 7 denotes a third imaging device that performs imaging in the far-infrared wavelength band. Reference numeral 6 in FIG. 7 denotes an image processing apparatus, which is connected to a travel control apparatus 8 that performs a travel control process of the automobile via the in-vehicle LAN 7. Further, the first to third imaging devices 3, 4, and 5 are connected to the image processing device 6 through the signal line 9.

第1及び第2撮像装置3,4は自動車の先頭部の左側に前方へ向けて並設されている。第3撮像装置5は、自動車の先頭部の右側に前方へ向けて設置されている。第1及び第2撮像装置3,4は、実施の形態1同様に略同一範囲を撮像範囲とするように設置されている。第3撮像装置5も第1撮像装置3の撮像素子と同じ画素数の遠赤外線撮像素子を備え、第1及び第2撮像装置3,4と同一画角での撮像が可能なように設置方向を調整してある。そして第1乃至第3撮像装置3,4,5はいずれも、通信線9を介して画像処理装置6へ画像信号を出力することが可能に構成されている。   The first and second imaging devices 3 and 4 are juxtaposed forward on the left side of the top of the automobile. The third imaging device 5 is installed forward on the right side of the front portion of the automobile. As in the first embodiment, the first and second imaging devices 3 and 4 are installed so that substantially the same range is used as the imaging range. The third imaging device 5 also includes a far-infrared imaging device having the same number of pixels as the imaging device of the first imaging device 3, and the installation direction so that imaging with the same angle of view as the first and second imaging devices 3 and 4 is possible. Has been adjusted. Each of the first to third imaging devices 3, 4, 5 is configured to be able to output an image signal to the image processing device 6 via the communication line 9.

画像処理装置6は、第1乃至第3撮像装置3,4,5から出力される画像信号から画像データを取得し、取得した画像データに基づいて移動体を検出した場合、検出した事実と、検出した移動体の情報とを走行制御装置8へ車載LAN7を介して送信する。送信する移動体の情報は、移動体の種類及び自動車から移動体までの距離である。走行制御装置8は、移動体の種類及び移動体までの距離に基づき、自動的にブレーキングを行なうべく指示する、又は車内外の緩衝装置を起動させる等の制御を行なうことが可能である。   When the image processing device 6 acquires image data from the image signals output from the first to third imaging devices 3, 4, and 5 and detects a moving body based on the acquired image data, The detected information on the moving body is transmitted to the travel control device 8 via the in-vehicle LAN 7. The information of the mobile body to be transmitted is the type of mobile body and the distance from the automobile to the mobile body. The traveling control device 8 can perform control such as instructing to perform braking automatically or starting a shock absorber inside and outside the vehicle based on the type of the moving body and the distance to the moving body.

図8は、実施の形態2における安全運転支援システムを構成する第1乃至第3撮像装置3,4,5及び画像処理装置6の内部構成を示すブロック図である。第1乃至第3撮像装置3,4,5の構成の詳細は、実施の形態1と同様であるので説明を省略する。   FIG. 8 is a block diagram showing the internal configuration of the first to third imaging devices 3, 4, 5 and the image processing device 6 constituting the safe driving support system in the second embodiment. Details of the configuration of the first to third imaging devices 3, 4, and 5 are the same as those in the first embodiment, and a description thereof will be omitted.

画像処理装置6は、制御部60と、記憶部61と、画像メモリ62と、第1画像取得部63及び第2画像取得部64とを備え、更に、車載LAN7を介した走行制御装置への情報の送信を実現する通信部65と、第3撮像装置5からの画像信号を受け付ける第3画像取得部66とを備える。制御部60、記憶部61、画像メモリ62、並びに第1及び第2画像取得部63,64の詳細は、実施の形態1における画像処理装置1の制御部10、記憶部11、画像メモリ12、並びに第1及び第2画像取得部13,14と同様であるので詳細な説明を省略する。   The image processing device 6 includes a control unit 60, a storage unit 61, an image memory 62, a first image acquisition unit 63, and a second image acquisition unit 64, and further to the travel control device via the in-vehicle LAN 7. A communication unit 65 that realizes transmission of information and a third image acquisition unit 66 that receives an image signal from the third imaging device 5 are provided. Details of the control unit 60, the storage unit 61, the image memory 62, and the first and second image acquisition units 63 and 64 are the control unit 10, the storage unit 11, the image memory 12, and the image processing apparatus 1 according to the first embodiment. Further, since it is the same as the first and second image acquisition units 13 and 14, detailed description thereof is omitted.

通信部65は、CAN(Controller Area Network)、LIN(Local Interconnect Network)、FlexRay(登録商標)等の車載LANの規格に基づき情報を送受信する。制御部60は、通信部65により移動体の情報を走行制御装置へ送信する。   The communication unit 65 transmits and receives information based on standards for in-vehicle LANs such as CAN (Controller Area Network), LIN (Local Interconnect Network), and FlexRay (registered trademark). The control unit 60 transmits information on the moving body to the travel control device through the communication unit 65.

第3画像取得部66は、受け付けた画像信号から画像データを取り出し、画像メモリ62に記憶する。詳細には、第3画像取得部66は第1及び第2画像取得部63,64同様に、制御部60からの指示に従い、受け付けている画像信号から画像を構成する画素毎の輝度値又は色差等を特定して画像データとし、画像メモリ62へ書き込む。   The third image acquisition unit 66 extracts image data from the received image signal and stores it in the image memory 62. Specifically, the third image acquisition unit 66, like the first and second image acquisition units 63 and 64, follows the instruction from the control unit 60 and the luminance value or color difference for each pixel constituting the image from the received image signal. Are specified as image data and written to the image memory 62.

上述のように構成される実施の形態2における画像処理装置6は、第1及び第2撮像装置3,4から取得する画像データに対し、実施の形態1で示した画像処理手順と同様の処理を行なう。即ち、第1及び第2画像取得部63,64により画像データを同時的に取得して夫々差分データを求め、差分データを合成することによって移動体領域を特定する。ただし、自動車に搭載される第1及び第2撮像装置3,4では、背景は走行中に随時変化するので背景差分ではなくフレーム差分を求めるようにすることが望ましい。   The image processing apparatus 6 according to the second embodiment configured as described above processes the image data acquired from the first and second imaging apparatuses 3 and 4 in the same manner as the image processing procedure described in the first embodiment. To do. That is, the first and second image acquisition units 63 and 64 acquire image data at the same time to obtain difference data, and specify the moving object region by combining the difference data. However, in the first and second imaging devices 3 and 4 mounted on the automobile, the background changes at any time during traveling, so it is desirable to obtain the frame difference instead of the background difference.

実施の形態2における画像処理装置6の制御部60は、第1及び第2撮像装置3,4から取得した画像データに基づき上述の処理で特定した移動体領域から、移動体の種類をテンプレートマッチングの方式を用いて識別してもよい。   The control unit 60 of the image processing device 6 according to the second embodiment performs template matching on the type of the moving body from the moving body region specified by the above-described processing based on the image data acquired from the first and second imaging devices 3 and 4. You may identify using the method of.

ただし、実施の形態2における画像処理装置6の制御部60は、第1及び第2撮像装置3,4と離れて設置された第3撮像装置5から取得される画像データを用い、自動車の車体の先頭部から移動体までの距離を以下に説明する処理により算出する。   However, the control unit 60 of the image processing device 6 according to the second embodiment uses the image data acquired from the third imaging device 5 installed away from the first and second imaging devices 3 and 4 and uses the image data of the automobile. The distance from the head of the object to the moving body is calculated by the process described below.

第3撮像装置5は、第1及び第2撮像装置3,4と同一画角となるように設置されているから、第1及び第2撮像装置3,4で撮像される移動体を、第3撮像装置5でも撮像可能である。設置方向が異なるので、同一の移動体を撮像した撮像画像であっても、第3撮像装置5から得られる画像データにおける移動体領域の位置は、第1及び第2撮像装置3,4から得られる画像データにおける移動体領域の位置と異なる。移動体からの光の入射角度が異なるからである。   Since the 3rd imaging device 5 is installed so that it may become the same view angle as the 1st and 2nd imaging devices 3 and 4, the mobile body imaged with the 1st and 2nd imaging devices 3 and 4 is set to the 1st. The three image pickup devices 5 can also pick up images. Since the installation directions are different, the position of the moving body region in the image data obtained from the third imaging device 5 is obtained from the first and second imaging devices 3 and 4 even if the captured images are the same moving body. Different from the position of the moving object region in the image data to be obtained. This is because the incident angle of light from the moving body is different.

制御部60は、第1及び第2撮像装置3,4から出力される画像信号に基づく画像データを同時的に取得すると共に、更に同時的に第3撮像装置5から出力される画像信号に基づく画像データを取得する。制御部60は、第3撮像装置5から取得した画像データに対してフレーム差分を求め、移動体領域の候補を抽出する。制御部60は、第1及び第2撮像装置3,4から取得した画像データからフレーム差分を取って抽出した移動体領域の候補との形状又は位置等に基づく類似度により、第1及び第2撮像装置3,4から取得した画像データから特定される移動体領域と、第3撮像装置5から取得した画像データから抽出した移動体領域の候補を対応付ける。即ち、制御部60は同一の移動体に対応する特定される移動体領域と、移動体領域の候補とを対応付ける。制御部60は、特定される移動体領域と、該移動体領域に対応付けられた候補との間の同一画角内での位置の差異を求める。位置の差異は例えば移動体領域の右上に位置する座標等の特定の座標の位置の差異により求める。位置の差異は入射角の差異であるから、当該入射角の差異、並びに第1及び第2撮像装置3,4と第3撮像装置5との距離に基づき移動体までの距離を求めることが可能である。   The control unit 60 simultaneously acquires image data based on the image signals output from the first and second imaging devices 3 and 4 and further based on the image signal output from the third imaging device 5 simultaneously. Get image data. The control unit 60 obtains a frame difference for the image data acquired from the third imaging device 5 and extracts a candidate for the moving body region. The control unit 60 performs the first and second operations based on the similarity based on the shape or position of the moving object region candidate extracted from the image data acquired from the first and second imaging devices 3 and 4 by taking a frame difference. The moving body region specified from the image data acquired from the imaging devices 3 and 4 and the moving body region candidate extracted from the image data acquired from the third imaging device 5 are associated with each other. That is, the control unit 60 associates the specified moving body region corresponding to the same moving body with the moving body region candidate. The control unit 60 obtains a difference in position within the same angle of view between the identified moving body region and the candidate associated with the moving body region. The difference in position is obtained, for example, by the difference in position of specific coordinates such as the coordinates located at the upper right of the moving body region. Since the difference in position is the difference in incident angle, the distance to the moving body can be obtained based on the difference in incident angle and the distance between the first and second imaging devices 3 and 4 and the third imaging device 5. It is.

このように、遠赤外線波長帯にて撮像する第1撮像装置3、可視光波長帯又は近赤外線波長帯にて撮像する第2撮像装置4、遠赤外線(可視光又は近赤外線)波長帯にて撮像する第3撮像装置5、及び画像処理装置6を自動車に搭載する構成によって、自動車内で前方の移動体の種類を識別した上で精度よく移動体を検出することができる。更に、距離を離して第3撮像装置5を設置し、第3撮像装置5から取得できる画像データを利用し、移動体までの距離を算出し、移動体の種類及び移動体までの距離に応じた走行制御が可能となる。   As described above, in the first imaging device 3 for imaging in the far infrared wavelength band, the second imaging device 4 for imaging in the visible light wavelength band or the near infrared wavelength band, in the far infrared (visible light or near infrared) wavelength band. With the configuration in which the third imaging device 5 and the image processing device 6 for imaging are mounted on an automobile, the moving body can be detected with high accuracy after identifying the type of the moving body ahead in the automobile. Further, the third imaging device 5 is installed at a distance, and the distance to the moving body is calculated using the image data that can be acquired from the third imaging device 5, and the distance to the moving body is determined according to the type of the moving body and the distance to the moving body. Traveling control is possible.

なお、実施の形態2では、第3撮像装置5を遠赤外線波長帯にて撮像を行なう遠赤外線カメラとした。しかしながら、第3撮像装置5は可視光波長帯又は近赤外線波長帯にて撮像を行なうカメラであってもよい。   In the second embodiment, the third imaging device 5 is a far infrared camera that performs imaging in the far infrared wavelength band. However, the third imaging device 5 may be a camera that performs imaging in the visible light wavelength band or the near infrared wavelength band.

実施の形態1においても実施の形態2における構成同様に、異なる角度からの撮像を行なう第3撮像装置を別途備え、ステレオ視によって実空間における距離を算出するようにしてもよい。   In the first embodiment, similarly to the configuration in the second embodiment, a third imaging device that performs imaging from different angles may be separately provided, and the distance in the real space may be calculated by stereo vision.

上述の実施の形態1及び2では、第1及び第2画像取得部又は第3画像取得部による画像の取得、並びに画像処理を制御部が行なう構成とした。しかしながら本発明はこれに限らず、第1乃至第3画像取得部による画像の取得処理及び画像処理を、画像処理部分を分離した集積回路によって実現するように構成してもよい。   In the first and second embodiments described above, the control unit performs image acquisition and image processing by the first and second image acquisition units or the third image acquisition unit. However, the present invention is not limited to this, and the image acquisition processing and image processing by the first to third image acquisition units may be realized by an integrated circuit in which the image processing portions are separated.

実施の形態1及び2は、安全運転支援システムに適用した場合を示した。しかしながら、本発明に係る画像処理装置による移動体の検出は安全運転支援システムに限らず、他の分野にも適用可能である。例えば、防犯システム又は監視システム等、撮像画像に基づき移動体を検出する場合に、移動体を精度よく検知して移動体の種類を識別することが可能である。   Embodiments 1 and 2 show the case where the present invention is applied to a safe driving support system. However, the detection of the moving object by the image processing apparatus according to the present invention is not limited to the safe driving support system, and can be applied to other fields. For example, when detecting a moving body based on a captured image, such as a security system or a monitoring system, it is possible to accurately detect the moving body and identify the type of the moving body.

なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiment disclosed above is illustrative in all respects and is not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

実施の形態1における安全運転支援システムが設置されている交差点の例を示す上方からの斜視図である。It is a perspective view from the upper part which shows the example of the intersection in which the safe driving assistance system in Embodiment 1 is installed. 実施の形態1における安全運転支援システムを構成する画像処理装置、路側機、並びに第1及び第2撮像装置の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of an image processing device, a roadside machine, and first and second imaging devices that constitute a safe driving support system in Embodiment 1. FIG. 実施の形態1における画像処理装置の記憶部に予め記憶されている背景の画像データ及び移動体の種類毎のサイズ情報の内容例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of the contents of background image data and size information for each type of moving object stored in advance in the storage unit of the image processing apparatus according to the first embodiment. 実施の形態1における画像処理装置の制御部が行なう画像処理の手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of an image processing procedure performed by a control unit of the image processing apparatus according to the first embodiment. 実施の形態1における画像処理装置の制御部が行なう画像処理結果の具体例を示す説明図である。6 is an explanatory diagram illustrating a specific example of an image processing result performed by a control unit of the image processing apparatus according to Embodiment 1. FIG. 実施の形態1の変形例における画像処理装置の制御部が、移動体の実空間における大きさを算出する原理を模式的に示す説明図である。FIG. 10 is an explanatory diagram schematically illustrating the principle by which the control unit of the image processing apparatus according to the modification of the first embodiment calculates the size of the moving object in real space. 実施の形態2における安全運転支援システムが設置されている自動車の例を模式的に示す模式図である。It is a schematic diagram which shows typically the example of the motor vehicle in which the safe driving assistance system in Embodiment 2 is installed. 実施の形態2における安全運転支援システムを構成する第1乃至第3撮像装置及び画像処理装置の内部構成を示すブロック図である。6 is a block diagram illustrating an internal configuration of first to third imaging devices and an image processing device that constitute a safe driving support system according to Embodiment 2. FIG.

符号の説明Explanation of symbols

1,6 画像処理装置
10,60 制御部
11,61 記憶部
3 第1撮像装置
4 第2撮像装置
5 第3撮像装置
DESCRIPTION OF SYMBOLS 1,6 Image processing apparatus 10,60 Control part 11,61 Memory | storage part 3 1st imaging device 4 2nd imaging device 5 3rd imaging device

Claims (7)

撮像画像に基づいて移動体を検出するための画像処理を行なう画像処理装置において、
遠赤外線波長帯にて撮像する第1撮像手段と、
該第1撮像手段の撮像範囲を可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段と、
前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出する抽出手段と、
該抽出手段が抽出した夫々の候補の重複部分を、移動体領域と特定する特定手段と、
該特定手段が特定した移動体領域の特徴量に基づき移動体を検出する手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that performs image processing for detecting a moving object based on a captured image,
First imaging means for imaging in the far-infrared wavelength band;
Second imaging means for imaging an imaging range of the first imaging means in a visible light wavelength band or a near infrared wavelength band;
Extraction means for extracting candidates for a moving body region in which a moving body is shown, respectively, from captured images simultaneously captured by the first and second imaging means;
A specifying means for specifying an overlapping portion of each candidate extracted by the extracting means as a moving object region;
An image processing apparatus comprising: means for detecting a moving object based on a feature amount of the moving object region specified by the specifying means.
前記第1及び第2撮像手段は、略平面をなす背景面を含む範囲を撮像するようにしてあり、
撮像画像中における複数の異なる位置に対応付けて、各位置に物体が写る領域がある場合の前記背景面上の所定位置から前記物体までの実空間における距離を記憶しておく第1の記憶手段と、
前記特定手段が特定した移動体領域の撮像画像中における位置を求める手段と、
求めた位置に対応付けてある距離に基づき、前記所定位置から移動体までの実空間における距離を特定する距離特定手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
The first and second imaging means are configured to image a range including a substantially flat background surface;
First storage means for storing a distance in real space from a predetermined position on the background surface to the object when there is a region where the object is captured at each position in association with a plurality of different positions in the captured image When,
Means for obtaining a position in the captured image of the moving body region identified by the identifying means;
The image processing apparatus according to claim 1, further comprising: a distance specifying unit that specifies a distance in real space from the predetermined position to the moving body based on a distance associated with the obtained position.
移動体の種類、前記所定位置からの距離、及び移動体領域が撮像画像中で占めるべき領域の縦横の大きさの対応関係を記憶しておく第2の記憶手段と、
前記距離特定手段が特定した移動体までの距離、及び前記特定手段が特定した移動体領域の縦横の大きさに基づき、移動体の種類を識別する識別手段と
を更に備えることを特徴とする請求項2に記載の画像処理装置。
Second storage means for storing a correspondence relationship between the type of the moving body, the distance from the predetermined position, and the vertical and horizontal sizes of the area that the moving body area should occupy in the captured image;
An identification means for identifying the type of the moving body based on the distance to the moving body specified by the distance specifying means and the vertical and horizontal sizes of the moving body area specified by the specifying means. Item 3. The image processing apparatus according to Item 2.
前記第1及び第2撮像手段は交差点を俯瞰するように設置されており、
前記1の記憶手段は、前記第1及び第2撮像手段の路面からの高さ及び俯角に基づき、撮像画像中における物体の領域の位置と、実空間における交差点中の所定位置から前記物体までの距離とが対応付けて記憶するようにしてあり、
前記第2の記憶手段は、距離に対応付けて移動体領域が撮像画像中で占めるべき縦横の大きさを記憶するようにしてあり、更に、
前記識別手段は、前記第1及び第2の記憶手段により記憶してある位置と距離との対応付け、及び縦横の大きさに基づき、移動体の種類を識別するようにしてあること
を特徴とする請求項3に記載の画像処理装置。
The first and second imaging means are installed so as to overlook the intersection,
The first storage means is based on the height and depression angle from the road surface of the first and second imaging means, and the position of the object region in the captured image and the predetermined position at the intersection in real space to the object. The distance is stored in association with it,
The second storage means is configured to store the vertical and horizontal sizes that the moving body region should occupy in the captured image in association with the distance.
The identification means is characterized in that the type of the moving body is identified based on the correspondence between the position and distance stored in the first and second storage means and the vertical and horizontal sizes. The image processing apparatus according to claim 3.
前記第1及び第2撮像手段の撮像範囲を、前記第1及び第2撮像手段とは異なる角度から撮像するように設置されている第3撮像手段と、
前記第1及び第2撮像手段と同時的に、前記第3撮像手段が撮像した撮像画像から移動体領域の候補を抽出する抽出手段と、
前記特定手段が特定した移動体領域、及び前記抽出手段が第3撮像手段の撮像画像から抽出した候補を対応付ける手段と、
対応付けた移動体領域及び候補の夫々の撮像画像中における位置を特定する手段と、
夫々で特定された位置間の差異に基づき、前記第1乃至第3撮像手段のいずれかから移動体までの実空間における距離を算出する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
A third imaging unit installed so as to capture an imaging range of the first and second imaging units from an angle different from that of the first and second imaging units;
Extraction means for extracting a candidate for a moving body region from a captured image captured by the third imaging means simultaneously with the first and second imaging means;
Means for associating the moving body region specified by the specifying means with the candidates extracted from the captured image of the third imaging means by the extracting means;
Means for specifying the position in the captured image of each of the associated moving body region and candidates;
2. The apparatus according to claim 1, further comprising: a unit that calculates a distance in real space from any one of the first to third imaging units to the moving body based on a difference between positions specified by each of the first to third imaging units. Image processing device.
前記第1乃至第3撮像手段は車両にとりつけてあり、車両から移動体までの距離を算出するようにしてあること
を特徴とする請求項5に記載の画像処理装置。
The image processing apparatus according to claim 5, wherein the first to third imaging units are attached to a vehicle and calculate a distance from the vehicle to the moving body.
遠赤外線波長帯にて撮像する第1撮像手段、及び該第1撮像手段の撮像範囲を可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段により撮像される撮像画像から移動体を検出するための画像処理方法であって、
前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出し、
抽出した夫々の候補の重複部分を移動体領域として特定し、
特定した移動体領域の特徴量に基づき移動体を検出する
ことを特徴とする画像処理方法。
The first imaging unit that captures an image in the far-infrared wavelength band, and the moving body from the captured image captured by the second imaging unit that captures the imaging range of the first imaging unit in the visible light wavelength band or the near-infrared wavelength band. An image processing method for detecting,
Extracting moving body region candidates in which the moving body is shown from the captured images simultaneously captured by the first and second imaging means,
Identify each extracted candidate overlap as a mobile region,
An image processing method, comprising: detecting a moving object based on a feature amount of a specified moving object region.
JP2008158190A 2008-06-17 2008-06-17 Image processing unit and image processing method Pending JP2009301494A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008158190A JP2009301494A (en) 2008-06-17 2008-06-17 Image processing unit and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008158190A JP2009301494A (en) 2008-06-17 2008-06-17 Image processing unit and image processing method

Publications (1)

Publication Number Publication Date
JP2009301494A true JP2009301494A (en) 2009-12-24

Family

ID=41548295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008158190A Pending JP2009301494A (en) 2008-06-17 2008-06-17 Image processing unit and image processing method

Country Status (1)

Country Link
JP (1) JP2009301494A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216125A (en) * 2011-04-01 2012-11-08 Nec Corp Object detection method, object detection device, and object detection program
KR20130118116A (en) * 2012-04-19 2013-10-29 현대모비스 주식회사 Apparatus and method avoiding collision with moving obstacles in automatic parking assistance system
CN103377554A (en) * 2012-04-27 2013-10-30 卢颖 Induction type pedestrian crossing controlling facility optimization design based on kinect
WO2015001677A1 (en) * 2013-07-05 2015-01-08 ルネサスエレクトロニクス株式会社 Safety assistance system and safety assistance device
US9189863B2 (en) 2012-06-25 2015-11-17 Postech Academy-Industry Foundation Method and system for detecting motion capable of removing shadow by heat
WO2016035924A1 (en) * 2014-09-04 2016-03-10 주식회사 에스원 Running sensing method and system
KR101601475B1 (en) 2014-08-25 2016-03-21 현대자동차주식회사 Pedestrian detection device and method for driving vehicle at night
JP2016095259A (en) * 2014-11-17 2016-05-26 横河電機株式会社 Plankton measurement system and plankton measurement method
JP2016119614A (en) * 2014-12-22 2016-06-30 日本電気株式会社 Dynamic body detection device, dynamic body detection method and dynamic body detection program
US9781359B2 (en) 2014-11-17 2017-10-03 Hyundai Motor Company Apparatus and method for processing image
US10157329B2 (en) 2015-03-11 2018-12-18 Kabushiki Kaisha Toshiba Moving body detecting device and image processing system
JP2018207497A (en) * 2018-07-19 2018-12-27 キヤノン株式会社 Image processing apparatus and image processing method, imaging apparatus, program, and storage medium
WO2021002083A1 (en) * 2019-07-03 2021-01-07 Hitachi Automotive Systems, Ltd. Object recognition by far infrared camera
CN113544923A (en) * 2019-03-07 2021-10-22 Abb瑞士股份有限公司 Device for monitoring a switchgear

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353581A (en) * 1998-06-09 1999-12-24 Anritsu Corp Method and device for discriminating vehicle kind in the daytime
JP2000318513A (en) * 1999-05-17 2000-11-21 Mitsubishi Electric Corp Obstacle detection device for vehicle
JP2001357388A (en) * 2000-06-12 2001-12-26 Oki Electric Ind Co Ltd Device for monitoring road
JP2004312402A (en) * 2003-04-08 2004-11-04 Hitachi Ltd System and apparatus for road monitoring
JP2007072665A (en) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd Object discrimination device, object discrimination method and object discrimination program
JP2007278869A (en) * 2006-04-07 2007-10-25 Honda Motor Co Ltd Range finder, periphery monitor for vehicle, range finding method, and program for range finding
JP2008059609A (en) * 2007-10-30 2008-03-13 Sumitomo Electric Ind Ltd Apparatus, system and method for displaying approaching moving body

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353581A (en) * 1998-06-09 1999-12-24 Anritsu Corp Method and device for discriminating vehicle kind in the daytime
JP2000318513A (en) * 1999-05-17 2000-11-21 Mitsubishi Electric Corp Obstacle detection device for vehicle
JP2001357388A (en) * 2000-06-12 2001-12-26 Oki Electric Ind Co Ltd Device for monitoring road
JP2004312402A (en) * 2003-04-08 2004-11-04 Hitachi Ltd System and apparatus for road monitoring
JP2007072665A (en) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd Object discrimination device, object discrimination method and object discrimination program
JP2007278869A (en) * 2006-04-07 2007-10-25 Honda Motor Co Ltd Range finder, periphery monitor for vehicle, range finding method, and program for range finding
JP2008059609A (en) * 2007-10-30 2008-03-13 Sumitomo Electric Ind Ltd Apparatus, system and method for displaying approaching moving body

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216125A (en) * 2011-04-01 2012-11-08 Nec Corp Object detection method, object detection device, and object detection program
KR20130118116A (en) * 2012-04-19 2013-10-29 현대모비스 주식회사 Apparatus and method avoiding collision with moving obstacles in automatic parking assistance system
CN103377554A (en) * 2012-04-27 2013-10-30 卢颖 Induction type pedestrian crossing controlling facility optimization design based on kinect
US9189863B2 (en) 2012-06-25 2015-11-17 Postech Academy-Industry Foundation Method and system for detecting motion capable of removing shadow by heat
WO2015001677A1 (en) * 2013-07-05 2015-01-08 ルネサスエレクトロニクス株式会社 Safety assistance system and safety assistance device
KR101601475B1 (en) 2014-08-25 2016-03-21 현대자동차주식회사 Pedestrian detection device and method for driving vehicle at night
US10150415B2 (en) 2014-08-25 2018-12-11 Hyundai Motor Company Method and apparatus for detecting a pedestrian by a vehicle during night driving
US10391937B2 (en) 2014-08-25 2019-08-27 Hyundai Motor Company Method and apparatus for detecting a pedestrian by a vehicle during night driving
US10205911B2 (en) 2014-09-04 2019-02-12 S-1 Corporation Method and system for detecting running
WO2016035924A1 (en) * 2014-09-04 2016-03-10 주식회사 에스원 Running sensing method and system
JP2016095259A (en) * 2014-11-17 2016-05-26 横河電機株式会社 Plankton measurement system and plankton measurement method
US9781359B2 (en) 2014-11-17 2017-10-03 Hyundai Motor Company Apparatus and method for processing image
JP2016119614A (en) * 2014-12-22 2016-06-30 日本電気株式会社 Dynamic body detection device, dynamic body detection method and dynamic body detection program
US10157329B2 (en) 2015-03-11 2018-12-18 Kabushiki Kaisha Toshiba Moving body detecting device and image processing system
JP2018207497A (en) * 2018-07-19 2018-12-27 キヤノン株式会社 Image processing apparatus and image processing method, imaging apparatus, program, and storage medium
CN113544923A (en) * 2019-03-07 2021-10-22 Abb瑞士股份有限公司 Device for monitoring a switchgear
WO2021002083A1 (en) * 2019-07-03 2021-01-07 Hitachi Automotive Systems, Ltd. Object recognition by far infrared camera
US12002278B2 (en) 2019-07-03 2024-06-04 Hitachi Astemo, Ltd Object recognition by far infrared camera

Similar Documents

Publication Publication Date Title
JP2009301494A (en) Image processing unit and image processing method
KR102359806B1 (en) Control of the host vehicle based on the detected parking vehicle characteristics
US11461595B2 (en) Image processing apparatus and external environment recognition apparatus
JP5529910B2 (en) Vehicle periphery monitoring device
JP5077088B2 (en) Image processing apparatus and image processing method
US20220232182A1 (en) Image recognition device, solid-state imaging device, and image recognition method
KR102117598B1 (en) Driver assistance apparatus for vehicle and Vehicle
EP1553516A2 (en) Pedestrian extracting apparatus
JP5365792B2 (en) Vehicle position measuring device
JP6468568B2 (en) Object recognition device, model information generation device, object recognition method, and object recognition program
EP3282392A1 (en) Vision system and method for a motor vehicle
US20220390383A1 (en) Imaging device, imaging system, and imaging method
JP5083164B2 (en) Image processing apparatus and image processing method
CN113875217A (en) Image recognition apparatus and image recognition method
US20240236519A1 (en) Imaging device, electronic device, and light detecting method
CN114930804A (en) Imaging device and vehicle control system
CN101408423B (en) Method for detecting angle of image viewfinding device and vehicle collision alarming system thereof
JP2010020557A (en) Image processor and image processing method
JP2021190848A (en) Detector, detection system, and detection method
WO2019207927A1 (en) Array antenna, solid-state imaging device and electronic apparatus
US20230098440A1 (en) Imaging device, imaging system, and imaging method
JP2006317193A (en) Image processing apparatus, imaging processing method and program for processing image
CN109076168B (en) Control device, control method, and computer-readable medium
EP3227742B1 (en) Object detection enhancement of reflection-based imaging unit
JP6582891B2 (en) Empty vehicle frame identification system, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312