JP2009301494A - Image processing unit and image processing method - Google Patents
Image processing unit and image processing method Download PDFInfo
- Publication number
- JP2009301494A JP2009301494A JP2008158190A JP2008158190A JP2009301494A JP 2009301494 A JP2009301494 A JP 2009301494A JP 2008158190 A JP2008158190 A JP 2008158190A JP 2008158190 A JP2008158190 A JP 2008158190A JP 2009301494 A JP2009301494 A JP 2009301494A
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- imaging
- image
- image processing
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、撮像装置により撮像された撮像画像に写る移動体を検出するための画像処理装置に関する。特に、撮像画像に写る移動体の影部を効果的に除去し、移動体を種類別に正しく検出することを可能とする画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus for detecting a moving body that appears in a captured image captured by an imaging apparatus. In particular, the present invention relates to an image processing apparatus and an image processing method that can effectively remove a shadow portion of a moving body that appears in a captured image and correctly detect the moving body by type.
従来より、見通しの悪いT字路、十字路等の交差点での交通事故を防止するための交通制御システムが種々提案されている。特に、交差点近傍の路側に道路状況を上方から可視光波長帯にて撮像する撮像装置を設置し、撮像した画像を自動車へ送信することにより運転者に警告、注意を通知できるシステムが提案されている(例えば、特許文献1参照)。 Conventionally, various traffic control systems for preventing traffic accidents at intersections such as T-shaped roads and crossroads with poor visibility have been proposed. In particular, a system has been proposed in which an imaging device that captures road conditions in the visible light wavelength band from above is installed on the roadside in the vicinity of the intersection, and the driver can be alerted and alerted by transmitting the captured image to the automobile. (For example, refer to Patent Document 1).
この場合、撮像した画像から自動車を検出するための前処理が行なわれる場合がある(例えば、特許文献2参照)。この場合、前処理として「背景差分」、「エッジ抽出」、「時間差分(フレーム差分)」、「オプティカルフロー」等の技術を利用し、撮像した画像内の車両に相当する領域を判別している。
自動車同士の衝突のみならず、自動車と自転車との衝突、自動車と人との衝突等の種々の交通事故を削減するため、更に高度な安全運転支援システムの実現が期待されている。具体的には、交差点における他の自転車、人、又は落下物の有無及び位置の情報を交差点に進入しようとする自動車へ送信する。そして、自動車側で受信する情報に基づき事故を回避するための制御を自動的に実行する。これにより事故を未然に防ぐこと、及び被害を最小限に抑えることが期待される。したがってこの場合、撮像画像から交差点での単なる移動体の有無のみならず、自転車、人、又は落下物等の移動体の種類を夫々識別した上で移動体を検出することが必要となる。 In order to reduce various traffic accidents such as a collision between a car and a bicycle, a collision between a car and a person as well as a collision between cars, it is expected to realize a more advanced safe driving support system. Specifically, information on the presence and position of other bicycles, people, or fallen objects at the intersection is transmitted to the vehicle that is about to enter the intersection. And the control for avoiding an accident is automatically performed based on the information received by the vehicle side. This is expected to prevent accidents and minimize damage. Therefore, in this case, it is necessary to detect the moving body after identifying not only the presence / absence of the moving body at the intersection but also the type of the moving body such as a bicycle, a person, or a falling object.
撮像画像から移動体の種類をも区別して検出するためには、撮像画像内の移動体に相当する領域を背景差分又は時間差分などを用いて抽出した後、各移動体の特徴量を検知できるか否かを判断することが有効である。例えば、撮像画像内における検出対象の形状及び大きさを特徴量として設定しておき、移動体に相当する領域の形状及び大きさが設定されている形状及び大きさと一致するか否かによって移動体を識別することが可能である。 In order to distinguish and detect the type of moving object from the captured image, the feature amount of each moving object can be detected after extracting the area corresponding to the moving object in the captured image using the background difference or the time difference. It is effective to determine whether or not. For example, the shape and size of the detection target in the captured image are set as the feature amount, and the moving object depends on whether or not the shape and size of the area corresponding to the moving object matches the set shape and size. Can be identified.
しかしながら、従来のシステムで利用されている可視光波長帯による撮像装置では、昼間の日照がある状況下での撮像画像から移動体に相当する領域を識別しようとする場合、移動体から背景に投影された影部分により移動体の種類を誤って識別する可能性がある。画像処理で差分を算出する場合に影部分を移動体の一部として抽出し、移動体のサイズを大きく検出する可能性があるからである。 However, in an imaging device using a visible light wavelength band used in a conventional system, when an area corresponding to a moving object is to be identified from a captured image in a daytime sunshine situation, the moving object is projected onto the background. There is a possibility that the type of the moving object is erroneously identified by the shadowed portion. This is because when calculating the difference by image processing, the shadow portion may be extracted as a part of the moving body, and the size of the moving body may be detected largely.
また、可視光波長帯による撮像装置では、夜間に自動車以外の移動体を検出することが困難である。自動車及び自転車等の車両はヘッドライト、テールライト等の発光部を有するためにこれらを利用して検出することが可能であるが、人は発光部が通常無く、環境照度が低い夜間では撮像が困難である。また、自転車は発光部を有していても無灯火で走行する場合がある。したがって可視光波長帯による撮像装置を用いて、夜間に自転車又は人を検出することは困難である。 In addition, it is difficult for an imaging apparatus using a visible light wavelength band to detect a moving body other than an automobile at night. Since vehicles such as automobiles and bicycles have light-emitting parts such as headlights and taillights, they can be detected using these, but people usually do not have light-emitting parts and can capture images at night when the ambient illuminance is low. Have difficulty. In addition, even if the bicycle has a light emitting part, it may run without a light. Therefore, it is difficult to detect a bicycle or a person at night using an imaging device using a visible light wavelength band.
本発明は斯かる事情に鑑みてなされたものであり、夜間・昼間を問わずに撮像画像に基づき、撮像画像に写る移動体を種類別に正しく検出することを可能とする画像処理装置及び画像処理方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and an image processing apparatus and image processing capable of correctly detecting, by type, a moving body that appears in a captured image based on a captured image regardless of nighttime or daytime. It aims to provide a method.
第1発明に係る画像処理装置は、撮像画像に基づいて移動体を検出するための画像処理を行なう画像処理装置において、遠赤外線波長帯にて撮像する第1撮像手段と、該第1撮像手段の撮像範囲を可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段と、前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出する抽出手段と、該抽出手段が抽出した夫々の候補の重複部分を、移動体領域と特定する特定手段と、該特定手段が特定した移動体領域の特徴量に基づき移動体を検出する手段とを備えることを特徴とする。 An image processing apparatus according to a first aspect of the present invention is an image processing apparatus that performs image processing for detecting a moving object based on a captured image. The first imaging unit that captures an image in a far-infrared wavelength band, and the first imaging unit A moving body in which a moving body is shown from a second imaging means for imaging the imaging range of the first imaging area in the visible light wavelength band or near-infrared wavelength band, and captured images simultaneously captured by the first and second imaging means. Extracting means for extracting region candidates, specifying means for specifying overlapping portions of the candidates extracted by the extracting means as moving object regions, and moving objects based on feature quantities of moving object regions specified by the specifying means And means for detecting.
第2発明に係る画像処理装置は、前記第1及び第2撮像手段は、略平面をなす背景面を含む範囲を撮像するようにしてあり、撮像画像中における複数の異なる位置に対応付けて、各位置に物体が写る領域がある場合の前記背景面上の所定位置から前記物体までの実空間における距離を記憶しておく第1の記憶手段と、前記特定手段が特定した移動体領域の撮像画像中における位置を求める手段と、求めた位置に対応付けてある距離に基づき、前記所定位置から移動体までの実空間における距離を特定する距離特定手段とを備えることを特徴とする。 In the image processing apparatus according to the second invention, the first and second imaging means are configured to image a range including a substantially flat background surface, and are associated with a plurality of different positions in the captured image. First storage means for storing a distance in real space from the predetermined position on the background surface to the object when there is an area where the object is captured at each position, and imaging of the moving body area specified by the specifying means It is characterized by comprising means for obtaining a position in the image and distance identifying means for identifying a distance in real space from the predetermined position to the moving body based on a distance associated with the obtained position.
第3発明に係る画像処理装置は、移動体の種類、前記所定位置からの距離、及び移動体領域が撮像画像中で占めるべき領域の縦横の大きさの対応関係を記憶しておく第2の記憶手段と、前記距離特定手段が特定した移動体までの距離、及び前記特定手段が特定した移動体領域の縦横の大きさに基づき、移動体の種類を識別する識別手段とを更に備えることを特徴とする。 An image processing apparatus according to a third aspect of the present invention stores a correspondence relationship between a type of a moving body, a distance from the predetermined position, and a vertical and horizontal size of an area that the moving body area should occupy in the captured image. A storage unit; and an identification unit that identifies the type of the moving body based on the distance to the moving body specified by the distance specifying unit and the vertical and horizontal sizes of the moving body area specified by the specifying unit. Features.
第4発明に係る画像処理装置は、前記第1及び第2撮像手段は交差点を俯瞰するように設置されており、前記1の記憶手段は、前記第1及び第2撮像手段の路面からの高さ及び俯角に基づき、撮像画像中における物体の領域の位置と、実空間における交差点中の所定位置から前記物体までの距離とが対応付けて記憶するようにしてあり、前記第2の記憶手段は、距離に対応付けて移動体領域が撮像画像中で占めるべき縦横の大きさを記憶するようにしてあり、更に、前記識別手段は、前記第1及び第2の記憶手段により記憶してある位置と距離との対応付け、及び縦横の大きさに基づき、移動体の種類を識別するようにしてあることを特徴とする。 In an image processing apparatus according to a fourth aspect of the present invention, the first and second imaging means are installed so as to look down on the intersection, and the first storage means is a high-level device from the road surface of the first and second imaging means. Based on the height and the depression angle, the position of the object region in the captured image and the distance from the predetermined position in the intersection in the real space to the object are stored in association with each other, and the second storage means The vertical and horizontal sizes that the moving body region should occupy in the captured image are stored in association with the distance, and the identification means is a position stored by the first and second storage means. The type of the moving body is identified based on the correspondence between the distance and the distance and the vertical and horizontal sizes.
第5発明に係る画像処理装置は、前記第1及び第2撮像手段の撮像範囲を、前記第1及び第2撮像手段とは異なる角度から撮像するように設置されている第3撮像手段と、前記第1及び第2撮像手段と同時的に、前記第3撮像手段が撮像した撮像画像から移動体領域の候補を抽出する抽出手段と、前記特定手段が特定した移動体領域、及び前記抽出手段が第3撮像手段の撮像画像から抽出した候補を対応付ける手段と、対応付けた移動体領域及び候補の夫々の撮像画像中における位置を特定する手段と、夫々で特定された位置間の差異に基づき、前記第1乃至第3撮像手段のいずれかから移動体までの実空間における距離を算出する手段とを備えることを特徴とする。 An image processing apparatus according to a fifth aspect of the present invention is a third imaging unit installed so as to capture an imaging range of the first and second imaging units from an angle different from that of the first and second imaging units; Simultaneously with the first and second imaging means, an extraction means for extracting a candidate for a moving body region from a captured image captured by the third imaging means, a moving body area specified by the specifying means, and the extracting means Is based on the difference between the position specified by the means for associating the candidate extracted from the captured image of the third imaging means, the means for specifying the position of the associated moving body region and the candidate in each captured image, and And a means for calculating a distance in real space from any one of the first to third imaging means to the moving body.
第6発明に係る画像処理装置は、前記第1乃至第3撮像手段は車両にとりつけてあり、車両から移動体までの距離を算出するようにしてあることを特徴とする。 The image processing apparatus according to a sixth aspect of the invention is characterized in that the first to third imaging means are attached to a vehicle, and the distance from the vehicle to the moving body is calculated.
第7発明に係る画像処理方法は、遠赤外線波長帯にて撮像する第1撮像手段、及び該第1撮像手段の撮像範囲を可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段により撮像される撮像画像から移動体を検出するための画像処理方法であって、前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出し、抽出した夫々の候補の重複部分を移動体領域として特定し、特定した移動体領域の特徴量に基づき移動体を検出することを特徴とする。 An image processing method according to a seventh aspect of the invention is a first imaging means for imaging in the far infrared wavelength band, and a second imaging means for imaging the imaging range of the first imaging means in the visible light wavelength band or near infrared wavelength band. An image processing method for detecting a moving body from a picked-up image picked up by the first imaging means, wherein each of the moving body regions in which the moving body is captured from the picked-up images picked up simultaneously by the first and second image pickup means. A candidate is extracted, an overlapping portion of each extracted candidate is specified as a moving body region, and a moving body is detected based on a feature amount of the specified moving body region.
第1発明及び第7発明にあっては、略同一の撮像範囲を撮像する第1撮像手段及び第2撮像手段により画像が撮像される。
移動体の影は、周辺との間に色味の差異又は輝度差を生じさせるが、移動体と共に短時間で移動するため、日射の有無による温度変化を生じさせない。したがって、移動体の影部分の領域は、可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段が撮像した撮像画像内では、背景差分又は時間差分などを用いて抽出した移動体領域の候補に含まれる。しかしながら、遠赤外線波長帯にて撮像する第1撮像手段で撮像した撮像画像内では、他の部分との温度差、即ち輝度差がないので移動体領域の候補に含まれない。これにより、移動体そのものが写っている移動体領域外に位置する移動体の影部分は、重複部分から除かれる。
一方、移動体そのものが写っている移動体領域内であるが周辺との温度差がない部分は、遠赤外線波長帯にて撮像する第1撮像手段による撮像画像内で移動体領域の候補に含まれない。したがって、第1撮像画像内における移動体そのものに相当する領域は、複数に分離して抽出される可能性がある。この場合、第2撮像手段による撮像画像内では、移動体そのものに相当する領域は周辺部分との色味又は輝度の差異により一連の領域として抽出される。第1撮像手段によって撮像された撮像画像から分離した複数の領域が抽出されても、第2撮像手段によって撮像された撮像画像から一連の領域として抽出された領域と重複する部分は一の移動体領域として特定することが可能である。
In the first invention and the seventh invention, images are picked up by the first image pickup means and the second image pickup means that pick up an image of substantially the same image pickup range.
The shadow of the moving body causes a color difference or a luminance difference with the surroundings, but does not cause a temperature change due to the presence or absence of solar radiation because it moves with the moving body in a short time. Therefore, the area of the shadow part of the moving body is the moving body area extracted using the background difference or the time difference in the captured image captured by the second imaging unit that captures an image in the visible light wavelength band or the near infrared wavelength band. Included in the candidate. However, the picked-up image picked up by the first image pick-up means picked up in the far-infrared wavelength band is not included in the moving object region candidate because there is no temperature difference, that is, no luminance difference from other parts. Thereby, the shadow part of the moving body located outside the moving body area in which the moving body itself is shown is removed from the overlapping part.
On the other hand, a portion within the moving body region where the moving body itself is shown but having no temperature difference from the surroundings is included in the moving body region candidates in the captured image by the first imaging means that captures images in the far infrared wavelength band. I can't. Accordingly, there is a possibility that a region corresponding to the moving body itself in the first captured image may be extracted separately. In this case, in the image picked up by the second image pickup means, the region corresponding to the moving body itself is extracted as a series of regions due to the difference in color or brightness from the peripheral part. Even if a plurality of regions separated from the captured image captured by the first imaging unit are extracted, a portion overlapping with the region extracted as a series of regions from the captured image captured by the second imaging unit is one moving body It can be specified as a region.
第2発明にあっては、第1及び第2撮像手段は、略平面をなす地面、床面又は路面等の背景面を含む範囲を撮像するようにしてあると共に、撮像画像内における移動体領域の位置と、背景面上の所定位置から移動体までの実空間における距離との対応を予め記憶しておく。これにより、所定位置から移動体までの実空間における距離を簡易に特定することが可能である。 In the second invention, the first and second imaging means are adapted to image a range including a background surface such as a substantially flat ground, floor or road surface, and a moving body region in the captured image. And a correspondence between a predetermined position on the background surface and a distance in the real space from the moving body is stored in advance. Thereby, the distance in the real space from a predetermined position to a moving body can be specified easily.
第3発明にあっては、移動体の種類により、移動体領域が占めるべき領域の縦横の大きさは、移動体の第1及び第2撮像手段からの距離に応じて決定できる。移動体領域として特定された領域が、予め移動体の種類毎に記憶されている縦横の大きさの条件に対応している場合、移動体は対応する条件に相当する種類であると識別される。影部分を精度よく除去することができるので正確に移動体領域を抽出することができ、更に領域の大きさを特徴量として該特徴量に基づいて正確に移動体の種類を識別することも可能である。 In the third invention, depending on the type of the moving body, the vertical and horizontal sizes of the area that the moving body area should occupy can be determined according to the distance from the first and second imaging means of the moving body. When the area specified as the mobile object area corresponds to the vertical and horizontal size conditions stored in advance for each type of mobile object, the mobile object is identified as the type corresponding to the corresponding condition. . Since shadows can be accurately removed, moving object regions can be accurately extracted, and the size of the region can be used as a feature value to accurately identify the type of moving object. It is.
第4発明にあっては、交差点の道路上を移動中の自動車、自転車、人又は落下物等の移動体の路面における影部分を除去して、正確に移動体の縦横の大きさなどの特徴量を特定することができる。これにより、交差点に進入してきた自動車若しくは自転車等の車両、人又は落下物等の移動体の種類を識別し、交差点における移動体の実空間の位置を特定することが可能となる。 In the fourth invention, features such as the vertical and horizontal sizes of the moving body are accurately removed by removing shadow portions on the road surface of the moving body such as automobiles, bicycles, people or falling objects moving on the road of the intersection. The amount can be specified. This makes it possible to identify the type of a moving body such as a vehicle such as an automobile or a bicycle that has entered the intersection, a person, or a fallen object, and specify the position of the real space of the moving body at the intersection.
第5発明にあっては、第1及び第2撮像手段による撮像画像から重複して抽出され、影部分が除去されて特定される移動体領域の撮像画像内における位置と、第3撮像手段による撮像画像から抽出される移動体領域の候補の撮像画像内における位置との差異、即ち、2つの撮像手段への入射角度の差異に基づき、三角測量法の手法を用いて移動体までの距離を精度よく算出することが可能である。 In the fifth invention, the position in the captured image of the moving body region that is extracted from the captured images by the first and second imaging means and is specified by removing the shadow portion, and the third imaging means Based on the difference between the position of the moving body region candidate extracted from the picked-up image in the picked-up image, that is, the difference in the incident angle to the two image pickup means, the distance to the moving object is determined using the triangulation method. It is possible to calculate with high accuracy.
第6発明にあっては、自身が移動体である車両に第1乃至第3撮像手段が設置される。自車両にとっての移動体である他の車両、人、又は落下物等の移動体の路面への影に相当する部分を除去することができるので、三角測量法の手法により車両から移動体までの距離を精度よく算出することが可能である。 In the sixth invention, the first to third imaging means are installed in a vehicle that is itself a moving body. Since it is possible to remove the part corresponding to the shadow on the road surface of the moving body such as other vehicles, people, or falling objects that are moving bodies for the own vehicle, the method of triangulation method from the vehicle to the moving body It is possible to calculate the distance with high accuracy.
本発明による場合、遠赤外線波長帯にて撮像する第1撮像手段を用いることにより、影部分が移動体の一部として誤って検出されることを回避することが可能となる。また、移動体の表面の一部が、周辺と温度差を生じずに第1撮像手段による撮像画像で輝度差を生じない場合でも、第2撮像手段により可視光波長帯又は近赤外線波長帯にて撮像された画像で判別される領域が加味されて移動体領域が正確に抽出される。これにより、移動体を種類別に高精度に正しく識別することが可能となる。 In the case of the present invention, it is possible to avoid the shadow portion being erroneously detected as a part of the moving body by using the first imaging means for imaging in the far infrared wavelength band. Further, even when a part of the surface of the moving body does not cause a temperature difference from the surroundings and does not cause a luminance difference in the image captured by the first imaging means, the second imaging means causes the visible light wavelength band or the near infrared wavelength band to be generated. The moving body region is accurately extracted by taking into account the region discriminated from the captured image. As a result, it is possible to correctly identify the moving object by type with high accuracy.
以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。 Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.
なお、以下に示す実施の形態では、本発明に係る画像処理装置によって交差点上の自動車、自転車、人又は落下物等の移動体を正確に検出することを可能とし、交差点に進入する自動車で事故防止のための走行制御を実行させる安全運転支援システムに適用した場合を例に説明する。 In the embodiment shown below, the image processing apparatus according to the present invention makes it possible to accurately detect a moving object such as an automobile, a bicycle, a person, or a fallen object on an intersection, and an accident occurs in an automobile entering the intersection. A case where the present invention is applied to a safe driving support system that executes traveling control for prevention will be described as an example.
(実施の形態1)
図1は、実施の形態1における安全運転支援システムが設置されている交差点の例を示す上方からの斜視図である。図1中の1は、交差点を撮像する2台の撮像装置と一体に構成される画像処理装置である。画像処理装置1は、路側に設置されて所定の高さで道路側に伸びている支柱に取り付けられている。画像処理装置1と一体に構成されている2台の撮像装置のレンズが交差点及びその近傍の範囲を俯瞰するように設置されており、画像処理装置1及び撮像装置は撮像装置のレンズ側を遠赤外線、及び可視光線又は近赤外線を透過する素材とした筐体に収められている。図1中の2は路側機であり、画像処理装置1と同様に路側の支柱に取り付けられている。画像処理装置1と路側機2とは通信線により接続されている。
(Embodiment 1)
FIG. 1 is a perspective view from above showing an example of an intersection where the safe driving support system according to
画像処理装置1は、路側機2を介して無線通信によりデータを送受信することが可能である。例えば、図1中には2台の自動車が示されている。各自動車の車載器は、例えばDSRC(Dedicated Short Range Communication)技術により路側機2との無線通信が可能に構成されている。
The
実施の形態1における安全運転支援システムでは、画像処理装置1が以下に説明する動作を行なうことにより各自動車での走行制御を実現する。画像処理装置1が、交差点を俯瞰するように撮像する撮像装置により得られる画像データから、交差点における自動車、自転車、歩行者、又は落下物等の移動体を検出する。そして、画像処理装置1は検出した移動体の情報を路側機2を介して各自動車に送信する。これにより各自動車では、路側機2を介して受信した情報に基づき、進行方向に歩行者の存在を検知した場合にはブレーキを自動的に作動させるなどの走行制御が実現可能となる。また、緩衝装置を作動させるなど、衝突事故が起こった場合でも衝突による衝撃を軽減させるための安全制御も実現可能となる。
In the safe driving support system according to the first embodiment, the
このような安全運転支援システムを実現するために、画像処理装置1が画像データに基づき行なう画像処理、及び画像処理によって得られる各種情報について以下に説明する。
In order to realize such a safe driving support system, image processing performed by the
図2は、実施の形態1における安全運転支援システムを構成する画像処理装置1、路側機2、並びに第1及び第2撮像装置3,4の内部構成を示すブロック図である。画像処理装置1は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等を利用して各構成部を制御する制御部10と、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ等の不揮発性のメモリを利用した記憶部11と、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等のメモリを利用した画像メモリ12と、第1及び第2撮像装置3,4からの画像信号を受け付ける第1画像取得部13及び第2画像取得部14と、路側機2との通信を実現する通信部15とを備える。
FIG. 2 is a block diagram showing an internal configuration of the
制御部10は、内蔵するROM(Read Only Memory)又は記憶部11に記憶されている制御プログラムを読み出して実行することにより各構成部を制御し、後述にて説明する画像処理を行なうようにしてある。記憶部11は制御部10に内蔵される構成としてもよい。制御部10の処理によって発生する各種データは、更に別途備えられる不揮発性のメモリ又は制御部10内蔵のメモリに一時的に記憶される。
The
画像メモリ12は、第1及び第2画像取得部13,14により取得された画像データを記憶する。制御部10は、第1及び第2画像取得部13,14にて画像データを取得した場合に、第1及び第2画像取得部13,14夫々に対応する画像メモリ12内の記憶領域への書き込みを指示する。また、後述にて説明する各処理は、画像メモリ12に記憶されている画像データ、又はその複製に対して行なう。
The
画像メモリ12は、制御部10が内蔵するRAM(Random Access Memory)の一部の記憶領域であってもよい。また、記憶部11又は画像メモリ12は画像処理装置1の外部に設置され、画像処理装置1の制御部10が読み書きが可能なように、画像処理装置1と接続されている構成としてもよい。
The
第1画像取得部13は第1撮像装置3から出力される画像信号を受け付け、第2画像取得部14は、第2撮像装置4から出力される画像信号を受け付ける。そして第1画像取得部13及び第2画像取得部14は夫々、受け付けた画像信号から画像データを取り出し、画像メモリ12に記憶する。詳細には、第1及び第2画像取得部13,14は制御部10からの指示に従い、夫々受け付けている画像信号から画像を構成する画素毎の輝度値又は色差等を特定して画像データとし、画像メモリ12へ書き込む。
The first
通信部15は、路側機2との間を接続する通信線を介した情報の送受信を実現する。制御部10は、画像処理によって得られた情報を通信部15にて路側機2へ送信し、通信部15にて路側機2からの情報を受信する。
The
路側機2は、CPU又はMPUを利用して各構成部を制御する制御部20と、画像処理装置1との通信を実現する通信部21と、各自動車に搭載されている車載器への通信を無線により実現する無線通信部22とを備える。
The
通信部21は画像処理装置1の通信部15と対応して情報の送受信が可能である。制御部20は、通信部21が画像処理装置1から送信された情報を受信した場合、通信部21からの通知を受けてこれを受信する。
The
無線通信部22は、DSRC技術の方式により無線通信が可能である。制御部20は、通信部22により画像処理装置1から受信した情報を無線通信部22により各自動車の車載器へ送信する。なお、無線通信部22は車載器へのDSRC方式による通信のみならず、遠隔地にある交通管制センター内の通信装置宛に情報を送信できるように構成してあってもよい。
The
第1撮像装置3は、赤外線レンズ及び遠赤外線撮像素子を備え、遠赤外線波長帯にて撮像を行なう遠赤外線カメラである。赤外線レンズは硫化亜鉛、カルコゲンガラス、ゲルマニウム、ジンクセレン等を原料として作製されている。遠赤外線撮像素子は、酸化バナジウム(VOx)、アモルファスシリコン、SOI(Silicon on Insulator)ダイオード、サーモパイル等を用いた非冷却型のものを用いる。遠赤外線撮像素子が検出可能な波長帯は例えば、8μm〜12μmである。フィルタを備えて他の波長の光を遮断するようにしてもよい。
The
第1撮像装置3の遠赤外線撮像素子は、温度差を輝度差に変換して出力する。画角内に移動体から路面へ投影される影部分を含む場合、影部分も短時間で移動するので温度変化が生じにくく輝度差が生じない。したがって、遠赤外線撮像素子により出力された画像信号から取得される画像データ内の移動体の影部分には、他の路面との輝度値に差異が現れない。
The far-infrared imaging device of the
第2撮像装置4は、可視光レンズ及び可視光撮像素子を備え、可視光波長帯にて撮像を行なうカメラである。可視光撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device Image Sensor)を用いる。可視光撮像素子の感度特性は例えば、450nm〜700nmである。フィルタを更に備えて他の波長の光を遮断するようにしてもよい。なお、第2撮像装置4は、近赤外(例えば、900nm〜1.2μm)波長帯に感度特性を有するように、赤外線レンズ及び近赤外線撮像素子を備える構成としてもよい。
The
第2撮像装置4の可視光撮像素子は、光の強度を輝度値に変換して出力する。画角内に移動体から路面へ投影される影部分を含む場合、勿論、影部分は光の強度が周辺の路面と異なる。したがって、可視光撮像素子により出力された画像信号から取得される画像データ内の移動体の影部分には、影以外の部分と比して輝度差が生じる。
The visible light imaging element of the
第1撮像装置3の遠赤外線撮像素子及び第2撮像装置4の可視光撮像素子の画素数はいずれも例えば320×240であり、1秒間に約30フレームのレートで生成される画像の画像信号を出力する。第1及び第2撮像装置3,4における撮像タイミングは厳密に同期されていることが望ましいが、必ずしも厳密な同期性は求められない。例えば、第1及び第2撮像装置3,4における撮像タイミングの時間差は後述する画像処理に影響を及ぼすが、時間差が特定又は推定できる場合にはその時間差による誤差を吸収することも可能である。
The number of pixels of the far-infrared imaging device of the
第1撮像装置3の画角と、第2撮像装置4の画角とは略一致するように構成されている。つまり、第1及び第2撮像装置3,4では焦点距離が同一となるように内蔵するレンズ群の光学的配置が構成されている。同一画角での撮像を簡易に実現するため、第1及び第2撮像装置3,4は同一の画素数の撮像素子を用い、同一の方向、即ち交差点へ向けて並設されている。
The angle of view of the
なお、上述のように第1及び第2撮像装置3,4の画角は、後述する処理のためには一致することが望ましいが、完全に一致することは困難である。ただし、少なくとも画角が重複するように構成されることが必要となる。略一致するように並設できない場合は、第1及び第2画像取得部13,14にて取得される画像データの重複範囲を記憶部11に記憶しておけばよい。そして、重複範囲内における相互に対応する画素を特定することが可能なように対応関係を記憶しておく。これにより制御部10は、画像メモリ12に記憶されている第1及び第2画像取得部13,14にて取得された2つの画像データの重複範囲内で同一の被写体に相当する領域を検出することができる。
As described above, it is desirable that the angles of view of the first and
次に、上述のように構成される画像処理装置1の制御部10が、画像データに対して行なう画像処理について詳細を説明する。
Next, details of the image processing performed on the image data by the
制御部10は、第1及び第2画像取得部13,14にて取得した画像データから、自動車、自転車、人又は落下物等の移動体を検出する。具体的には制御部10は画像データから、移動体領域を抽出する。画像データに基づく移動体検出方法としては従来より種々の技術がある。実施の形態1では背景差分の方法を用いる構成とするが、一又は複数フレーム分前の画像データとの差分をとるフレーム差分の方法を用いてもよいし、オプティカルフローと呼ばれる方法を用いてもよい。
The
図3は、実施の形態1における画像処理装置1の記憶部11に予め記憶されている背景の画像データ及び移動体の種類毎のサイズ情報の内容例を示す説明図である。図3(a)は、背景の画像データの内容例を示し、図3(b)は移動体の種類毎のサイズ情報の内容例を示している。なお、図3(a)に示すような遠赤外線用の背景の画像データ、及び可視光用の背景の画像データが夫々、記憶部11に記憶してある。
FIG. 3 is an explanatory diagram illustrating an example of the contents of background image data and size information for each type of moving body, which are stored in advance in the
図3(a)に示すように、背景の画像データには固定物である路面が写っている。第1撮像装置3から取得される画像データと背景の画像データとの背景差分、及び第2撮像装置4から取得される画像データと背景の画像データとの背景差分を夫々算出することにより、移動体領域の候補が抽出される。
As shown in FIG. 3A, the background image data includes a road surface that is a fixed object. Movement is performed by calculating the background difference between the image data acquired from the
なお、画像処理装置1の設置位置、設置高さ、並びに第1及び第2撮像装置3,4の俯角、画角に応じて撮像範囲は決定される。実施の形態1の場合、第1及び第2撮像装置3,4は交差点を俯瞰するように設置されるので、画像データ内における位置、特に垂直方向の位置と実空間の交差点における位置とに対応関係がある。図3(a)中の破線で表わされる水平線は夫々、画像データ内における垂直方向の位置に対応する実空間における画像処理装置1からの距離を示している。例えば、図3(a)中の一番下方にある破線上に写る路面の一部は、画像処理装置1が設置される位置から20mの距離に位置する。また、中央にある破線上に写る路面の一部は、画像処理装置1が設置される位置から50mの距離に位置する。一番上方にある破線上に写る路面の一部は、画像処理装置1が設置される位置から100mの距離に位置する。
Note that the imaging range is determined according to the installation position and installation height of the
そして、移動体の大きさは、移動体の種類毎によってある程度決まる。例えば、移動体が普通乗用車及び小型乗用車である場合、それらは概ね縦(車長)×横(車幅)×高さ(車高)が5.5m×2m×1.8mの体積以内に収まるはずである。また人は、概ね縦×横×高さが80cm×80cm×2m(身長)の体積以内に収まるはずである。第1及び第2撮像装置3,4によって移動体が撮像された場合、画像データ内の移動体領域の大きさは、画像処理装置1から遠いほど小さく、近いほど大きくなる。そして、移動体領域の大きさは、第1及び第2撮像装置3,4から移動体までの距離、並びに第1及び第2撮像装置3,4の画角に応じて決まる。
The size of the moving body is determined to some extent depending on the type of moving body. For example, when the moving body is a normal passenger car and a small passenger car, they generally fit within a volume of 5.5 m × 2 m × 1.8 m in length (vehicle length) × width (vehicle width) × height (vehicle height). It should be. In addition, a person should fit within a volume of approximately 80 cm × 80 cm × 2 m (height) in length × width × height. When the moving body is imaged by the first and
したがって、画像処理装置1から所定の距離に位置する移動体領域の画像データ内に占めるべき縦横の大きさは移動体の種類毎に求まる。そこで、図3(b)に示すように移動体の種類毎に、画像処理装置1から所定の距離に位置する移動体領域の縦横の大きさを記憶部11に記憶しておく。例えば、乗用車は概ね車幅2m以内、車高1.8m以内である。したがって画像データの垂直方向に対応する方向に、画像処理装置1から50mの位置を走行中の乗用車が第1及び第2撮像装置3,4によって撮像された場合、乗用車の領域が占めるべき領域の大きさは例えば、縦×横が30ピクセル×48ピクセル以内となる。一方、画像データの水平方向に対応する方向に、画像処理装置1から50mの位置を走行中の乗用車が第1及び第2撮像装置3,4によって撮像された場合、乗用車の領域が占めるべき領域の大きさは例えば、縦×横が30ピクセル×64ピクセル以内となる。
Therefore, the vertical and horizontal sizes to be occupied in the image data of the moving object region located at a predetermined distance from the
実施の形態1では図3(b)に示すように、移動体の種類毎に移動体領域が占めるべき縦横の大きさを記憶部11に予め記憶しておく。これにより、制御部10は移動体領域の縦横の大きさに基づき、移動体の種類を逆に識別することが可能である。例えば制御部10は、移動体領域が画像処理装置1から50mの距離に相当する位置にある場合、領域の縦横の大きさから以下のように種類を識別することが可能である。例えば、制御部10は、移動体領域の縦の大きさが30ピクセル以内であって横の大きさが64ピクセル以内であり、且つ、横の大きさが48ピクセルよりも大きい場合、移動体を画像データの水平方向に対応する方向を走行中の乗用車と識別することが可能となる。同様に、制御部10は、移動体領域の縦の大きさが30ピクセル以内であって横の大きさが15ピクセル以内である場合には、移動体を人と識別することが可能となる。
In the first embodiment, as shown in FIG. 3B, the vertical and horizontal sizes that should be occupied by the moving object region are stored in advance in the
移動体領域の画像データ内における位置が、記憶部11に記憶されているサイズ情報に対応する所定の位置(図3(b)では50mの距離の位置)とは異なる位置である場合、制御部10は、その差異に応じて移動体に相当する領域が占めるべき縦横の大きさを算出する。制御部10は、移動体領域の画像データ内における縦横の大きさと、算出した大きさとに基づき同様に移動体の種類を識別することが可能である。例えば画像処理装置1から100mの距離に対応する位置に、移動体領域が位置する場合、所定の50mの距離から倍の距離なので縦横の大きさも夫々半分以内となるはずである。
When the position in the image data of the moving body region is a position different from a predetermined position corresponding to the size information stored in the storage unit 11 (a position at a distance of 50 m in FIG. 3B), 10 calculates the vertical and horizontal sizes that should be occupied by the area corresponding to the moving object according to the difference. The
また、移動体に相当する領域の縦横比は移動体の種類によって一定であるはずである。したがって図3(b)の説明図に示す縦横の大きさから求められる縦横比に基づいて、移動体の種類を識別してもよい。 The aspect ratio of the area corresponding to the moving body should be constant depending on the type of the moving body. Therefore, the type of the moving body may be identified based on the aspect ratio obtained from the vertical and horizontal sizes shown in the explanatory diagram of FIG.
このように、画像データ中の位置と、実空間における位置とを対応付けて記憶しておくことにより、移動体領域の画像データ中の位置に基づいて移動体の種類を識別することができる。その他、移動体の実空間における位置を特定することができる。移動体の位置を特定すると、移動体の情報を各自動車へ送信することによって各自動車の走行制御装置がこれを受信して移動体の位置を認識することができ、高精度な走行制御を行なうことができる。 Thus, by storing the position in the image data and the position in the real space in association with each other, the type of the moving object can be identified based on the position in the image data of the moving object region. In addition, the position of the moving body in the real space can be specified. When the position of the moving body is specified, information on the moving body is transmitted to each automobile, so that the traveling control device of each automobile can receive the information and recognize the position of the moving body, thereby performing highly accurate traveling control. be able to.
画像処理装置1の制御部10は、上述のように記憶部11に記憶されている情報を用い、以下に示す処理を行なう。図4は、実施の形態1における画像処理装置1の制御部10が行なう画像処理の手順の一例を示すフローチャートである。
The
制御部10は、第1画像取得部13及び第2画像取得部14へ同時的に指示信号を出力することにより、第1撮像装置3及び第2撮像装置4から出力される画像信号に基づく画像データを同時的に取得する(ステップS1)。なお、ステップS1における画像データの取得タイミングは任意である。例えば1秒等の一定時間毎に行なう構成としてもよいし、路側機2で車載器からの情報を受信した場合など、自動車が交差点への進入を検知した場合に行なう構成としてもよい。
The
制御部10は、第1撮像装置3から出力される画像信号からステップS1で第1画像取得部13が取得した画像データと、記憶部11に記憶してある遠赤外線用の背景の画像データとの差分データを算出する(ステップS2)。算出された差分データは、画像メモリ12又は制御部10内蔵メモリに一時的に記憶される。これにより、遠赤外線波長帯にて撮像する第1撮像装置3から得られる画像データから、背景の画像データには写っていない移動体が存在する領域が抽出される。
The
更に制御部10は、第2撮像装置4から出力される画像信号からステップS1で第2画像取得部14が取得した画像データと、記憶部11に記憶してある可視光用の背景の画像データとの差分(背景差分)を算出する(ステップS3)。算出された差分データは、画像メモリ12又は制御部10内蔵メモリに一時的に記憶される。これにより、可視光波長帯にて撮像する第2撮像装置4から得られる画像データから、背景の画像データには写っていない移動体が存在する領域が識別される。
Further, the
制御部10は差分データを例えば以下のようにして算出する。制御部10は画素毎に、背景の画像データと取得した画像データとの輝度値の差分を算出し、差分が所定値以上である画素と、差分が所定値未満である画素とに区別する。制御部10は、画像データを構成する画素毎の、差分が所定値以上であるか否かの真偽を示す1ビット情報の二次元配列を、差分データとして算出する。
The
更に具体的には、制御部10は取得した画像データの画素毎に、以下に示す式1に基づく演算を行なう。
More specifically, the
ただし、式1におけるf(x,y)は、取得した画像データを構成する水平方向の位置x及び垂直方向の位置yで特定される各画素の1ビット情報である。なお、水平方向の位置xは画像データの左端からの画素数であり、垂直方向のyは画像データの上端からの画素数とする。Ix,yは取得した画像データにおけるx、yで特定される画素毎の輝度値である。I´x,yは、背景の画像データにおけるx、yで特定される画素毎の輝度値である。
However, f (x, y) in
なお、式1に示すように背景差分を算出する際、取得した画像データ及び背景の画像データ夫々にエッジ抽出処理を施すなどした後の輝度値に基づいて算出してもよい。
Note that when the background difference is calculated as shown in
制御部10は、ステップS2及びS3で夫々算出された遠赤外線画像データの差分データ、及び可視光画像データの差分データの合成を行なう(ステップS4)。具体的には、制御部10は差分データ同士の論理積をとる。即ち、制御部10は、2つの差分データの同一の場所に位置する画素同士で、輝度値の差分が所定値以上であるか否かの真偽の論理積をとる。
The
更に具体的には、制御部10は算出した差分データについて、以下に示す式2に基づく演算を行なう。
More specifically, the
h(x,y)=f(x,y)*g(x,y)…(2) h (x, y) = f (x, y) * g (x, y) (2)
ただし、式2におけるf(x,y)は式1によって得られた遠赤外線画像データの差分データであり、g(x,y)は式1によって得られる可視光画像データの差分データである。また、式2中の「*」は論路積を表わす。
However, f (x, y) in
この処理により、いずれの差分データでも輝度値の差分が所定値以上であることが真である画素のみ真となる。つまり、遠赤外線波長帯による画像データからも移動体領域として抽出され、可視光波長帯による画像データからも移動体領域として抽出された領域のみが移動体領域として残る。なお、複数の連続する画素で真である場合以外、即ち、真である画素が連続しない場合は当該画素の1ビット情報を偽としてもよい。ノイズにより差分が所定値以上となった画素を除去するためである。 By this processing, only the pixel that is true that the difference in luminance value is equal to or greater than a predetermined value in any difference data is true. In other words, the moving object region is extracted from the image data in the far-infrared wavelength band, and only the region extracted as the moving object region from the image data in the visible light wavelength band remains as the moving object region. It should be noted that the 1-bit information of the pixel may be set to false unless the true pixel is true, that is, if the true pixel is not continuous. This is to remove pixels whose difference is equal to or greater than a predetermined value due to noise.
制御部10は、ステップS4にて得られた遠赤外線画像データの差分データ、及び可視光画像データの差分データの合成結果から、移動体領域を特定する(ステップS5)。このとき、移動体領域が複数特定されてもよいのは勿論である。具体的には、制御部10は差分データの論理積の結果、画像データの水平方向及び垂直方向に連続して真である画素を結合し、移動体領域とする。この場合、特定される移動体領域は任意の形状をしている。制御部10は最終的に、移動体領域に外接する矩形を移動体領域とする。
The
なお制御部10は、ステップS5の特定処理において、ステップS4において差分データの論理積により複数の異なる領域として抽出された領域について以下の処理を行なう。複数の異なる領域に分離している場合でも、いずれも可視光画像データの差分においては1つの領域に含まれるものがある。この場合には、制御部10は一の移動体に相当するとして複数の領域を包括的に外接する矩形を特定する。複数の異なる領域に分離していても、夫々同一の移動体の一部に相当する領域であるからである。
In addition, in the specific process of step S5, the
次に制御部10は、ステップS5で特定した移動体領域に基づき、移動体を識別する(ステップS6)。図3(b)に示したように移動体領域の画像データ中における所定の位置に対し、移動体の種類毎に移動体領域が占めるべき縦横の大きさが設定されている。制御部10は、ステップS5で特定した移動体領域の外接矩形の縦横の大きさと、領域の画像データ中における位置と、図3(b)に示したように設定されているサイズ情報とに基づき、移動体の種類を識別する。これにより、移動体は種類を識別された上で検出される。いずれのサイズ情報が示す縦横の大きさにも合致しない場合には、移動体は検出されなかったとして処理が為される。
Next, the
なお、制御部10はステップS6において図3(b)に示したようなサイズ情報に基づき種類を識別した。しかしながら本発明では、移動体の種類を識別する方法は問わない。例えば、移動体領域(外接矩形)に対し、移動体の種類毎のテンプレートとのパターンマッチングにより移動体の種類を識別するテンプレートマッチングの方式を用いてもよい。その他、サポートベクターマシン、ブースティング等の機械学習方法の方式を用いてパターン認識を行なうようにしてもよい。更に、制御部10は、ステップS5で特定した領域で可視光画像データを切り出し、移動体の種類毎のモデルとなるカラー画像データとの相関をとり、相関の高さに基づく類似度を評価する。そして類似度の高さに基づいて移動体の種類を識別するようにしてもよい。
In step S6, the
本発明では、ステップS5により影部分を除去した移動体領域を精度よく特定することができる。したがってステップS6においていずれの識別の方法を用いても、移動体の種類を正しく識別することが可能である。 In the present invention, it is possible to accurately identify the moving body region from which the shadow portion has been removed in step S5. Therefore, regardless of which identification method is used in step S6, it is possible to correctly identify the type of the moving object.
次に、制御部10は移動体の情報を通信部15により路側機2へ送信し(ステップS7)、処理を終了する。詳細には、制御部10はステップS6で識別した移動体の種類、及び移動体領域の画像データ中の位置から特定される画像処理装置1からの実空間における距離を移動体の情報として送信する。複数の移動体を検出できた場合には、路側機2へ送信された移動体の情報は、路側機2の無線通信部22により各自動車の車載器へ向けて送信される。
Next, the
画像処理装置1の制御部10は、上述の処理により、移動体の種類を示す情報を共に送信するので、自動車の走行制御装置側で事故を防止するための制御を精度良く行なうことができる。
Since the
次に、画像処理装置1の制御部10による処理を具体例を示して説明する。図5は、実施の形態1における画像処理装置1の制御部10が行なう画像処理結果の具体例を示す説明図である。図5(a)は、第2画像取得部14にて取得される画像データ、即ち可視光画像データの内容例を模式的に示す。なお、図5(a)に示す画像データは白黒で輪郭を示し、可視光波長帯にて撮像される影部分を射線領域にて示している。
Next, processing by the
図5(b)は、図5(a)に示した可視光画像データと、可視光用の背景の画像データとの差分データを模式的に示している。図5(c)は、遠赤外線画像データと、遠赤外線用の背景の画像データとの差分データを模式的に示している。また、図5(d)は、可視光画像データから算出される差分データと、遠赤外線画像データから算出される差分データとの合成後の画像データを模式的に示している。なお、図5(a)、図5(b)、及び図5(c)では一点鎖線により、画像データ内における位置を明確にするために道路の輪郭に相当する線を示している。 FIG. 5B schematically shows difference data between the visible light image data shown in FIG. 5A and the background image data for visible light. FIG. 5C schematically shows difference data between far-infrared image data and background image data for far-infrared rays. FIG. 5D schematically shows the image data after combining the difference data calculated from the visible light image data and the difference data calculated from the far-infrared image data. In FIGS. 5A, 5B, and 5C, a dashed line indicates a line corresponding to a road contour in order to clarify the position in the image data.
図5(a)に示すように、具体例における可視光画像データには交差点を走行中の2台の自動車、及び交差点を歩行中の人物が写っている。可視光波長帯にて撮像する第2撮像装置4から取得したので、画像データには、他の路面部分と輝度値に差異を生じた影部分が明確に写る。
As shown in FIG. 5A, the visible light image data in the specific example shows two cars traveling at the intersection and a person walking at the intersection. Since the image data is acquired from the
したがって、制御部10が可視光用の背景の画像データとの差分データを算出することにより、図5(b)中の3つの射線部分に示すように、2台の自動車夫々の領域、及び歩行中の人物の領域が夫々抽出される。そのまま夫々の領域の外接矩形を破線に示すように求めた場合、差分データは影部分を含むので影部分の大きさだけ縦横の大きさが大きくなる。したがって、図5(b)に示す外接図形に基づき、移動体の種類を識別しようとする場合、大きさ及び縦横比も実際とは異なるので誤って識別される可能性が高い。
Accordingly, the
一方、遠赤外線画像データでは、移動体の影部分は他の路面部分と輝度差を生じない。この場合も制御部10が遠赤外線用の背景の画像データとの差分データを算出することにより、2台の自動車夫々の領域、及び歩行中の人物の領域が夫々抽出される。しかしながら、図5(c)に示すようにいずれも影部分の領域は含まれていない。なお、図5(c)では、左側を走行中の自動車に相当する領域は2つに分離している。
On the other hand, in the far-infrared image data, the shadow portion of the moving body does not produce a luminance difference from other road surface portions. Also in this case, the
このように、遠赤外線画像データには影部分が残らない。周辺と温度差がない移動体の影部分は他の路面と輝度差を生じないからである。したがって、可視光画像データにおける差分データとの論理積を算出して差分データを合成することにより、図5(d)に示すように影部分を除去することができる。 Thus, no shadow portion remains in the far-infrared image data. This is because the shadow portion of the moving body having no temperature difference from the surroundings does not cause a difference in brightness from other road surfaces. Therefore, by calculating the logical product of the difference data in the visible light image data and synthesizing the difference data, the shadow portion can be removed as shown in FIG.
遠赤外線画像データでは温度差がない部分は輝度差を生じないので、図5(c)に示したように、同一の移動体の移動体領域が2つの分離した領域として抽出される。これについては、制御部10は遠赤外線の差分データと可視光の差分データとに基づき移動体領域を特定する際に、同一の移動体の移動体領域として特定する。遠赤外線画像データで2つの分離した領域に抽出されても、いずれも可視光画像データの差分データ内で連続して真である領域に含まれ、同一の移動体の異なる部分に相当する領域であるからである。この結果、図5(d)中の破線に示すように、2台の自動車及び人物の領域は影部分を除去して正確に特定される。
In the far-infrared image data, since there is no luminance difference in a portion where there is no temperature difference, as shown in FIG. 5C, the moving body region of the same moving body is extracted as two separate regions. About this, when specifying the moving body region based on the far infrared difference data and the visible light difference data, the
このように、遠赤外線波長帯にて撮像する第1撮像装置3及び可視光波長帯又は近赤外線波長帯にて撮像する第2撮像装置4のいずれか一方ではなく、両者によって撮像される撮像画像夫々から抽出され領域の重複部分を真の移動体領域として特定する。第1撮像装置3を用いることにより、影部分を除去して誤検出を回避することができると共に、第2撮像装置4を併せて用いることにより、遠赤外線のみでは不足する情報を加味して移動体自体に相当する領域を正確に特定することができる。これにより、移動体の種類を識別した上で高精度に移動体を検出することが可能となり、優れた効果を奏する。
In this way, the
また、遠赤外線波長帯による第1撮像装置3を用いることで移動体の影部分が必然的に除去されることを利用しているので、影部分が含まれるか否かを日照の有無等に基づいて判断する必要もない。このように、画像処理装置1の制御部10による画像処理としては簡易な構成により、有効に影部分を除去することができる点、優れた効果を奏する。
In addition, since it uses the fact that the shadow portion of the moving body is inevitably removed by using the
(変形例)
上述の実施の形態1における画像処理装置1は、移動体の種類毎に移動体領域が占めるべき縦横の大きさを記憶部11に記憶しておき、移動体の種類を識別する構成とした。しかしながら、画像処理装置1の記憶部11には移動体の種類毎に実空間における移動体の大きさを記憶しておくようにしてもよい。この場合制御部10は、特定された移動体領域の大きさから、検出した移動体の実空間における位置及び大きさを算出し、算出した大きさを移動体の特徴量として扱い、該特徴量に基づいて移動体の種類を識別する。
(Modification)
The
図6は、実施の形態1の変形例における画像処理装置1の制御部10が、移動体の実空間における大きさを算出する原理を模式的に示す説明図である。
FIG. 6 is an explanatory diagram schematically illustrating the principle by which the
図6(a)は、第1及び第2撮像装置3,4が設置される画像処理装置1の位置と、画像処理装置1による検出対象となる交差点中の人物の位置との関係を示している。図6(b)は、画像処理装置1と人物とが図6(a)に示される位置関係にある場合に第1及び第2撮像装置3,4によって撮像される画像データの内容例を模式的に示している。
FIG. 6A shows the relationship between the position of the
図6(a)に示すように、第1及び第2撮像装置3,4の画角θv が設定される場合に、人物が画像処理装置1の設置位置から距離Dにいると特定できたとき、人物の実空間における大きさTは、以下の式3に示すような関係式で求められる。
As illustrated in FIG. 6A, when the angle of view θ v of the first and
ただし、式3におけるHc は、図6(b)に示すように画像データの垂直方向の画素数である。実施の形態1では、第1及び第2撮像装置3,4の撮像素子の画素数はいずれも、水平方向×垂直方向が320×240とした。そしてHo は、図6(b)に示すように画像データ中における検出対象となる人物の領域の垂直方向(縦)の大きさを示す画素数である。
However, H c in
式3の関係式を予め記憶部11に記憶しておくことにより、移動体の実空間における画像処理装置1の設置位置からの距離Dと、画像データから抽出された検出対象の移動体に相当する領域の垂直方向の大きさHo とに基づいて、実空間における大きさを算出することが可能である。
By storing the relational expression of
そして制御部10は、式3により算出した実空間における大きさに基づき、移動体の種類を識別することが可能である。例えば制御部10は、算出した実空間における高さが1.7mであり、抽出した領域の縦横比(横/縦)が約0.30(=60cm/2.0m)である場合には移動体を人物と識別する。
And the
なお、図6(a)に示す人の画像処理装置1からの距離Dは、上述の実施の形態1に示したように予め記憶部11に記憶してある情報から求める。具体的には、制御部10は人に相当する領域として抽出された領域の下端の画像データにおける垂直方向の位置Yに対応付けて記憶してある実空間における画像処理装置1からの距離を求める。
It should be noted that the distance D of the person from the
ただし、画像データにおける垂直方向の位置Yと、第1及び第2撮像装置3,4を備える画像処理装置1からの距離Dとの関係は、図6(a)及び図6(b)に示した画角θv 、画像データの垂直方向の画素数Hc に加え、第1及び第2撮像装置3,4を備える画像処理装置1が設置される高さh、俯角φc を含む以下の式4に示す関係式により成立する。
However, the relationship between the vertical position Y in the image data and the distance D from the
式4を記憶部11に記憶しておくことにより、制御部10は移動体領域(外接矩形)を特定した場合、領域の下端の画像データ中における垂直方向の座標Yを特定し、式4に基づいて実空間における、画像処理装置1から移動体までの距離Dを算出してもよい。
By storing
なお、実施の形態1では式4に基づいて予め算出しておいた座標Yと、距離Dとの対応を記憶部11に記憶しておき、特定される座標Yに対応する距離Dを記憶部11から読み出すことによって実空間における所定位置からの距離を求めた。これにより、演算によらずに簡易に実空間における移動体の位置(第1及び第2撮像装置3,4からの距離)を特定することができる。したがって、自動車へ移動体の情報として交差点内での実空間での位置情報を送信することができ、安全運転支援のために高精度な走行制御を実現することを可能とする。
In the first embodiment, the correspondence between the coordinate Y calculated in advance based on
(実施の形態2)
図7は、実施の形態2における安全運転支援システムが設置されている自動車の例を模式的に示す模式図である。図7中の3は、遠赤外線波長帯にて撮像を行なう第1撮像装置3である。図7中の4は、可視光波長帯又は近赤外線波長帯にて撮像を行なう第2撮像装置4である。図7中の5は、遠赤外線波長帯にて撮像を行なう第3撮像装置である。そして、図7中の6は、画像処理装置であって、車載LAN7を介して自動車の走行制御の処理を行なう走行制御装置8に接続されている。また、第1乃至第3撮像装置3,4,5は、信号線9を介して画像処理装置6に接続されている。
(Embodiment 2)
FIG. 7 is a schematic diagram schematically showing an example of an automobile in which the safe driving support system according to the second embodiment is installed.
第1及び第2撮像装置3,4は自動車の先頭部の左側に前方へ向けて並設されている。第3撮像装置5は、自動車の先頭部の右側に前方へ向けて設置されている。第1及び第2撮像装置3,4は、実施の形態1同様に略同一範囲を撮像範囲とするように設置されている。第3撮像装置5も第1撮像装置3の撮像素子と同じ画素数の遠赤外線撮像素子を備え、第1及び第2撮像装置3,4と同一画角での撮像が可能なように設置方向を調整してある。そして第1乃至第3撮像装置3,4,5はいずれも、通信線9を介して画像処理装置6へ画像信号を出力することが可能に構成されている。
The first and
画像処理装置6は、第1乃至第3撮像装置3,4,5から出力される画像信号から画像データを取得し、取得した画像データに基づいて移動体を検出した場合、検出した事実と、検出した移動体の情報とを走行制御装置8へ車載LAN7を介して送信する。送信する移動体の情報は、移動体の種類及び自動車から移動体までの距離である。走行制御装置8は、移動体の種類及び移動体までの距離に基づき、自動的にブレーキングを行なうべく指示する、又は車内外の緩衝装置を起動させる等の制御を行なうことが可能である。
When the
図8は、実施の形態2における安全運転支援システムを構成する第1乃至第3撮像装置3,4,5及び画像処理装置6の内部構成を示すブロック図である。第1乃至第3撮像装置3,4,5の構成の詳細は、実施の形態1と同様であるので説明を省略する。
FIG. 8 is a block diagram showing the internal configuration of the first to
画像処理装置6は、制御部60と、記憶部61と、画像メモリ62と、第1画像取得部63及び第2画像取得部64とを備え、更に、車載LAN7を介した走行制御装置への情報の送信を実現する通信部65と、第3撮像装置5からの画像信号を受け付ける第3画像取得部66とを備える。制御部60、記憶部61、画像メモリ62、並びに第1及び第2画像取得部63,64の詳細は、実施の形態1における画像処理装置1の制御部10、記憶部11、画像メモリ12、並びに第1及び第2画像取得部13,14と同様であるので詳細な説明を省略する。
The
通信部65は、CAN(Controller Area Network)、LIN(Local Interconnect Network)、FlexRay(登録商標)等の車載LANの規格に基づき情報を送受信する。制御部60は、通信部65により移動体の情報を走行制御装置へ送信する。
The
第3画像取得部66は、受け付けた画像信号から画像データを取り出し、画像メモリ62に記憶する。詳細には、第3画像取得部66は第1及び第2画像取得部63,64同様に、制御部60からの指示に従い、受け付けている画像信号から画像を構成する画素毎の輝度値又は色差等を特定して画像データとし、画像メモリ62へ書き込む。
The third
上述のように構成される実施の形態2における画像処理装置6は、第1及び第2撮像装置3,4から取得する画像データに対し、実施の形態1で示した画像処理手順と同様の処理を行なう。即ち、第1及び第2画像取得部63,64により画像データを同時的に取得して夫々差分データを求め、差分データを合成することによって移動体領域を特定する。ただし、自動車に搭載される第1及び第2撮像装置3,4では、背景は走行中に随時変化するので背景差分ではなくフレーム差分を求めるようにすることが望ましい。
The
実施の形態2における画像処理装置6の制御部60は、第1及び第2撮像装置3,4から取得した画像データに基づき上述の処理で特定した移動体領域から、移動体の種類をテンプレートマッチングの方式を用いて識別してもよい。
The
ただし、実施の形態2における画像処理装置6の制御部60は、第1及び第2撮像装置3,4と離れて設置された第3撮像装置5から取得される画像データを用い、自動車の車体の先頭部から移動体までの距離を以下に説明する処理により算出する。
However, the
第3撮像装置5は、第1及び第2撮像装置3,4と同一画角となるように設置されているから、第1及び第2撮像装置3,4で撮像される移動体を、第3撮像装置5でも撮像可能である。設置方向が異なるので、同一の移動体を撮像した撮像画像であっても、第3撮像装置5から得られる画像データにおける移動体領域の位置は、第1及び第2撮像装置3,4から得られる画像データにおける移動体領域の位置と異なる。移動体からの光の入射角度が異なるからである。
Since the
制御部60は、第1及び第2撮像装置3,4から出力される画像信号に基づく画像データを同時的に取得すると共に、更に同時的に第3撮像装置5から出力される画像信号に基づく画像データを取得する。制御部60は、第3撮像装置5から取得した画像データに対してフレーム差分を求め、移動体領域の候補を抽出する。制御部60は、第1及び第2撮像装置3,4から取得した画像データからフレーム差分を取って抽出した移動体領域の候補との形状又は位置等に基づく類似度により、第1及び第2撮像装置3,4から取得した画像データから特定される移動体領域と、第3撮像装置5から取得した画像データから抽出した移動体領域の候補を対応付ける。即ち、制御部60は同一の移動体に対応する特定される移動体領域と、移動体領域の候補とを対応付ける。制御部60は、特定される移動体領域と、該移動体領域に対応付けられた候補との間の同一画角内での位置の差異を求める。位置の差異は例えば移動体領域の右上に位置する座標等の特定の座標の位置の差異により求める。位置の差異は入射角の差異であるから、当該入射角の差異、並びに第1及び第2撮像装置3,4と第3撮像装置5との距離に基づき移動体までの距離を求めることが可能である。
The
このように、遠赤外線波長帯にて撮像する第1撮像装置3、可視光波長帯又は近赤外線波長帯にて撮像する第2撮像装置4、遠赤外線(可視光又は近赤外線)波長帯にて撮像する第3撮像装置5、及び画像処理装置6を自動車に搭載する構成によって、自動車内で前方の移動体の種類を識別した上で精度よく移動体を検出することができる。更に、距離を離して第3撮像装置5を設置し、第3撮像装置5から取得できる画像データを利用し、移動体までの距離を算出し、移動体の種類及び移動体までの距離に応じた走行制御が可能となる。
As described above, in the
なお、実施の形態2では、第3撮像装置5を遠赤外線波長帯にて撮像を行なう遠赤外線カメラとした。しかしながら、第3撮像装置5は可視光波長帯又は近赤外線波長帯にて撮像を行なうカメラであってもよい。
In the second embodiment, the
実施の形態1においても実施の形態2における構成同様に、異なる角度からの撮像を行なう第3撮像装置を別途備え、ステレオ視によって実空間における距離を算出するようにしてもよい。 In the first embodiment, similarly to the configuration in the second embodiment, a third imaging device that performs imaging from different angles may be separately provided, and the distance in the real space may be calculated by stereo vision.
上述の実施の形態1及び2では、第1及び第2画像取得部又は第3画像取得部による画像の取得、並びに画像処理を制御部が行なう構成とした。しかしながら本発明はこれに限らず、第1乃至第3画像取得部による画像の取得処理及び画像処理を、画像処理部分を分離した集積回路によって実現するように構成してもよい。 In the first and second embodiments described above, the control unit performs image acquisition and image processing by the first and second image acquisition units or the third image acquisition unit. However, the present invention is not limited to this, and the image acquisition processing and image processing by the first to third image acquisition units may be realized by an integrated circuit in which the image processing portions are separated.
実施の形態1及び2は、安全運転支援システムに適用した場合を示した。しかしながら、本発明に係る画像処理装置による移動体の検出は安全運転支援システムに限らず、他の分野にも適用可能である。例えば、防犯システム又は監視システム等、撮像画像に基づき移動体を検出する場合に、移動体を精度よく検知して移動体の種類を識別することが可能である。 Embodiments 1 and 2 show the case where the present invention is applied to a safe driving support system. However, the detection of the moving object by the image processing apparatus according to the present invention is not limited to the safe driving support system, and can be applied to other fields. For example, when detecting a moving body based on a captured image, such as a security system or a monitoring system, it is possible to accurately detect the moving body and identify the type of the moving body.
なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be understood that the embodiment disclosed above is illustrative in all respects and is not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1,6 画像処理装置
10,60 制御部
11,61 記憶部
3 第1撮像装置
4 第2撮像装置
5 第3撮像装置
DESCRIPTION OF
Claims (7)
遠赤外線波長帯にて撮像する第1撮像手段と、
該第1撮像手段の撮像範囲を可視光波長帯又は近赤外線波長帯にて撮像する第2撮像手段と、
前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出する抽出手段と、
該抽出手段が抽出した夫々の候補の重複部分を、移動体領域と特定する特定手段と、
該特定手段が特定した移動体領域の特徴量に基づき移動体を検出する手段と
を備えることを特徴とする画像処理装置。 In an image processing apparatus that performs image processing for detecting a moving object based on a captured image,
First imaging means for imaging in the far-infrared wavelength band;
Second imaging means for imaging an imaging range of the first imaging means in a visible light wavelength band or a near infrared wavelength band;
Extraction means for extracting candidates for a moving body region in which a moving body is shown, respectively, from captured images simultaneously captured by the first and second imaging means;
A specifying means for specifying an overlapping portion of each candidate extracted by the extracting means as a moving object region;
An image processing apparatus comprising: means for detecting a moving object based on a feature amount of the moving object region specified by the specifying means.
撮像画像中における複数の異なる位置に対応付けて、各位置に物体が写る領域がある場合の前記背景面上の所定位置から前記物体までの実空間における距離を記憶しておく第1の記憶手段と、
前記特定手段が特定した移動体領域の撮像画像中における位置を求める手段と、
求めた位置に対応付けてある距離に基づき、前記所定位置から移動体までの実空間における距離を特定する距離特定手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 The first and second imaging means are configured to image a range including a substantially flat background surface;
First storage means for storing a distance in real space from a predetermined position on the background surface to the object when there is a region where the object is captured at each position in association with a plurality of different positions in the captured image When,
Means for obtaining a position in the captured image of the moving body region identified by the identifying means;
The image processing apparatus according to claim 1, further comprising: a distance specifying unit that specifies a distance in real space from the predetermined position to the moving body based on a distance associated with the obtained position.
前記距離特定手段が特定した移動体までの距離、及び前記特定手段が特定した移動体領域の縦横の大きさに基づき、移動体の種類を識別する識別手段と
を更に備えることを特徴とする請求項2に記載の画像処理装置。 Second storage means for storing a correspondence relationship between the type of the moving body, the distance from the predetermined position, and the vertical and horizontal sizes of the area that the moving body area should occupy in the captured image;
An identification means for identifying the type of the moving body based on the distance to the moving body specified by the distance specifying means and the vertical and horizontal sizes of the moving body area specified by the specifying means. Item 3. The image processing apparatus according to Item 2.
前記1の記憶手段は、前記第1及び第2撮像手段の路面からの高さ及び俯角に基づき、撮像画像中における物体の領域の位置と、実空間における交差点中の所定位置から前記物体までの距離とが対応付けて記憶するようにしてあり、
前記第2の記憶手段は、距離に対応付けて移動体領域が撮像画像中で占めるべき縦横の大きさを記憶するようにしてあり、更に、
前記識別手段は、前記第1及び第2の記憶手段により記憶してある位置と距離との対応付け、及び縦横の大きさに基づき、移動体の種類を識別するようにしてあること
を特徴とする請求項3に記載の画像処理装置。 The first and second imaging means are installed so as to overlook the intersection,
The first storage means is based on the height and depression angle from the road surface of the first and second imaging means, and the position of the object region in the captured image and the predetermined position at the intersection in real space to the object. The distance is stored in association with it,
The second storage means is configured to store the vertical and horizontal sizes that the moving body region should occupy in the captured image in association with the distance.
The identification means is characterized in that the type of the moving body is identified based on the correspondence between the position and distance stored in the first and second storage means and the vertical and horizontal sizes. The image processing apparatus according to claim 3.
前記第1及び第2撮像手段と同時的に、前記第3撮像手段が撮像した撮像画像から移動体領域の候補を抽出する抽出手段と、
前記特定手段が特定した移動体領域、及び前記抽出手段が第3撮像手段の撮像画像から抽出した候補を対応付ける手段と、
対応付けた移動体領域及び候補の夫々の撮像画像中における位置を特定する手段と、
夫々で特定された位置間の差異に基づき、前記第1乃至第3撮像手段のいずれかから移動体までの実空間における距離を算出する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 A third imaging unit installed so as to capture an imaging range of the first and second imaging units from an angle different from that of the first and second imaging units;
Extraction means for extracting a candidate for a moving body region from a captured image captured by the third imaging means simultaneously with the first and second imaging means;
Means for associating the moving body region specified by the specifying means with the candidates extracted from the captured image of the third imaging means by the extracting means;
Means for specifying the position in the captured image of each of the associated moving body region and candidates;
2. The apparatus according to claim 1, further comprising: a unit that calculates a distance in real space from any one of the first to third imaging units to the moving body based on a difference between positions specified by each of the first to third imaging units. Image processing device.
を特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the first to third imaging units are attached to a vehicle and calculate a distance from the vehicle to the moving body.
前記第1及び第2撮像手段が同時的に撮像した撮像画像から夫々、移動体が写っている移動体領域の候補を抽出し、
抽出した夫々の候補の重複部分を移動体領域として特定し、
特定した移動体領域の特徴量に基づき移動体を検出する
ことを特徴とする画像処理方法。 The first imaging unit that captures an image in the far-infrared wavelength band, and the moving body from the captured image captured by the second imaging unit that captures the imaging range of the first imaging unit in the visible light wavelength band or the near-infrared wavelength band. An image processing method for detecting,
Extracting moving body region candidates in which the moving body is shown from the captured images simultaneously captured by the first and second imaging means,
Identify each extracted candidate overlap as a mobile region,
An image processing method, comprising: detecting a moving object based on a feature amount of a specified moving object region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008158190A JP2009301494A (en) | 2008-06-17 | 2008-06-17 | Image processing unit and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008158190A JP2009301494A (en) | 2008-06-17 | 2008-06-17 | Image processing unit and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009301494A true JP2009301494A (en) | 2009-12-24 |
Family
ID=41548295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008158190A Pending JP2009301494A (en) | 2008-06-17 | 2008-06-17 | Image processing unit and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009301494A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012216125A (en) * | 2011-04-01 | 2012-11-08 | Nec Corp | Object detection method, object detection device, and object detection program |
KR20130118116A (en) * | 2012-04-19 | 2013-10-29 | 현대모비스 주식회사 | Apparatus and method avoiding collision with moving obstacles in automatic parking assistance system |
CN103377554A (en) * | 2012-04-27 | 2013-10-30 | 卢颖 | Induction type pedestrian crossing controlling facility optimization design based on kinect |
WO2015001677A1 (en) * | 2013-07-05 | 2015-01-08 | ルネサスエレクトロニクス株式会社 | Safety assistance system and safety assistance device |
US9189863B2 (en) | 2012-06-25 | 2015-11-17 | Postech Academy-Industry Foundation | Method and system for detecting motion capable of removing shadow by heat |
WO2016035924A1 (en) * | 2014-09-04 | 2016-03-10 | 주식회사 에스원 | Running sensing method and system |
KR101601475B1 (en) | 2014-08-25 | 2016-03-21 | 현대자동차주식회사 | Pedestrian detection device and method for driving vehicle at night |
JP2016095259A (en) * | 2014-11-17 | 2016-05-26 | 横河電機株式会社 | Plankton measurement system and plankton measurement method |
JP2016119614A (en) * | 2014-12-22 | 2016-06-30 | 日本電気株式会社 | Dynamic body detection device, dynamic body detection method and dynamic body detection program |
US9781359B2 (en) | 2014-11-17 | 2017-10-03 | Hyundai Motor Company | Apparatus and method for processing image |
US10157329B2 (en) | 2015-03-11 | 2018-12-18 | Kabushiki Kaisha Toshiba | Moving body detecting device and image processing system |
JP2018207497A (en) * | 2018-07-19 | 2018-12-27 | キヤノン株式会社 | Image processing apparatus and image processing method, imaging apparatus, program, and storage medium |
WO2021002083A1 (en) * | 2019-07-03 | 2021-01-07 | Hitachi Automotive Systems, Ltd. | Object recognition by far infrared camera |
CN113544923A (en) * | 2019-03-07 | 2021-10-22 | Abb瑞士股份有限公司 | Device for monitoring a switchgear |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11353581A (en) * | 1998-06-09 | 1999-12-24 | Anritsu Corp | Method and device for discriminating vehicle kind in the daytime |
JP2000318513A (en) * | 1999-05-17 | 2000-11-21 | Mitsubishi Electric Corp | Obstacle detection device for vehicle |
JP2001357388A (en) * | 2000-06-12 | 2001-12-26 | Oki Electric Ind Co Ltd | Device for monitoring road |
JP2004312402A (en) * | 2003-04-08 | 2004-11-04 | Hitachi Ltd | System and apparatus for road monitoring |
JP2007072665A (en) * | 2005-09-06 | 2007-03-22 | Fujitsu Ten Ltd | Object discrimination device, object discrimination method and object discrimination program |
JP2007278869A (en) * | 2006-04-07 | 2007-10-25 | Honda Motor Co Ltd | Range finder, periphery monitor for vehicle, range finding method, and program for range finding |
JP2008059609A (en) * | 2007-10-30 | 2008-03-13 | Sumitomo Electric Ind Ltd | Apparatus, system and method for displaying approaching moving body |
-
2008
- 2008-06-17 JP JP2008158190A patent/JP2009301494A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11353581A (en) * | 1998-06-09 | 1999-12-24 | Anritsu Corp | Method and device for discriminating vehicle kind in the daytime |
JP2000318513A (en) * | 1999-05-17 | 2000-11-21 | Mitsubishi Electric Corp | Obstacle detection device for vehicle |
JP2001357388A (en) * | 2000-06-12 | 2001-12-26 | Oki Electric Ind Co Ltd | Device for monitoring road |
JP2004312402A (en) * | 2003-04-08 | 2004-11-04 | Hitachi Ltd | System and apparatus for road monitoring |
JP2007072665A (en) * | 2005-09-06 | 2007-03-22 | Fujitsu Ten Ltd | Object discrimination device, object discrimination method and object discrimination program |
JP2007278869A (en) * | 2006-04-07 | 2007-10-25 | Honda Motor Co Ltd | Range finder, periphery monitor for vehicle, range finding method, and program for range finding |
JP2008059609A (en) * | 2007-10-30 | 2008-03-13 | Sumitomo Electric Ind Ltd | Apparatus, system and method for displaying approaching moving body |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012216125A (en) * | 2011-04-01 | 2012-11-08 | Nec Corp | Object detection method, object detection device, and object detection program |
KR20130118116A (en) * | 2012-04-19 | 2013-10-29 | 현대모비스 주식회사 | Apparatus and method avoiding collision with moving obstacles in automatic parking assistance system |
CN103377554A (en) * | 2012-04-27 | 2013-10-30 | 卢颖 | Induction type pedestrian crossing controlling facility optimization design based on kinect |
US9189863B2 (en) | 2012-06-25 | 2015-11-17 | Postech Academy-Industry Foundation | Method and system for detecting motion capable of removing shadow by heat |
WO2015001677A1 (en) * | 2013-07-05 | 2015-01-08 | ルネサスエレクトロニクス株式会社 | Safety assistance system and safety assistance device |
KR101601475B1 (en) | 2014-08-25 | 2016-03-21 | 현대자동차주식회사 | Pedestrian detection device and method for driving vehicle at night |
US10150415B2 (en) | 2014-08-25 | 2018-12-11 | Hyundai Motor Company | Method and apparatus for detecting a pedestrian by a vehicle during night driving |
US10391937B2 (en) | 2014-08-25 | 2019-08-27 | Hyundai Motor Company | Method and apparatus for detecting a pedestrian by a vehicle during night driving |
US10205911B2 (en) | 2014-09-04 | 2019-02-12 | S-1 Corporation | Method and system for detecting running |
WO2016035924A1 (en) * | 2014-09-04 | 2016-03-10 | 주식회사 에스원 | Running sensing method and system |
JP2016095259A (en) * | 2014-11-17 | 2016-05-26 | 横河電機株式会社 | Plankton measurement system and plankton measurement method |
US9781359B2 (en) | 2014-11-17 | 2017-10-03 | Hyundai Motor Company | Apparatus and method for processing image |
JP2016119614A (en) * | 2014-12-22 | 2016-06-30 | 日本電気株式会社 | Dynamic body detection device, dynamic body detection method and dynamic body detection program |
US10157329B2 (en) | 2015-03-11 | 2018-12-18 | Kabushiki Kaisha Toshiba | Moving body detecting device and image processing system |
JP2018207497A (en) * | 2018-07-19 | 2018-12-27 | キヤノン株式会社 | Image processing apparatus and image processing method, imaging apparatus, program, and storage medium |
CN113544923A (en) * | 2019-03-07 | 2021-10-22 | Abb瑞士股份有限公司 | Device for monitoring a switchgear |
WO2021002083A1 (en) * | 2019-07-03 | 2021-01-07 | Hitachi Automotive Systems, Ltd. | Object recognition by far infrared camera |
US12002278B2 (en) | 2019-07-03 | 2024-06-04 | Hitachi Astemo, Ltd | Object recognition by far infrared camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009301494A (en) | Image processing unit and image processing method | |
KR102359806B1 (en) | Control of the host vehicle based on the detected parking vehicle characteristics | |
US11461595B2 (en) | Image processing apparatus and external environment recognition apparatus | |
JP5529910B2 (en) | Vehicle periphery monitoring device | |
JP5077088B2 (en) | Image processing apparatus and image processing method | |
US20220232182A1 (en) | Image recognition device, solid-state imaging device, and image recognition method | |
KR102117598B1 (en) | Driver assistance apparatus for vehicle and Vehicle | |
EP1553516A2 (en) | Pedestrian extracting apparatus | |
JP5365792B2 (en) | Vehicle position measuring device | |
JP6468568B2 (en) | Object recognition device, model information generation device, object recognition method, and object recognition program | |
EP3282392A1 (en) | Vision system and method for a motor vehicle | |
US20220390383A1 (en) | Imaging device, imaging system, and imaging method | |
JP5083164B2 (en) | Image processing apparatus and image processing method | |
CN113875217A (en) | Image recognition apparatus and image recognition method | |
US20240236519A1 (en) | Imaging device, electronic device, and light detecting method | |
CN114930804A (en) | Imaging device and vehicle control system | |
CN101408423B (en) | Method for detecting angle of image viewfinding device and vehicle collision alarming system thereof | |
JP2010020557A (en) | Image processor and image processing method | |
JP2021190848A (en) | Detector, detection system, and detection method | |
WO2019207927A1 (en) | Array antenna, solid-state imaging device and electronic apparatus | |
US20230098440A1 (en) | Imaging device, imaging system, and imaging method | |
JP2006317193A (en) | Image processing apparatus, imaging processing method and program for processing image | |
CN109076168B (en) | Control device, control method, and computer-readable medium | |
EP3227742B1 (en) | Object detection enhancement of reflection-based imaging unit | |
JP6582891B2 (en) | Empty vehicle frame identification system, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121031 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130312 |