JP2013187574A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2013187574A JP2013187574A JP2012048638A JP2012048638A JP2013187574A JP 2013187574 A JP2013187574 A JP 2013187574A JP 2012048638 A JP2012048638 A JP 2012048638A JP 2012048638 A JP2012048638 A JP 2012048638A JP 2013187574 A JP2013187574 A JP 2013187574A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- light receiving
- pixels
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 47
- 238000001514 detection method Methods 0.000 claims abstract description 144
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 238000004891 communication Methods 0.000 description 65
- 230000035945 sensitivity Effects 0.000 description 33
- 238000000034 method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 238000012937 correction Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 239000005357 flat glass Substances 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 206010034960 Photophobia Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明はカラーフィルタを介して受光する複数のカラー受光画素と、カラーフィルターを介さずに受光する複数の透明受光画素とを配置してなる撮像素子を有するカメラの撮像データを処理する画像処理装置に関する。 The present invention relates to an image processing apparatus for processing imaging data of a camera having an imaging element in which a plurality of color light receiving pixels that receive light through a color filter and a plurality of transparent light receiving pixels that receive light without passing through a color filter are arranged. About.
従来、カラーフィルタを介して受光する画素(カラー受光画素)と、カラーフィルタを介さずに受光する画素(透明受光画素)とを配置して構成される撮像素子を用いることにより、カラー画像の感度を改善する手法が提案されている(例えば、特許文献1を参照)。 Conventionally, the sensitivity of a color image is obtained by using an image sensor configured by arranging pixels that receive light through a color filter (color light receiving pixels) and pixels that receive light without passing through a color filter (transparent light receiving pixels). A method for improving the above has been proposed (see, for example, Patent Document 1).
また、例えば車両の前方等を撮像するカメラを車両に搭載し、その搭載したカメラの撮像画像を用いて、車両の周辺の状況を監視する装置が従来より知られている(例えば、特許文献2を参照) In addition, for example, a device that mounts a camera that captures the front of the vehicle or the like on the vehicle and monitors a situation around the vehicle using a captured image of the mounted camera is known (for example, Patent Document 2). See
ところで、例えば車両においては、他車あるいは道路脇の通信設備などから出力される通信信号や、車両の環境情報に関するセンシング信号等を、赤外領域等の所定の波長帯域の無線信号によって受信する場合がある。 By the way, for example, in a vehicle, a communication signal output from another vehicle or a roadside communication facility, a sensing signal related to environmental information of the vehicle, or the like is received by a wireless signal in a predetermined wavelength band such as an infrared region. There is.
このような場合には、通常、それらの信号を受信するための専用的な受信機が車両に搭載される。しかるに、このように専用的な受信機を車両に搭載すると、車両の軽量化やコスト低減の妨げとなるという不都合がある。 In such a case, a dedicated receiver for receiving these signals is usually mounted on the vehicle. However, when a dedicated receiver is mounted on a vehicle in this way, there is a disadvantage that the vehicle is reduced in weight and cost.
一方、本願発明者は、前記カラー受光画素と透明受光画素とを有するカメラでは、車両周辺の可視映像等の外界映像の画像を取得できるだけでなく、該カメラの撮像データ(各画素の出力データ)を利用することで、専用的な受信機を用いずとも、上記通信信号等の所定の波長域の信号を検出することが可能であることを知見した。 On the other hand, the inventor of the present application can not only acquire an image of an external image such as a visible image around the vehicle, but also the imaging data of the camera (output data of each pixel) in the camera having the color light receiving pixels and the transparent light receiving pixels. It has been found that by using the signal, it is possible to detect a signal in a predetermined wavelength region such as the communication signal without using a dedicated receiver.
本発明はかかる背景に鑑みてなされたものであり、カラー受光画素と透明受光画素とを配置して構成された撮像素子を有するカメラを用いて、外界の映像を示す画像を取得することと、所定の波長域の信号を検出することとを行なうことができる画像処理装置を提供することを目的とする。 The present invention has been made in view of such a background, using a camera having an image sensor configured by arranging color light-receiving pixels and transparent light-receiving pixels, obtaining an image showing an image of the outside world, An object of the present invention is to provide an image processing apparatus capable of detecting a signal in a predetermined wavelength range.
本発明の画像装置は、かかる目的を達成するために、カラーフィルタを介して受光する複数のカラー受光画素と、カラーフィルタを介さずに受光する複数の透明受光画素とを配置してなる撮像素子を有するカメラと、
該カメラにより撮像された原画像であって、各カラー受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数のカラー画素と各透明受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数の透明画素とを配置してなる原画像から、外界の映像を示すカラー又はモノトーンの外界画像を生成する外界画像生成手段と、
前記原画像の少なくとも一部の領域である検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、該検出対象領域での受光成分のうち、前記複数のカラー受光画素のそれぞれが検出可能な波長域の全体の波長域の端部寄りの所定の波長域又は当該全体の波長域から逸脱した所定の波長域の受光成分を強調した画像である信号検出用画像を生成する信号検出用画像生成手段と、
該信号検出用画像から前記所定の波長域に含まれる信号成分を検出する信号検出手段とを備えることを特徴とする(第1発明)。
In order to achieve the above object, an image device according to the present invention includes a plurality of color light receiving pixels that receive light via a color filter and a plurality of transparent light receiving pixels that receive light without passing through a color filter. A camera having
In the original image captured by the camera, a plurality of color pixels each assigned a gradation value corresponding to the light receiving level of each color light receiving pixel and a gradation value corresponding to the light receiving level of each transparent light receiving pixel are respectively An external image generating means for generating a color or monotone external image indicating an external image from an original image formed by arranging a plurality of assigned transparent pixels;
Based on the gradation value of the color pixel in the detection target area, which is at least a partial area of the original image, and the gradation value of the transparent pixel in the detection target area, the light receiving component in the detection target area Among them, an image in which each of the plurality of color light receiving pixels emphasizes a light receiving component in a predetermined wavelength region near the end of the entire wavelength region or a predetermined wavelength region that deviates from the entire wavelength region. Signal detection image generation means for generating a signal detection image,
Signal detecting means for detecting a signal component included in the predetermined wavelength region from the signal detection image is provided (first invention).
かかる第1発明によれば、前記外界画像生成手段によって、前記原画像から、外界の映像を示す外界画像が生成される。この外界画像により外界の状況を認識することが可能となる。この場合、外界画像は、カラー及びモノトーンのいずれの画像であってもよい。また、前記カメラの撮像素子が、透明受光画素を有するので、高感度な外界画像や、広ダイナミックレンジの外界画像を生成することもできる。 According to the first aspect of the invention, the external image generation unit generates an external image indicating an external image from the original image. It becomes possible to recognize the situation of the outside world from this outside world image. In this case, the external image may be a color image or a monotone image. In addition, since the image sensor of the camera has transparent light receiving pixels, it is possible to generate a highly sensitive external image or an external image with a wide dynamic range.
さらに、第1発明では、前記外界画像とは別に、前記信号検出用画像生成手段によって、前記原画像の少なくとも一部の領域(すなわち、原画像の全体の領域又は一部の領域)である検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、前記所定の波長域の受光成分を強調した画像である信号検出用画像が生成される。 Furthermore, in the first invention, separately from the external image, the signal detection image generating means detects at least a part of the original image (that is, a whole area or a part of the original image). Based on the gradation value of the color pixel in the target area and the gradation value of the transparent pixel in the detection target area, a signal detection image that is an image in which the light receiving component in the predetermined wavelength range is emphasized is generated. The
そして、前記信号検出手段によって、この信号検出用画像から前記所定の波長域に含まれる信号成分が検出される。 Then, the signal detection means detects a signal component included in the predetermined wavelength range from the signal detection image.
なお、前記所定の波長域の受光成分を強調した画像(信号検出用画像)というのは、より詳しくは、前記撮像素子の全体のうち、該検出対象領域に対応する箇所(該撮像素子の全体又はその一部の箇所)に含まれるカラー受光画素及び透明受光画素で受光される光(電磁波)のうち、前記所定の波長域の光(電磁波)に対する感度を他の波長域に比して相対的に高めた画像を意味する。 More specifically, the image (signal detection image) in which the light receiving component in the predetermined wavelength region is emphasized is a portion corresponding to the detection target region (the whole of the imaging device) in the whole of the imaging device. Among the light (electromagnetic waves) received by the color light-receiving pixels and the transparent light-receiving pixels included in the color light-receiving pixels or the transparent light-receiving pixels, the sensitivity to the light (electromagnetic waves) in the predetermined wavelength range is relative to other wavelength ranges. This means an enhanced image.
ここで、各カラー受光画素は、カラーフィルタを介して受光するものであるので、該カラー受光画素が検出可能な波長域は、該カラーフィルタを透過可能な波長域内に制限されたものとなる。 Here, since each color light receiving pixel receives light via a color filter, the wavelength range that can be detected by the color light receiving pixel is limited to a wavelength range that can be transmitted through the color filter.
これに対して、各透明受光画素は、カラーフィルタを介さずに受光するものであるので、該透明受光画素が検出可能な波長域は、各カラー受光画素が検出可能な波長域の全体の波長域を逸脱した波長域も含む。 On the other hand, since each transparent light receiving pixel receives light without passing through a color filter, the wavelength range that can be detected by the transparent light receiving pixel is the entire wavelength range that can be detected by each color light receiving pixel. It includes the wavelength range that deviates from the range.
なお、カラー受光画素又は透明受光画素が検出可能な波長域というのは、各画素の受光感度(該画素がカラーフィルタ又は透明のフィルタを介して受光する場合には、該フィルタを含めた受光感度)と受光波長との関係を示すスペクトル特性において、該受光感度が相対的に高感度となる波長域を意味する。 The wavelength range that can be detected by the color light receiving pixel or the transparent light receiving pixel means the light receiving sensitivity of each pixel (when the pixel receives light through a color filter or a transparent filter, the light receiving sensitivity including the filter). ) And a wavelength characteristic indicating a relationship between the received light wavelength and a wavelength range in which the received light sensitivity is relatively high.
また、各カラー受光画素が検出可能な波長域の全体の波長域は、前記撮像素子に含まれる複数のカラー受光画素のそれぞれが検出可能な波長域を合成した波長域を意味する。 The entire wavelength range that can be detected by each color light receiving pixel means a wavelength range obtained by combining the wavelength ranges that can be detected by each of the plurality of color light receiving pixels included in the image sensor.
そして、前記所定の波長域は、前記複数のカラー受光画素のそれぞれが検出可能な波長域の全体の波長域の端部寄りの所定の波長域又は当該全体の波長域から逸脱した所定の波長域であるので、該所定の波長域においては、各カラー受光画素が検出可能な波長域の中央付近の波長域に較べて、カラー受光画素の受光感度との差が大きなものとなる。 The predetermined wavelength range is a predetermined wavelength range close to an end of an entire wavelength range that can be detected by each of the plurality of color light receiving pixels or a predetermined wavelength range deviating from the entire wavelength range. Therefore, in the predetermined wavelength region, the difference from the light receiving sensitivity of the color light receiving pixels is larger than the wavelength region near the center of the wavelength region that can be detected by each color light receiving pixel.
従って、前記検出対象領域で、前記所定の波長域の光が受光された場合と、受光されない場合とを比較すると、該検出対象領域におけるカラー受光画素の受光レベル(ひいては前記ガラー画素の階調値)は、両方の場合で大きな差異を生じ難いものとなる一方、該検出対象領域における透明受光画素の受光レベル(ひいては前記透明画素の階調値)は、両方の場合で比較的顕著な差異を生じやすい。 Therefore, comparing the case where light in the predetermined wavelength region is received with the case where light is not received in the detection target region, the light reception level of the color light receiving pixel in the detection target region (and hence the gradation value of the galler pixel). ) Is less likely to cause a large difference in both cases, while the light receiving level of the transparent light receiving pixel in the detection target region (and thus the gradation value of the transparent pixel) is relatively different in both cases. Prone to occur.
このため、前記原画像の検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、前記所定の波長域の受光成分を強調した画像である信号検出用画像が生成することができることとなる。ひいては、この信号検出用画像から、前記所定の波長域に含まれる信号成分を検出することができることとなる。 Therefore, an image in which the light receiving component in the predetermined wavelength region is emphasized based on the gradation value of the color pixel in the detection target area of the original image and the gradation value of the transparent pixel in the detection target area. A certain signal detection image can be generated. As a result, a signal component included in the predetermined wavelength region can be detected from the signal detection image.
よって、本発明によれば、カラー受光画素と透明受光画素とを配置して構成された撮像素子を有するカメラを用いて、外界の映像を示す画像(前記外界画像)を取得することと、所定の波長域の信号を検出することとを行なうことができる。 Therefore, according to the present invention, using a camera having an image sensor configured by arranging color light-receiving pixels and transparent light-receiving pixels, an image showing the external image (the external image) is acquired, It is possible to detect a signal in the wavelength region.
上記第1発明では、前記所定の波長域は、例えば、赤外領域内の波長域である(第2発明)。カラーフィルタは、通常、近赤外領域等、赤外領域の一部の波長の光を透過し難いので、該赤外領域の一部の波長域に対するカラー受光画素の受光感度は低い。 In the first invention, the predetermined wavelength region is, for example, a wavelength region in the infrared region (second invention). Since the color filter generally does not easily transmit light having a part of the wavelength in the infrared region, such as the near infrared region, the light receiving sensitivity of the color light receiving pixels in the part of the wavelength region of the infrared region is low.
これに対して、透明受光画素は、通常、該赤外領域の波長域に対する受光感度は、カラー受光画素の受光感度に比して十分に高い。 On the other hand, the light receiving sensitivity of the transparent light receiving pixel is usually sufficiently higher than the light receiving sensitivity of the color light receiving pixel.
従って、前記所定の波長域として、カラーフィルタの有無で受光感度が異なる赤外領域内の波長域を採用することで、該赤外領域内の波長域の信号成分を適切に検出することができることとなる。 Therefore, by adopting a wavelength region in the infrared region where the light receiving sensitivity is different depending on the presence or absence of a color filter, the signal component in the wavelength region in the infrared region can be appropriately detected as the predetermined wavelength region. It becomes.
また、赤外領域内の波長域は、通信や、センシング(例えば雨滴検知や、赤外線画像の検知等)等に広く活用し得る波長域である。このため、第2発明によれば、前記外界画像を取得することと併せて、外部との通信や、センシングなどを行なうことができる。 The wavelength region in the infrared region is a wavelength region that can be widely used for communication, sensing (for example, raindrop detection, infrared image detection, etc.), and the like. For this reason, according to the second aspect of the invention, it is possible to perform communication with the outside, sensing, and the like in addition to acquiring the outside world image.
上記第1発明又は第2発明では、前記信号検出用画像生成手段は、例えば次のような手法によって、前記信号検出用画像を生成することができる。 In the first invention or the second invention, the signal detection image generation means can generate the signal detection image by the following method, for example.
すなわち、前記信号検出用画像生成手段は、前記検出対象領域における各画素の階調値を、少なくとも前記該検出対象領域に含まれる複数の前記透明画素の階調値に応じて設定してなる第1参照画像を生成する第1参照画像生成手段と、前記検出対象領域における各画素の階調値を、少なくとも前記該検出対象領域に含まれる複数の前記カラー画素の階調値に応じて設定してなる第2参照画像を生成する第2参照画像生成手段とを備え、該第1参照画像と第2参照画像との階調値の差の画像を前記信号検出用画像として生成する(第3発明)。 That is, the signal detection image generation means sets the gradation value of each pixel in the detection target area according to at least the gradation values of the plurality of transparent pixels included in the detection target area. First reference image generation means for generating one reference image, and gradation values of each pixel in the detection target area are set according to at least gradation values of the plurality of color pixels included in the detection target area. Second reference image generation means for generating the second reference image, and generates an image of a difference in gradation value between the first reference image and the second reference image as the signal detection image (third invention).
この第3発明によれば、前記各カラー受光画素が検出可能な波長域の全体の波長域に関して、前記カメラの撮像素子に入射される外界の映像(当該全体の波長域に属する波長の映像)によらずに、第1参照画像と第2参照画像との階調値の一致度合いができるだけ高くなるように、該第1参照画像と第2参照画像とを生成することができる。このため、第1参照画像と第2参照画像との階調値の差の画像(詳しくは各画素の階調値として、第1参照画像と第2参照画像との階調値の差を割り当てた画像)は、前記所定の波長域の受光強度に対する依存性の高いものとなる。従って、当該差の画像を、所定の波長域の受光成分を強調した前記信号検出用画像として得ることができる。 According to the third aspect of the invention, with respect to the entire wavelength range that can be detected by each of the color light receiving pixels, an image of the outside world that is incident on the image sensor of the camera (an image having a wavelength that belongs to the entire wavelength range). Regardless, the first reference image and the second reference image can be generated so that the degree of coincidence of the gradation values of the first reference image and the second reference image is as high as possible. Therefore, an image of a difference in gradation value between the first reference image and the second reference image (specifically, a difference in gradation value between the first reference image and the second reference image is assigned as the gradation value of each pixel. The image) is highly dependent on the received light intensity in the predetermined wavelength range. Therefore, the difference image can be obtained as the signal detection image in which the light receiving component in the predetermined wavelength region is emphasized.
本発明の画像処理装置の一実施形態を、図1〜図12を参照して説明する。図1を参照して、本実施形態の画像処理装置は、車両1に搭載されたカメラ2と、カメラ2と接続された画像コントローラ3とにより構成されている。
An embodiment of an image processing apparatus of the present invention will be described with reference to FIGS. With reference to FIG. 1, the image processing apparatus of the present embodiment includes a
カメラ2は、フィルタ21が組み込まれた撮像素子22(CCD、CMOS等)により、車両1の周囲を撮像し、撮像データを画像コントローラ3の制御回路30に出力する。撮像素子22は、m×n個の複数の受光素子をm行n列の配列パターンで2次元状に配列して構成されている。
The
図2(a)を参照して、カメラ2のフィルタ21は、R(赤)、G(緑)、B(青)の3原色のカラーフィルタ、すなわち、R、G、Bの波長域の光(可視光)をそれぞれ透過可能な3種類のカラーフィルタにより構成される。これらの3原色のカラーフィルターのうちのいずれかの色のカラーフィルタが、撮像素子22のm×n個の受光画素のうちの、所定割合の個数の受光画素の受光経路側に装着されている。これにより、カラーフィルタが装着された各受光画素は、それぞれに対応する色のカラーフィルタを介して受光する。
Referring to FIG. 2A, the
なお、これらの受光画素(上記所定割合の個数の受光画素)に装着されたカラーフィルタの全体には、R、G、Bの全ての色のカラーフィルタが含まれる。従って、カラーフィルタが装着された受光画素の全体は、Rの色のカラーフィルタ(以降、Rフィルタという)が装着された受光画素(以降、R受光画素という)と、Gの色のカラーフィルタ(以降、Gフィルタという)が装着された受光画素(以降、G受光画素という)と、Bの色のカラーフィルタ(以降、Bフィルタという)が装着された受光画素(以降、B受光画素という)とから構成される。これらのR受光画素、G受光画素、B受光画素は、本発明におけるカラー受光画素に相当するものである。 Note that the entire color filters mounted on these light receiving pixels (the predetermined number of light receiving pixels) include color filters of all the colors R, G, and B. Accordingly, the entire light-receiving pixel to which the color filter is attached is divided into a light-receiving pixel (hereinafter referred to as an R light-receiving pixel) to which an R color filter (hereinafter referred to as an R filter) is attached, and a G color filter ( Hereinafter, a light receiving pixel (hereinafter referred to as G light receiving pixel) to which a G filter is attached, and a light receiving pixel (hereinafter referred to as B light receiving pixel) to which a B color filter (hereinafter referred to as B filter) is attached. Consists of These R light receiving pixel, G light receiving pixel, and B light receiving pixel correspond to the color light receiving pixels in the present invention.
また、m×n個の受光画素のうちの、残りの受光画素には、カラーフィルタが省略された(装着されていない)ものとなっている。このため、この受光画素のそれぞれは、カラーフィルタを介さずに受光する。以降、この受光画素をW受光画素という。該W受光画素は、本発明における透明受光画素に相当するものである。 Of the m × n light receiving pixels, the remaining light receiving pixels have a color filter omitted (not mounted). For this reason, each of the light receiving pixels receives light without passing through a color filter. Hereinafter, this light receiving pixel is referred to as a W light receiving pixel. The W light receiving pixel corresponds to the transparent light receiving pixel in the present invention.
カメラ2は、R受光画素(図中R11,R15,…で示している)、G受光画素(図中G12,G14,…で示している)、B受光画素(図中B13,B31,…で示している)、及びRx受光画素(図中Rx22,Rx24,…で示している)の出力信号を撮像データとして画像コントローラ3に出力する。各受光画素の出力信号は、該受光画素での所定時間あたりの受光レベルに応じた強度(大きさ)を有する信号である。
The
なお、各受光画素の受光レベルは、カメラ2の撮像素子22に入射した光のうち、その受光画素で受光した光の強度に相当する。
The light receiving level of each light receiving pixel corresponds to the intensity of the light received by the light receiving pixel among the light incident on the
なお、カラーフィルタとして、RGB以外の他の種類のカラーフィルタ(Cy(シアン)、Mg(マゼンタ)、Ye(イエロー)の補色系3原色のフィルタ等)を用いてもよい。 As the color filter, other types of color filters other than RGB (Cy (cyan), Mg (magenta), Ye (yellow) complementary primary color filters, etc.) may be used.
画像コントローラ3は、図示しないCPU、メモリ、入出力回路等により構成された制御回路30と、画像メモリ40と、CAN(Controller Area Network)ドライバ50とを有している。
The
制御回路30は、メモリに保持された画像処理用プログラムをCPUで実行することにより、原画像取得部31、外界画像生成部32、通信信号検出部33、対象物検知部35として機能する。なお、原画像取得部31、外界画像生成部32、通信信号検出部33、対象物検知部35の一部又は全部をハードウェアにより構成してもよい。
The
原画像取得部31は、カメラ2に制御信号を出力して車両1の周囲を撮像させ、カメラ2から出力される撮像データ(各受光画素の出力信号)により、原画像41のデータを取得して画像メモリ40に保持する。
The original
原画像41は、図2(b)に示したように、図2(a)に示した撮像素子22の各受光画素(R受光画素、G受光画素、B受光画素、W受光画素)の出力信号の強度を示す階調値を、対応する配置位置の画素(配置位置が同じ画素)の階調値として個別に割り当てたものになっている。図2(b)においては、各画素の階調値を、S(大文字)と、小文字r,g,b,wのいずれかと、添え字i,j(i=1,2…,m、j=1,2,…,n)との組により構成される変数により示している。
As shown in FIG. 2B, the
ここで、Srijは図2(a)のR受光画素に対応した配置位置の画素(以下、R画素という)の階調値を示し、Sgijは図2(a)のG受光画素に対応した配置位置の画素(以下、G画素という)の階調値を示し、Sbijは図2(a)のB受光画素に対応した配置位置の画素(以下、B画素という)の階調値を示し、Swijは図2(a)のW受光画素に対応した配置位置の画素(以下、W画素という)の階調値であることを示している。 Here, Srij represents a gradation value of a pixel at an arrangement position corresponding to the R light receiving pixel in FIG. 2A (hereinafter referred to as R pixel), and Sgij represents an arrangement corresponding to the G light receiving pixel in FIG. 2 indicates the gradation value of the pixel at the position (hereinafter referred to as G pixel), Sbij indicates the gradation value of the pixel at the arrangement position (hereinafter referred to as B pixel) corresponding to the B light receiving pixel in FIG. Indicates a gradation value of a pixel (hereinafter referred to as a W pixel) at an arrangement position corresponding to the W light receiving pixel in FIG.
なお、W画素は、本発明における透明画素に相当し、R画素、G画素及びB画素は、本発明におけるカラー画素に相当する。 The W pixel corresponds to the transparent pixel in the present invention, and the R pixel, G pixel, and B pixel correspond to the color pixel in the present invention.
外界画像生成部32は、本発明の外界画像生成手段に相当する機能部である。この外界画像生成部32は、R受光画素、G受光画素、B受光画素、W受光画素のそれぞれに対応する4種類の色別画像42と、カラー画像43と、広ダイナミックレンジ画像44とを外界画像として生成し、それらの画像を画像メモリ40に保持する。
The external
通信信号検出部33は、本発明の通信信号検出手段に相当する機能部である。この通信信号検出部33は、本実施形態では、車両1の外部の他車両から出力される車車間通信用の通信信号、あるいはビーコン等の道路脇の通信設備から出力される通信信号を検出する。これらの通信信号は、例えば近赤外領域の波長域の通信信号(ON・OFFのパルス列からなる信号)である。
The
この場合、通信信号検出部33は、本発明における信号検出用画像生成手段に相当する信号検出用画像生成部34としての機能を含んでおり、この信号検出用画像生成部34で後述する如く生成した信号検出用画像45を画像メモリ40に保持する。そして、通信信号検出部33は、信号検出用画像45から、通信信号を検出する。
In this case, the communication
なお、通信信号検出部33の信号検出用画像生成部34は、本発明における第1参照画像生成手段、第2参照画像生成手段としての機能を含んでいる。
The signal detection
対象物検知部35は、色別画像42、カラー画像43、及び広ダイナミックレンジ画像44を用いて、車両1が走行中の道路に敷設されたレーンマーク、他車両、信号機、歩行者等を検知し、検知結果に応じて車両コントローラ6に対して各種の制御信号を送信する。
The
車両コントローラ6は、図示しないCPU、メモリ、入出力回路等により構成された電子回路ユニットである。そして、車両コントローラ6は、メモリに保持された車両1の制御用プログラムをCPUで実行することによって、操舵装置71の作動を制御する操舵制御部61、制動装置72の作動を制御する制動制御部62、及びディスプレイ73の表示を制御するディスプレイ表示制御部63として機能する。
The
なお、画像コントローラ3と車両コントローラ6とは、CANドライバ50,64を介して相互に通信を行う。
The
次に、外界画像生成部32の処理(原画像取得部31の処理を含む)を図3〜図9を参照して詳細に説明する。外界画像生成部32は、原画像取得部31の処理を含めて図3のフローチャートに示す処理を実行することで、外界画像としての色別画像42、カラー画像43、広ダイナミックレンジ画像44を生成する。
Next, processing of the external image generation unit 32 (including processing of the original image acquisition unit 31) will be described in detail with reference to FIGS. The external world
図3のSTEP1は原画像取得部31による処理である。原画像取得部31は、カメラ2から出力される撮像データにより、原画像41(図2(b)参照)を取得して画像メモリ40に保持する。
続くSTEP2において、外界画像生成部32は、原画像から4種類の色別画像42を生成して、それらの色別画像42を画像メモリ40に保持する。
In
上記4種類の色別画像42は、より詳しくは、R受光画素に対応する色(赤)の色別画像42であるR画像(以降、参照符号42rを付する)と、G受光画素に対応する色(緑)の色別画像42であるG画像(以降、参照符号42gを付する)と、B受光画素に対応する色(緑)の色別画像42であるB画像(以降、参照符号42bを付する)と、W受光画素に対応する色(グレー)の色別画像42であるW画像(以降、参照符号42wを付する)とから構成される。
More specifically, the four types of color-
R画像42rは、その各画素の階調値が、原画像41のうちの、少なくともR画素の階調値を基にデモザイキング処理により決定される赤色階調のモノトーン画像(赤色の輝度分布を示す画像)である。
The
また、G画像42gは、その各画素の階調値が、原画像41のうちの、少なくともG画素の階調値を基にデモザイキング処理により決定される緑色階調のモノトーン画像(緑色の輝度分布を示す画像)である。
The
また、B画像42bは、その各画素の階調値が、原画像41のうちの、少なくともB画素の階調値を基にデモザイキング処理により決定される青色階調のモノトーン画像(青色の輝度分布を示す画像)である。
Further, the
また、W画像42wは、その各画素の階調値が、原画像41のうちの、少なくともW画素の階調値を基にデモザイキング処理により決定されるグレー階調のモノトーン画像(グレーの輝度分布を示す画像)である。
Further, the
これらの4種類の色別画像42(42r,42g,42b,42w)は、本実施形態では、次のように生成される。 These four types of color-specific images 42 (42r, 42g, 42b, 42w) are generated as follows in this embodiment.
まず、R画像42r、G画像42r、B画像42b、W画像42wのうちの1つの色別画像42が、基準輝度分布画像として生成される。この基準輝度分布画像は、カメラ2の撮影対象の実際の輝度分布に対する適合度合が比較的高いものとなる輝度分布状態を有する画像を意味する。
First, one color-
本実施形態では、例えば、撮像素子22のうち、最も個数の多いG受光画素に対応するG画像42gが基準輝度分布画像として生成される。このG画像42gは、図4に示すように、各画素の階調値として、G値(G(緑)の輝度値)を割り当てた画像である。図4では、各画素の階調値(G値)をG'i,j(i=1,2…,m、j=1,2,…,n)で表している。
In the present embodiment, for example, the
基準輝度分布画像としてのG画像42gの各画素のG値G'i,jは、次のよう決定される。
The G value G′i, j of each pixel of the
G画像42gの画素のうち、原画像41のG画素(階調値がSgi,jである画素)に対応する配置位置の画素(配置位置が同じ画素)については、次式(1)で示す如く、対応する原画像41のG画素の階調値Sgi,jが、そのままG画像42gの当該画素のG値(G'i,j)として決定される。例えば、図2(b)に示す原画像41の(i,j)=(2,3)の配置位置の画素の階調値(Sg2,3)が、G画像42gの(i,j)=(2,3)の配置位置の画素のG値(G'2,3)として決定される。
Among the pixels of the
G'i,j=Sgi,j ……(1)
また、G画像42gの画素のうち、原画像41のG画素以外の画素(R画素又はB画素又はW画素)に対応する配置位置の画素については、その画素の周囲の配置位置のG画素の階調値を少なくとも用いて補完的に決定される。
G'i, j = Sgi, j (1)
In addition, among the pixels of the
具体的には、G画像42gの画素のうち、原画像41のR画素又はB画素に対応する配置位置の画素については、その画素の上下及び左右に隣接する4つのG画素の階調値Sgi+1,j、Sgi-1,j、Sgi,j+1、Sgi,j-1を基に、次式(2),(3)のIg、Jgの大小関係に応じて、式(4)又は(5)又は(6)によりG値(G'i,j)が決定される。
Specifically, among the pixels of the
Ig=|Sgi+1,j−Sgi-1,j| ……(2)
Jg=|Sgi,j+1−Sgi,j-1| ……(3)
Ig<Jgである場合
G'i,j=(Sgi+1,j+Sgi-1,j)/2 ……(4)
Ig>Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1)/2 ……(5)
Ig=Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1+Sgi+1,j+Sgi-1,j)/4 ……(6)
また、G画像42gの画素のうち、原画像41のW画素に対応する配置位置の画素については、その画素の上下及び左右に隣接する4つのG画素の階調値Sgi+1,j、Sgi-1,j、Sgi,j+1、Sgi,j-1と、対応するW画素の階調値Swi,jと、その上下及び左右に1画素の間隔をおいて存在する4つのW画素の階調値Swi+2,j、Swi-2,j、Swi,j+2、Swi,j-2とを基に、次式(7),(8)のIg、Jgの大小関係に応じて、式(9)又は(10)又は(11)によりG値(G'i,j)が決定される。
Ig = |
Jg = | Sgi, j + 1−Sgi, j-1 | (3)
When Ig <Jg G'i, j = (Sgi + 1, j + Sgi-1, j) / 2 (4)
When Ig> Jg G'i, j = (Sgi, j + 1 + Sgi, j-1) / 2 (5)
When Ig = Jg G'i, j = (Sgi, j + 1 + Sgi, j-1 + Sgi + 1, j + Sgi-1, j) / 4 (6)
Further, among the pixels of the
Ig=|Sgi+1,j−Sgi-1,j|+|2Srxi,j−Srxi+2,j−Srxi-2,j| ……(7)
Jg=|Sgi,j+1−Sgi,j-1|+|2Srxi,j−Srxi,j+2−Srxi,j-2| ……(8)
Ig<Jgである場合
G'i,j=(Sgi+1,j+Sgi-1,j)/2
+(2Srxi,j−Srxi+2,j−Srxi-2,j)/4 ……(9)
Ig>Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1)/2
+(2Srxi,j−Srxi,j+2−Srxi,j-2)/4 ……(10)
Ig=Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1+Sgi+1,j+Sgi-1,j)/4
+(4Srxi,j−Srxi+2,j−Srxi-2,j−Srxi,j+2−Srxi,j-2)/8
……(11)
以上の処理(デモザイキング処理)により、原画像41のG画素の階調値(G値)を用いて、G画像42gの各画素に、緑の階調値(輝度値)を示すG値が割り当てられる。これにより、基準輝度分布画像としてのG画像42g(緑色階調の輝度分布画像)が生成される。
Ig = |
Jg = | Sgi, j + 1−Sgi, j−1 | + | 2Srxi, j−Srxi, j + 2−Srxi, j−2 | (8)
When Ig <Jg G'i, j = (Sgi + 1, j + Sgi-1, j) / 2
+ (2Srxi, j-Srxi + 2, j-Srxi-2, j) / 4 (9)
When Ig> Jg G'i, j = (Sgi, j + 1 + Sgi, j-1) / 2
+ (2Srxi, j-Srxi, j + 2-Srxi, j-2) / 4 (10)
When Ig = Jg G'i, j = (Sgi, j + 1 + Sgi, j-1 + Sgi + 1, j + Sgi-1, j) / 4
+ (4Srxi, j-Srxi + 2, j-Srxi-2, j-Srxi, j + 2-Srxi, j-2) / 8
...... (11)
Through the above processing (demosaicing processing), using the gradation value (G value) of the G pixel of the
STEP2において、外界画像生成部32は、次に、基準輝度分布画像として生成したG画像42g以外の残りの3つの色別画像42r,42b,42wを生成する。この場合、本実施形態では、残りの3つの色別画像42r,42b,42wの生成は、以下に説明する如く、基準輝度分布画像の輝度分布を反映させて行なわれる。
In
まず、R画像42rは、図5に示すように、各画素の階調値として、R値(赤の輝度値)を割り当てた画像である。図5では、各画素の階調値(R値)をR'i,j(i=1,2…,m、j=1,2,…,n)で表している。このR画像42rの各画素のR値(R'i,j)は、次のよう決定される。
First, as shown in FIG. 5, the
すなわち、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素(配置位置が同じ画素)については、式(12)で示す如く、対応する原画像41のR画素の階調値Sri,jが、R画像42rの当該画素のR値(R'i,j)として決定される。
That is, among the pixels of the
R'i,j=Sri,j ……(12)
また、R画像42rの各画素のうち、原画像41のR画素以外の画素(G画素又はB画素又はW画素)に対応する配置位置の画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。
R'i, j = Sri, j (12)
In addition, among the pixels of the
具体的には、R画像42rの画素のうち、原画像41のB画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのR画素(原画像41中のR画素)の階調値Sri+2,j、Sri-2,j、Sri,j+2、Sri,j-2と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(G画像42g中の画素)のG値(輝度値)G'i+2,j、G'i-2,j、G'i,j+2、G'i,j-2とを基に、次式(13),(14)のIr、Jrの大小関係に応じて、式(15)又は(16)又は(17)によりR値(R'i,j)が決定される。
Specifically, among the pixels of the
Ir=|Sri+2,j−Sri-2,j|+|2G'i,j−G'i+2,j−G'i-2,j| ……(13)
Jr=|Sri,j+2−Sri,j-2|+|2G'i,j−G'i,j+2−G'i,j-2| ……(14)
Ir<Jrである場合
R'i,j=(Sri+2,j+Sri-2,j)/2
+(2G'i,j−G'i+2,j−G'i-2,j)/2 ……(15)
Ir>Jrである場合
R'i,j=(Sri,j+2+Sri,j-2)/2
+(2G'i,j−G'i,j+2−G'i,j-2)/2 ……(16)
Ir=Jrである場合
R'i,j=(Sri,j+2+Sri,j-2+Sri+2,j+Sri-2,j)/4
+(4G'i,j−G'i+2,j−G'i-2,j−G'i,j+2−G'i,j-2)/4
……(17)
また、R画像42rの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのR画素(原画像41中の画素)の階調値Sri+1,j又はSri-1,j又はSri,j+1又はSri,j-1と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下左右のいずれかに隣接する1つの画素(G画像42g中の画素)のG値(輝度値)G'i+1,j、G'i-1,j、G'i,j+1、G'i,j-1とを基に、次式(18)又は(19)又は(20)又は(21)によりR値(R'i,j)が決定される。
Ir = | Sri + 2, j−Sri−2, j | + | 2G′i, j−G′i + 2, j−G′i−2, j | (13)
Jr = | Sri, j + 2-Sri, j-2 | + | 2G'i, j-G'i, j + 2-G'i, j-2 | (14)
When Ir <Jr R'i, j = (Sri + 2, j + Sri-2, j) / 2
+ (2G'i, j-G'i + 2, j-G'i-2, j) / 2 (15)
When Ir> Jr R'i, j = (Sri, j + 2 + Sri, j-2) / 2
+ (2G′i, j−G′i, j + 2−G′i, j−2) / 2 (16)
When Ir = Jr R'i, j = (Sri, j + 2 + Sri, j-2 + Sri + 2, j + Sri-2, j) / 4
+ (4G'i, j-G'i + 2, j-G'i-2, j-G'i, j + 2-G'i, j-2) / 4
...... (17)
Further, among the pixels of the
下側にR画素が隣接する場合
R'i,j=Sri+1,j+(G'i,j−G'i+1,j) ……(18)
上側にR画素が隣接する場合
R'i,j=Sri-1,j+(G'i,j−G'i-1,j) ……(19)
右側にR画素が隣接する場合
R'i,j=Sri,j+1+(G'i,j−G'i,j+1) ……(20)
左側にR画素が隣接する場合
R'i,j=Sri,j-1+(G'i,j−G'i,j-1) ……(21)
また、R画像42rの画素のうち、原画像41のW画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのR画素(原画像41中の画素)の階調値(Sri-1,j+1,Sri+1,j-1)又は(Sri-1,j−1,Sri+1,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j+1,G'i+1,j-1)又は(G'i-1,j−1,G'i+1,j+1)とを基に、次式(22)又は(23)によりR値(R'i,j)が決定される。
When R pixel is adjacent to the lower side R′i, j = Sri + 1, j + (G′i, j−G′i + 1, j) (18)
When R pixel is adjacent on the upper side R′i, j = Sri−1, j + (G′i, j−G′i−1, j) (19)
When R pixel is adjacent to the right side R′i, j = Sri, j + 1 + (G′i, j−G′i, j + 1) (20)
When R pixel is adjacent to the left side R'i, j = Sri, j-1 + (G'i, j-G'i, j-1) (21)
Among the pixels of the
右斜め上及び左斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j-1+Sri-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(22)
左斜め上及び右斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j+1+Sri-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(23)
以上のようにして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素以外の各画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41における階調値)に応じて決定される基本値(式(15)〜(23)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(15)〜(23)のそれぞれの右辺の第2項)により補正することによって、決定される。
R'i, j = (Sri + 1, j-1 + Sri-1, j + 1) / 2 when R pixels are adjacent to the upper right and lower left
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (22)
R'i, j = (Sri + 1, j + 1 + Sri-1, j-1) / 2 when R pixel is adjacent to upper left and lower right
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (23)
As described above, among the pixels of the
そして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の各画素のR値(R'i,j)は、当該画素に対応する原画像41のR画素の階調値Sri,jに一致するように決定される。
The R value (R′i, j) of each pixel at the arrangement position corresponding to the R pixel of the
これによりR画像42rが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。
Thereby, the
次に、B画像42bは、図6に示すように、各画素の階調値として、B値(青の輝度値)を割り当てた画像である。図6では、各画素の階調値(B値)をB'i,j(i=1,2…,m、j=1,2,…,n)で表している。このB画像42bの各画素のB値(B'i,j)は、R画像42rの各画素のR値(R'i,j)と同様の仕方で決定される。
Next, as shown in FIG. 6, the
すなわち、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の画素(配置位置が同じ画素)については、式(24)で示す如く、対応する原画像41のB画素の階調値Sbi,jが、B画像42bの当該画素のB値(B'i,j)として決定される。
That is, among the pixels of the
B'i,j=Sbi,j ……(24)
また、B画像42bの各画素のうち、原画像41のB画素以外の画素(R画素又はG画素又はW画素)に対応する配置位置の画素のB値(B'i,j)は、当該画素の周囲のB画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。
B'i, j = Sbi, j (24)
In addition, among the pixels of the
具体的には、B画像42bの画素のうち、原画像41のR画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのB画素(原画像41中のB画素)の階調値Sbi+2,j、Sbi-2,j、Sbi,j+2、Sbi,j-2と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(G画像42g中の画素)のG値(輝度値)G'i+2,j、G'i-2,j、G'i,j+2、G'i,j-2とを基に、次式(25),(26)のIb、Jbの大小関係に応じて、式(27)又は(28)又は(29)によりB値(B'i,j)が決定される。
Specifically, among the pixels of the
Ib=|Sbi+2,j−Sbi-2,j|+|2G'i,j−G'i+2,j−G'i-2,j| ……(25)
Jb=|Sbi,j+2−Sbi,j-2|+|2G'i,j−G'i,j+2−G'i,j-2| ……(26)
Ib<Jbである場合
B'i,j=(Sbi+2,j+Sbi-2,j)/2
+(2G'i,j−G'i+2,j−G'i-2,j)/2 ……(27)
Ib>Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2)/2
+(2G'i,j−G'i,j+2−G'i,j-2)/2 ……(28)
Ib=Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2+Sbi+2,j+Sbi-2,j)/4
+(4G'i,j−G'i+2,j−G'i-2,j−G'i,j+2−G'i,j-2)/4
……(29)
また、B画像42bの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのB画素(原画像41中のB画素)の階調値Sbi+1,j又はSbi-1,j又はSbi,j+1又はSbi,j-1と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下左右のいずれかに隣接する1つの画素(G画像42g中の画素)のG値(輝度値)G'i+1,j、G'i-1,j、G'i,j+1、G'i,j-1とを基に、次式(30)又は(31)又は(32)又は(33)によりB値(B'i,j)が決定される。
Ib = |
Jb = | Sbi, j + 2-Sbi, j-2 | + | 2G'i, j-G'i, j + 2-G'i, j-2 | (26)
When Ib <Jb B'i, j = (Sbi + 2, j + Sbi-2, j) / 2
+ (2G'i, j-G'i + 2, j-G'i-2, j) / 2 (27)
When Ib> Jb B′i, j = (Sbi, j + 2 + Sbi, j−2) / 2
+ (2G'i, j-G'i, j + 2-G'i, j-2) / 2 (28)
When Ib = Jb B'i, j = (Sbi, j + 2 + Sbi, j-2 + Sbi + 2, j + Sbi-2, j) / 4
+ (4G'i, j-G'i + 2, j-G'i-2, j-G'i, j + 2-G'i, j-2) / 4
...... (29)
In addition, among the pixels of the
下側にB画素が隣接する場合
B'i,j=Sbi+1,j+(G'i,j−G'i+1,j) ……(30)
上側にB画素が隣接する場合
B'i,j=Sbi-1,j+(G'i,j−G'i-1,j) ……(31)
右側にB画素が隣接する場合
B'i,j=Sbi,j+1+(G'i,j−G'i,j+1) ……(32)
左側にR画素が隣接する場合
B'i,j=Sbi,j-1+(G'i,j−G'i,j-1) ……(33)
また、B画像42bの画素のうち、原画像41のW画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのB画素(原画像41中のB画素)の階調値(Sbi-1,j+1,Sbi+1,j-1)又は(Sbi-1,j−1,Sbi+1,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j+1,G'i+1,j-1)又は(G'i-1,j−1,G'i+1,j+1)とを基に、次式(34)又は(35)によりB値(B'i,j)が決定される。
When B pixel is adjacent to the lower side B′i, j =
When B pixel is adjacent on the upper side B′i, j = Sbi−1, j + (G′i, j−G′i−1, j) (31)
When B pixel is adjacent to the right side B′i, j = Sbi, j + 1 + (G′i, j−G′i, j + 1) (32)
When R pixel is adjacent to the left side B′i, j = Sbi, j−1 + (G′i, j−G′i, j−1) (33)
Among the pixels of the
右斜め上及び左斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j-1+Sbi-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(34)
左斜め上及び右斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j+1+Sbi-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(35)
以上のようにして、B画像42bの各画素うち、原画像41のB画素に対応する配置位置の画素以外の各画素のB値(B'i,j)は、当該画素の周囲のB画素の階調値(原画像41における階調値)に応じて決定される基本値(式(27)〜(35)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(27)〜(35)のそれぞれの右辺の第2項)により補正することによって、決定される。
When B pixels are adjacent to the upper right and lower left, B'i, j = (Sbi + 1, j-1 + Sbi-1, j + 1) / 2
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (34)
When B pixel is adjacent to upper left and lower right B'i, j = (Sbi + 1, j + 1 + Sbi-1, j-1) / 2
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (35)
As described above, among the pixels of the
そして、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の各画素のB値(B'i,j)は、当該画素に対応する原画像41のB画素の階調値Sbi,jに一致するように決定される。
Then, among the pixels of the
これによりB画像42bが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。
Thereby, the
次に、W画像42wは、図7に示すように、各画素の階調値として、W値(グレー階調の輝度値)を割り当てた画像である。図7では、各画素の階調値(W値)をW'i,j(i=1,2…,m、j=1,2,…,n)で表している。このW画像42wの各画素のW値(W'i,j)は、次のように決定される。
Next, as shown in FIG. 7, the
すなわち、W画像42wの各画素のうち、原画像41のW画素に対応する配置位置の画素(配置位置が同じ画素)については、式(36)で示す如く、対応する原画像41のW画素の階調値Swi,jが、W画像42wの当該画素のW値(W'i,j)として決定される。
That is, among the pixels of the
W'i,j=Swi,j ……(36)
また、W画像42wの各画素のうち、原画像41のW画素以外の画素(R画素又はG画素又はB画素)に対応する配置位置の画素のW値(W'i,j)は、当該画素の周囲のW画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。
W'i, j = Swi, j (36)
In addition, among the pixels of the
具体的には、W画像42wの画素のうち、原画像41のR画素又はB画素に対応する配置位置の画素については、その画素の右斜め上、右斜め下、左斜め上、左斜め下に隣接する4つのW画素(原画像中のW画素)の階調値Swi-1,j+1、Swi+1,j+1、Swi-1,j-1、Swi+1,j-1と、対応する画素(G画像中の画素)のG値G'i,jと、その右斜め上、右斜め下、左斜め上、左斜め下に隣接する4つの画素(G画像42g中の画素)のG値G'i-1,j+1、G'i+1,j+1、G'i-1,j-1、G'i+1,j-1とを基に、次式(37),(38)のIw、Jwの大小関係に応じて、式(39)又は(40)又は(41)によりW値(W'i,j)が決定される。
Specifically, among the pixels of the
Iw=|Swi+1,j+1−Swi-1,j-1|
+|2G'i,j−G'i+1,j+1−G'i-1,j-1| ……(37)
Jw=|Swi+1,j-1−Swi-1,j+1|
+|2G'i,j−G'i+1,j-1−G'i-1,j+1| ……(38)
Iw<Jwである場合
W'i,j=(Swi+1,j+1+Swi-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(39)
Iw>Jwである場合
W'i,j=(Swi+1,j-1+Swi-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(40)
Iw=Jwである場合
W'i,j=(Swi+1,j+1+Swi+1,j-1+Swi-1,j+1+Swi-1,j-1)/4
+(4G'i,j−G'i+1,j+1−G'i+1,j-1−G'i-1,j+1−G'i-1,j-1)/4
……(41)
また、W画像42wの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素に上下又は左右に隣接する2つのW画素(原画像41中の画素)の階調値(Swi-1,j、Swi+1,j)又は(Swi,j-1、Swi,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下又は左右に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j、G'i+1,j)又は(G'i,j-1、G'i,j+1)とを基に、次式(42)又は(43)によりW値(W'i,j)が決定される。
Iw = | Swi + 1, j + 1−Swi-1, j−1 |
+ | 2G'i, j-G'i + 1, j + 1-G'i-1, j-1 | (37)
Jw = | Swi + 1, j-1-Swi-1, j + 1 |
+ | 2G′i, j−G′i + 1, j−1−G′i−1, j + 1 | (38)
When Iw <Jw W′i, j = (Swi + 1, j + 1 + Swi-1, j−1) / 2
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (39)
When Iw> Jw W'i, j = (Swi + 1, j-1 + Swi-1, j + 1) / 2
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (40)
When Iw = Jw W'i, j = (Swi + 1, j + 1 + Swi + 1, j-1 + Swi-1, j + 1 + Swi-1, j-1) / 4
+ (4G′i, j−G′i + 1, j + 1−G′i + 1, j−1−G′i−1, j + 1−G′i−1, j−1) / 4
...... (41)
Of the pixels of the
上下にW画素が隣接する場合
W'i,j=(Swi+1,j+Swi-1,j)/2
+(2G'i,j−G'i+1,j−G'i-1,j)/2 ……(42)
左右にW画素が隣接する場合
W'i,j=(Swi,j+1+Swi,j-1)/2
+(2G'i,j−G'i,j+1−G'i,j-1)/2 ……(43)
以上のようにして、W画像42wの各画素うち、原画像41のW画素に対応する配置位置の画素以外の各画素のW値(W'i,j)は、当該画素の周囲のW画素の階調値(原画像41における階調値)に応じて決定される基本値(式(39)〜(43)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(39)〜(43)のそれぞの右辺の第2項)により補正することによって、決定される。
W'i, j = (Swi + 1, j + Swi-1, j) / 2
+ (2G′i, j−G′i + 1, j−G′i−1, j) / 2 (42)
When W pixels are adjacent to the left and right W'i, j = (Swi, j + 1 + Swi, j-1) / 2
+ (2G'i, j-G'i, j + 1-G'i, j-1) / 2 (43)
As described above, among the pixels of the
そして、W画像42wの各画素のうち、原画像41のW画素に対応する配置位置の各画素のW値(W'i,j)は、当該画素に対応する原画像41のW画素の階調値Swi,jに一致するように決定される。
Then, among the pixels of the
これによりW画像42wが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。
Thereby, the
以上が、STEP2において、外界画像生成部32が4種類の色別画像42r,42g,42b,42wを生成する処理(デモザイキング処理)の詳細である。
The above is the details of the process (the demosaicing process) in which the external
補足すると、G画像42g以外の色別画像42を基準輝度分布画像として生成し、その基準輝度分布画像の輝度分布を反映させて他の3種類の色別画像を生成するようにしてもよい。例えば、原画像41におけるG画素の全体のうち、階調値が所定値以下の微小値となっているG画素(所謂、黒つぶれ状態のG画素)が比較的多いような場合には、W画像42wを基準輝度分布画像として生成し、その基準輝度分布画像の輝度分布を反映させて他の3種類の色別画像(R画像42r、G画増42g、B画像42b)を生成するようにしてもよい。
Supplementally, a color-
また、原画像41の全体を複数の領域に区分けし、各領域毎に、4種類の色別画像42のうちのいずれか1つを基準輝度分布画像として生成し、その基準輝度分布画像の輝度分布を反映させて残りの3種類の色別画像42を生成するようにしてもよい。
Further, the entire
STEP2に続くSTEP3では、外界画像生成部32は、カラー画像43を生成する。このカラー画像43は、図8に示すように、その各画素に、R(赤)の階調値であるR値(Ci,j_r)と、G(緑)の階調値であるG値(Ci,j_g)と、B(青)の階調値であるB値(Ci,j_b)との組(3色の階調値の組)として構成される階調値Ci,jが割り当てられた画像である。
In
このカラー画像43は、色別画像42のうちのR画像42r、G画増42b、B画像42bの合成画像として生成される。具体的には、次式(44a)〜(44c)で示す如く、カラー画像43の各画素の階調値Ci,jのうちのR値(Ci,j_r)、G値(Ci,j_g)、B値(Ci,j_b)として、それぞれ、R画像42rの対応画素のR値(R'i,j)、G画像42gの対応画素のG値(G'i,j)、B画像42bの対応画素のB値(B'i,j)がそのまま設定される。
The
Ci,j_r=R'i,j ……(44a)
Ci,j_g=G'i,j ……(44b)
Ci,j_b=B'i,j ……(44c)
これにより、カラー画像43が生成される。
Ci, j_r = R'i, j (44a)
Ci, j_g = G'i, j (44b)
Ci, j_b = B'i, j (44c)
Thereby, a
STEP3に続くSTEP4では、外界画像生成部32は、広ダイナミックレンジ画像44を生成する。
In
広ダイナミックレンジ画像44は、前記色別画像42やカラー画像43よりもダイナミックレンジを拡張させた画像である。この広ダイナミックレンジ画像44は、図9に示すように、その各画素に、階調値Di,jを割り当てたモノトーン画像である。
The wide
この場合、広ダイナミックレンジ画像44の各画素の階調値Di,jは、次のように決定される。
In this case, the gradation value Di, j of each pixel of the wide
外界画像生成部32は、まず、カラー画像43の各画素の3種類の階調値(Ci,j_r、Ci,j_g、Ci,j_b)(又はR画像42r、G画像42g、及びB画像42bのそれぞれの対応画素の階調値R'i,j、G'i,j、B'i,j)から、カラー画像43の各画素の輝度値に相当する参照階調値Yi,jを以下の式(45)により算出する。
First, the external
Yi,j=0.3×Ci,jr+0.59×Ci,jg+0.11×Ci,jb ……(45)
従って、Yi,jは、Ci,jr(=R'i,j)、Ci,jg(=G'i,j)、Ci,jb(=B'i,j)の線形結合値として算出される。この場合、各項の重み付け係数(0.3,0.59,0.11)は、実験等により決定したものである。ただし、これらの重み係数は、他の値を用いてもよい。
Yi, j = 0.3 × Ci, jr + 0.59 × Ci, jg + 0.11 × Ci, jb (45)
Therefore, Yi, j is calculated as a linear combination value of Ci, jr (= R'i, j), Ci, jg (= G'i, j) and Ci, jb (= B'i, j). . In this case, the weighting coefficient (0.3, 0.59, 0.11) of each term is determined by experiments or the like. However, other values may be used for these weighting factors.
次いで、外界画像生成部32は、以下の式(46)により、原画像41の各W画素の階調値Swi,jと、各W画素に対応する配置位置のカラー画像43の画素の参照階調値Yijとの比ai,jを、感度差補正係数として算出する。
Next, the external
ai,j=Swi,j/Yi,j ……(46)
そして、外界画像生成部32は、以下の式(47)の重み付け関数w(x)を用いて、広ダイナミックレンジ画像44の各画素に割り当てる階調値(Di,j)を算出する。
ai, j = Swi, j / Yi, j (46)
Then, the external
w(x)=1/(1+exp(g×(0.5−x))) ……(47)
但し、w(x)はシグモイド関数、gはゲイン、exp( )は自然対数の底eの指数関数である。
w (x) = 1 / (1 + exp (g × (0.5−x))) (47)
Here, w (x) is a sigmoid function, g is a gain, and exp () is a natural logarithm base e exponential function.
具体的には、外界画像生成部32は、色別画像42のうちのW画像42wの階調値(W'i,j)を最大階調値(分解能が8bitであれば255、10bitであれば1023)に対して規格化した規格化階調値(hi,j)と、カラー画像43から上記式(45)により算出した参照階調値(Yi,j)を、最大階調値で規格化した規格化階調値(yi,j)とから、以下の式(48)により、規格化合成階調値(hdri,j)を算出する。なお、階調値を最大階調値に対して規格化するとは、階調値を最大階調値で除することを意味する。例えば、W'i,j=200,Yi,j=65で、最大階調値が255であるときには、hi,j=200/255,yi,j=65/255となる。
Specifically, the external
hdri,j=((1−w(hi,j))×hi,j+w(hi,j)×a'×yi,j)/a'
……(48)
但し、a'は、原画像41のW画素に対応する画素を対象とするときは、上記式(46)により算出した当該画素の感度差補正係数ai,j、原画像41のR画素又はG画素又はB画素に対応する画素を対象とするときは、周囲に配置されたW画素に対応する画素の感度差補正係数ai,jである。
hdri, j = ((1-w (hi, j)) * hi, j + w (hi, j) * a '* yi, j) / a'
...... (48)
However, when a ′ is a pixel corresponding to the W pixel of the
そして、外界画像生成部32は、低階調のコントラスを保つために、以下の式(49)により規格化合成階調値(hdri,j)にγ変換処理を施すことで、広ダイナミックレンジ画像44の対象画素に割り当てる階調値(Di,j)を決定する。
Then, in order to maintain a low gradation contrast, the external
Di,j=Mb×(hdri,j)(1/γ) ……(49)
但し、Mbは広ダイナミックレンジ画像44の最大階調値である。
Di, j = Mb × (hdri, j) (1 / γ) (49)
However, Mb is the maximum gradation value of the wide
このように各画素の階調値(Di,j)を決定することで、広ダイナミックレンジ画像44が生成される。
Thus, the wide
広ダイナミックレンジ画像44を生成するために用いた上記式(47)のシグモイド関数は、重み付け関数の一例であり、他の重み付け関数を用いてもよい。
The sigmoid function of the above equation (47) used for generating the wide
本実施形態では、以上説明した外界画像生成部32の処理によって、4種類の色別画像42(42r,42g,42b,42w)と、カラー画像43と、広ダイナミックレンジ画像44とが外界画像として生成される。この場合、色別画像42のうちのW画像42wは、カラーフィルタを介さずに受光するW受光画素の出力信号の強度を示すW画素の階調値Swi,jを用いて生成される画像であるので、R画像42rや、G画像42g、B画像42bに比して高感度な画像としての意味を持つ。
In the present embodiment, four types of color-specific images 42 (42r, 42g, 42b, 42w), a
なお、外界画像生成部32は、4種類の色別画像42(42r,42g,42b,42w)と、カラー画像43と、広ダイナミックレンジ画像44との全ての画像を生成せずともよく、いずれかの外界画像の生成を省略してもよい。例えば、広ダイナミックレンジ画像44の生成を省略してもよい。
The external
次に、通信信号検出部33の処理を図10及び図11を参照して説明する。
Next, the processing of the communication
まず、図10を参照して通信信号検出部33の処理に関する基礎的事項を説明すると、カメラ2の撮像素子22のW受光画素は、カラーフィルタを介さずにカメラ2への入射光(これは一般に可視光以外の波長域の電磁波を含む)を受光する。このため、W受光画素の受光感度(入射光の強度に対する受光画素の受光レベル(出力信号の強度)の比率)と、入射光の波長との関係(スペクトル特性)は、W受光画素を構成する受光素子自体の構造や材質に依存したものとなる。
First, the basic matters regarding the processing of the communication
従って、W受光画素の受光感度のスペクトル特性は、一般に、例えば図10の実線のグラフawで示すような特性となる。この場合、W受光画素は、可視光域の波長はもちろん、近赤外領域の波長を含む幅広い波長域において感度を有し、当該幅広い波長域の入射光を検出可能である。 Therefore, the spectral characteristic of the light receiving sensitivity of the W light receiving pixel is generally a characteristic as shown by a solid line graph aw in FIG. 10, for example. In this case, the W light receiving pixel has sensitivity in a wide wavelength range including a wavelength in the near infrared region as well as a wavelength in the visible light region, and can detect incident light in the wide wavelength region.
一方、カメラ2への入射光をR,G,Bの各色のカラーフィルターを介して受光するR受光画素、G受光画素、B受光画素は、カメラ2への入射光のうち、それぞれに対応するカラーフィルタを透過可能な波長域の光だけを受光する。
On the other hand, R light receiving pixels, G light receiving pixels, and B light receiving pixels that receive light incident on the
このため、R受光画素、G受光画素、B受光画素のそれぞれの受光感度と、入射光の波長との関係(スペクトル特性)は、受光素子自体の特性と、それぞれに対応するカラーフィルタの透過特性とに依存したものとなる。 For this reason, the relationship (spectral characteristics) between the light receiving sensitivity of each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel and the wavelength of the incident light depends on the characteristics of the light receiving element itself and the transmission characteristics of the corresponding color filters. It depends on and.
この場合、R受光画素、G受光画素、B受光画素のそれぞれの受光感度のスペクトル特性は、それぞれ、一般に、図10の実線のグラフar,ag,abで例示するような特性となる。この場合、R受光画素、G受光画素、B受光画素の受光感度は、それぞれ赤色の波長、緑色の波長、青色の波長の近辺の比較的狭い波長域で感度を有するような凸波形の特性となる。 In this case, the spectral characteristics of the light receiving sensitivities of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel are generally characteristics as illustrated by solid line graphs a r, a g, and a b in FIG. In this case, the light receiving sensitivities of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel have characteristics of a convex waveform that has sensitivity in a relatively narrow wavelength region near the red wavelength, the green wavelength, and the blue wavelength, respectively. Become.
従って、R受光画素、G受光画素、B受光画素のそれぞれが検出可能な波長域(それぞのれ受光画素の受光感度が相対的に高感度となる波長域)は、W受光画素よりも狭く、その大部分が可視光域内の波長となる。そして、R受光画素、G受光画素、B受光画素のそれぞれの受光感度は、近赤外領域など、可視光域から逸脱した波長域では、可視光域での最大の受光感度に比して小さなものとなる。 Therefore, the wavelength range in which each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel can be detected (the wavelength range in which the light receiving sensitivity of each light receiving pixel is relatively high) is narrower than that of the W light receiving pixel. Most of the wavelengths are in the visible light range. The light receiving sensitivity of each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel is smaller than the maximum light receiving sensitivity in the visible light region in a wavelength region that deviates from the visible light region, such as the near infrared region. It will be a thing.
このため、W受光画素で検出可能な波長域(W受光画素の受光感度が相対的に高感度となる波長域)のうち、本実施形態における通信信号の波長域としての近赤外領域に着目すると、該近赤外領域は、R受光画素、G受光画素、B受光画素の全体が検出可能な波長域(図10に示すWL)、すなわち、R受光画素、G受光画素、B受光画素のそれぞれが検出可能な波長域を合成した波長域WLの端部寄りの波長域、もしくは、該波長域WLから逸脱した波長域となる。 For this reason, attention is paid to the near infrared region as the wavelength region of the communication signal in the present embodiment in the wavelength region that can be detected by the W light receiving pixel (the wavelength region in which the light receiving sensitivity of the W light receiving pixel is relatively high). Then, the near-infrared region is a wavelength region (WL shown in FIG. 10) in which the entire R light receiving pixel, G light receiving pixel, and B light receiving pixel can be detected, that is, the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel. Each becomes a wavelength region near the end of the wavelength region WL obtained by synthesizing the detectable wavelength region, or a wavelength region deviating from the wavelength region WL.
従って、近赤外領域の波長では、W受光画素の受光感度と、R受光画素、G受光画素、B受光画素のそれぞの受光感度との差(相違度合い)は、R受光画素、G受光画素、B受光画素のそれぞの受光感度が比較的大きなものとなる波長域に較べて、顕著なものとなる。 Therefore, at the wavelength in the near infrared region, the difference (degree of difference) between the light receiving sensitivity of the W light receiving pixel and the light receiving sensitivity of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel is as follows. The light receiving sensitivity of each of the pixels and the B light receiving pixels is remarkable as compared with the wavelength region where the light receiving sensitivity is relatively large.
通信信号検出部33は、上記の如き特性を利用して、近赤外領域の波長域の通信信号を検出する。その検出のための処理を、図11のフローチャートの従って以下に説明する。
The
なお、通信信号検出部33に関する図11のフローチャートの処理には、外界画像生成部32に関する図3のフローチャートの一部の処理と同じ処理が含まれる。この場合、図3と図11とで互いに同じ処理は、通信信号検出部33及び外界画像生成部32の両方で各別に実行する必要はなく、一方だけで実行するようにしてもよい。その場合、通信信号検出部33及び外界画像生成部32は、互いに共通の処理機能を有することとなる。
Note that the processing of the flowchart of FIG. 11 related to the communication
以下、図11のフローチャートの処理を説明すると、まず、STEP11において、原画像取得部31により原画像41(図2(b)参照)を取得して画像メモリ40に保持する。このSTEP11の処理は、前記STEP1の処理と同じである。従って、既にSTEP1の処理が実行されている場合には、STEP11の処理を改めて行う必要はない。
In the following, the processing of the flowchart of FIG. 11 will be described. First, in
次いで、STEP12〜16の処理が、通信信号検出部33の信号検出用画像生成部34により実行される。
Next, the processing of STEPs 12 to 16 is executed by the signal detection
STEP12では、信号検出用画像生成部34は、前記STEP2と同じ処理によって、原画像から4種類の色別画像42(R画像42r、G画像42g、B画像42b、W画像42w)を生成し、それらの色別画像42を画像メモリ40に保持する。なお、前記STEP2の処理により既に色別画像42が生成されている場合には、STEP12の処理を改めて行なう必要はない。
In STEP 12, the signal
次いで、STEP13において、信号検出用画像生成部34は、原画像41内に、通信信号を検出しようとする検出対象領域を設定する。例えば、前走車から送信される通信信号を受信しようとする場合、原画像41中で、前走車が写っているか、もしくは写っている可能性の高い領域(自車両1とほぼ同じ高さの領域等)が検出対象領域として設定される。
Next, in STEP 13, the signal detection
また、道路脇の通信設備から送信される通信信号を受信するような場合には、該通信設備の送信部が写っているか、もしくは、写っている可能性の高い領域が検出対象領域として設定される。 In addition, when receiving a communication signal transmitted from a communication facility on the side of the road, a region where the transmission unit of the communication facility is captured or is likely to be captured is set as a detection target region. The
なお、検出対象領域は受信しようとする通信信号の送信元の種別に応じてあらかじめ定めれた所定の領域であってもよい。 The detection target area may be a predetermined area determined in advance according to the type of the transmission source of the communication signal to be received.
あるいは、前記外界画像生成部32で生成された外界画像(色別画像42、カラー画像43、広ダイナミックレンジ画像44)のうちのいずれか1つ以上の画像から、受信しようとする通信信号の送信元の存在箇所を特定した上で、それに応じて検出対象領域を設定するようにしてもよい。あるいは、原画像41の全体の領域を検出対象領域として設定するようにしてもよい。
Alternatively, transmission of a communication signal to be received from any one or more of the external images (color-
次いで、信号検出用画像生成部34は、STEP14の処理を実行する。このSTEP14では、信号検出用画像生成部34は、検出対象領域におけるW画像42w(詳しくは、STEP12(又はSTEP2)で先に生成されたW画像42wのうちの検出対象領域内の画像)を第1参照画像として得る。従って、この第1参照画像は、図12(a)に示す如く、その各画素の階調値として、前記した如く決定されるグレー階調の階調値W'i,jを割り当てた画像である。
Next, the signal detection
補足すると、色別画像42を生成する前に、検出対象領域を設定するようにしてもよい。その場合、信号検出用画像生成部34の処理では、設定した検出対象領域においてのみ、色別画像42を生成するようにしてもよい。なお、この場合には、色別画像42のうちのW画像42wは、第1参照画像として生成されることとなる。
Supplementally, the detection target region may be set before the color-
次いで、信号検出用画像生成部34は、STEP15の処理を実行する。このSTEP15では、信号検出用画像生成部34は、検出対象領域におけるR画像42r、G画像42g及びB画像42b(詳しくは、STEP12(又はSTEP2)で先に生成されたR画像42r、G画像42g及びB画像42bのそれぞれの検出対象領域内の画像)から、検出対象領域の各画素に階調値(モノトーンの階調値)を割り当ててなる第2参照画像を生成する。以降、図12(b)に示す如く、第2参照画像の各画素(配置位置が(i,j)である画素)の階調値をPYi,jと表記する。
Next, the signal detection
この第2参照画像は、例えば次のように生成される。信号検出用画像生成部34は、まず、第2参照画像の前画像としてのモノトーン階調のベース第2参照画像を生成する。以降、ベース第2参照画像の各画素(配置位置が(i,j)である画素)の階調値をPY0i,jと表記する。
For example, the second reference image is generated as follows. First, the signal detection
このベース第2参照画像の各画素の階調値PY0i,jは、R画像42r中の対応画素(配置位置が同じ画像)の階調値R'i,jと、G画像42g中の対応画素の階調値G'i,jと、B画像42b中の対応画素の階調値B'i,jとを次式(50)により線形結合することにより、決定される。
The gradation value PY0i, j of each pixel of the base second reference image is equal to the gradation value R'i, j of the corresponding pixel (image having the same arrangement position) in the
PY0i,j=αr×R'i,j+αg×G'i,j+αb×B'i,j ……(50)
αr,αg,αbは、既定値の重み付け係数である。それらの値としては、例えば前記式(45)と同じ値(0.3,0.59,0.11)を用いることができる。ただし、αr,αg,αbの値を、式(45)に示す値と異ならせてもよい。
PY0i, j = αr × R′i, j + αg × G′i, j + αb × B′i, j (50)
αr, αg, and αb are predetermined weighting coefficients. As those values, for example, the same values (0.3, 0.59, 0.11) as those in the formula (45) can be used. However, the values of αr, αg, and αb may be different from the values shown in Expression (45).
このようにして算出される階調値PY0i,jは、R画像42r、G画像42g及びB画像42bのそれぞれの互いに対応する配置位置の画素の階調値R'i,j、G'i,j、B'i,jの線形結合値であるので、カメラ2の入射光に対する該階調値PY0i,jの感度特性(入射光の波長に対するスペクトル特性)は、R受光画素、G受光画素、B受光画素のそれぞれの受光感度の特性を合成した特性を有する。例えば、入射光の波長に対する該階調値PY0i,jの感度特性は、図10の実線のグラフayで例示するような特性となる。この場合、R受光画素、G受光画素、B受光画素の全体が検出可能な波長域WLにおいて、階調値PY0i,jが感度を有するものとなる。
The gradation values PY0i, j calculated in this way are the gradation values R′i, j, G′i, j of the pixels at the arrangement positions corresponding to each of the
そして、信号検出用画像生成部34は、検出対象領域における各画素の階調値PYi,jを、次式(51)によりPY0i,jに応じて決定してなる画像を、第2参照画像として生成する。すなわち、信号検出用画像生成部34は、第2参照画像の各画素の階調値PYi,jを、その配置位置に対応する上記ベース第2参照画像の画素の階調値PY0i,jに所定のゲイン係数βを乗じてなる値とすることで、第2参照画像を生成する。
Then, the signal detection
PYi,j=β×PY0i,j ……(51)
ここで、上記ゲイン係数βは、あらかじめ実験等に基づいて定められた値の係数である。その値は、第1参照画像の各画素の階調値W'i,jに含まれる、可視光領域の波長に対応する成分と、第2参照画像の各画素の階調値PYi,jに含まれる、可視光領域の波長に対応する成分とをほぼ一致させることができるように設定されている。
PYi, j = β × PY0i, j (51)
Here, the gain coefficient β is a coefficient having a value determined in advance based on experiments or the like. The value is the component corresponding to the wavelength of the visible light region included in the gradation value W′i, j of each pixel of the first reference image and the gradation value PYi, j of each pixel of the second reference image. It is set so that the component included and corresponding to the wavelength in the visible light region can be substantially matched.
以上のように第2参照画像は、その各画素の階調値PYi,jが、検出対象領域におけるR画像42r、G画像42g及びB画像42bのそれぞれの互いに対応する配置位置の画素の階調値R'i,j、G'i,j、B'i,jを線形結合してなる値(該画素の合成輝度値に相当する値)に、ゲイン係数βを乗じてなる値となるように生成される。
As described above, in the second reference image, the gradation value PYi, j of each pixel is the gradation of the pixel at the arrangement position corresponding to each of the
なお、第2参照画像は、第1参照画像よりも前に生成するようにしてもよい。 Note that the second reference image may be generated before the first reference image.
次に、信号検出用画像生成部34は、STEP16の処理を実行する。このSTEP16では、信号検出用画像生成部34は、上記の如く生成した第1参照画像と第2参照画像との差の画像を信号検出用画像45として生成する。以降、図12(c)に示す如く、信号検出用画像45の各画素(配置位置が(i,j)である画素)の階調値をDfi,jと表記する。
Next, the signal detection
この信号検出用画像45は、その各画素((i,j)の位置の画素)の階調値Dfi,jを、次式(52)に示す如く、第1参照画像の対応する位置の画素の階調値W'i,jと、第2参照画像の対応する位置の画素の階調値PYi,jとの偏差に一致させた画像である。
In the
Dfi,j=W'i,j−PYi,j ……(52)
以上のSTEP12〜16の信号検出用画像生成部34の処理により、信号検出用画像45が生成される。
Dfi, j = W'i, j-PYi, j (52)
The
次いで、STEP17において、通信信号検出部33は、上記の如く生成した信号検出用画像45を基に、通信信号を検出する。
Next, in STEP 17, the
ここで、第1参照画像の各画素の階調値W'i,jと、これに対応する第2参照画像の各画素の階調値PYi,jとは、それぞれに含まれる可視光領域の波長に対応する成分がほぼ一致するので、原画像41の検出対象領域に対応するカメラ2の撮像素子22の箇所に近赤外領域の波長の通信信号が入射している場合には、上記信号検出用画像45において、通信信号の入射箇所の画素の階調値Dfi,jがその周囲の箇所に較べて比較的顕著に大きなものとなる。
Here, the gradation value W′i, j of each pixel of the first reference image and the gradation value PYi, j of each pixel of the second reference image corresponding thereto correspond to the visible light region included in each of them. Since the components corresponding to the wavelengths substantially match, when a communication signal having a wavelength in the near-infrared region is incident on the position of the
これに対して、検出対象領域に対応する箇所に通信信号が入射していない場合には、一般に、上記信号検出用画像45には、階調値Dfi,jが顕著に大きなものとなるような箇所は生じ難い。
On the other hand, when the communication signal is not incident on the portion corresponding to the detection target region, generally, the gradation value Dfi, j is remarkably large in the
従って、信号検出用画像45は、近赤外領域の波長の受光成分を強調した画像となる。
Therefore, the
そこで、通信信号検出部33は、上記信号検出用画像45における階調値Dfi,jの分布に基づいて、撮像素子22の検出対象領域に対応する箇所に通信信号が入射したか否かを検出する。例えば、該階調値Dfi,jが所定値以上となるような所定面積以上の箇所が、上記信号検出用画像45中に存在する場合には、撮像素子22の検出対象領域に対応する箇所に通信信号が入射したことを検出する。そして、通信信号検出部33は、そのような箇所が信号検出用画像45中で検出されない場合には、撮像素子22の検出対象領域に対応する箇所への通信信号の入射が無いものと判断する。
Therefore, the communication
これにより、ON・OFFのパルス列により構成される近赤外領域の波長の通信信号を高い信頼性で検出することができる。 Thereby, it is possible to detect a communication signal having a wavelength in the near-infrared region constituted by an ON / OFF pulse train with high reliability.
なお、上記信号検出用画像45において所定値以上の階調値Dfi,jを有する箇所における階調値Dfi,jの大きさの変化に基づいて、カメラ2の撮像素子22に入射した通信信号の強度の変化を検出するようにすることも可能である。
Note that the communication signal incident on the
また、色別画像42、カラー画像43、広ダイナミックレンジ画像44などの可視画像で通信を行う対象を検知し、信号検出用画像45(通信信号強調画像)の対応する位置の階調値及び該階調値の変化を用いて通信信号の検出を行なってもよい。
Further, a target to be communicated is detected with a visible image such as the color-
以上が、通信信号検出部33の処理の詳細である。
The details of the processing of the communication
なお、前記式(51)におけるゲイン係数βは、本実施形態では、一定値としたが、カメラ2の撮像条件に応じて適宜変化させるようにしてもよい。例えば、周囲の光環境の状態(昼間、夕方、夜間、日陰、日なた等)や、カメラ2の露出などに応じてゲイン係数βの値を変化させるようにしてもよい。また、可視光の影響を受け難い夜間においては、第1参照画像と第2参照画像とのいずれにおいても、それらの画素の階調値に含まれる可視光域の成分が微小なものとなるので、例えば第1参照画像だけを用いて(換言すれば、式(51)のβを“0”として)、近赤外領域の波長の通信信号を検出するようにすることも可能である。
The gain coefficient β in the equation (51) is a constant value in the present embodiment, but may be changed as appropriate according to the imaging conditions of the
また、第1参照画像の階調値と、R画像42rの階調値R'i,j又はG画像42gの階調値G'i,j又はB画像42bの階調値B'i,jとを比較することで、通信信号を検出するようにすることも可能である。
Further, the gradation value of the first reference image, the gradation value R′i, j of the
次に、前記対象物検知部35の処理を説明する。対象物検知部35は、検出しようとする対象物の種別や、夜間であるか否か(もしくは周囲環境が暗いか否か)等に応じて、色別画像42、カラー画像43、及び広ダイナミックレンジ画像44のいずれかの1つ以上の外界画像を選択し、その選択した外界画像を用いて車両1の周辺に存在する対象物を検知する。
Next, processing of the
例えば、歩行者は比較的低輝度である場合が多いため、対象物検知部35は高感度な画像であるW画像42wから歩行者を検知する。
For example, since pedestrians often have relatively low luminance, the
また、夜間においては、暗い物体から明るい物体まで、広い範囲の輝度の物体を検知する必要があることから、対象物検知部35は、広ダイナミックレンジ画像44から、歩行者や他車等を検知する。
In addition, since it is necessary to detect a wide range of luminance objects from dark objects to bright objects at night, the
また、夜間でない場合には、カラー画像43により物体の色を認識できることから、レーンマークや、他車、信号機等をカラー画像43から検出する。
In addition, when it is not nighttime, the color of the object can be recognized from the
このように、対象物の種別や、周囲環境の明るさなどに応じて対象物の検出のために用いる画像を選択することで、種々様々な環境下で、種々様々の対象物を高い信頼性で検出することができる。 As described above, by selecting an image to be used for detection of an object according to the type of the object or the brightness of the surrounding environment, various kinds of objects can be highly reliable in various environments. Can be detected.
なお、対象物検知部35は、歩行者や他車を検出した場合に、該歩行者や他車と車両1(自車両)との接触の可能性を判断し、接触の可能性が有ると判断した場合には、車両コントローラ6に対して接触回避処理の実施を指示する制御信号を送信する。このとき、車両コントローラ6のディスプレイ表示制御部63は、ディスプレイ73に警報表示を行う。また、制動制御部62は、必要に応じて、制動装置72を作動させて接触を回避する処理を行う。
When the
また、対象物検知部35は、レーンマークの検知位置から車両1(自車両)を車線内に維持して走行させるレーンキープ制御のための制御信号を車両コントローラ6に送信する。このとき、操舵制御部61が操舵装置71の作動を制御することで、レーンキープ制御を行なう。
Further, the
以上説明した実施形態によれば、透明画素であるW画素と、カラー画素であるR画素、G画素及びB画素とにより構成される原画像41から、複数種類の外界画像としての色別画像42、カラー画像43及び広ダイナミックレンジ画像44を生成することができる。
According to the embodiment described above, the color-
そして、このように可視光域での外界画像を生成しながら、信号検出用画像45を生成して、該信号検出用画像45を基に、近赤外領域の波長域の通信信号を高い信頼性で検出することができる。
Then, while generating the external image in the visible light region in this way, the
なお、以上説明した実施形態では、近赤外領域の波長域の通信信号を通信信号検出部33で検出するようにしたが、近赤外領域以外の波長、例えば近赤外領域よりも波長の長い赤外領域の通信信号を検出するようにしてもよい。
In the embodiment described above, a communication signal in the near-infrared wavelength range is detected by the communication
また、本実施形態では、通信信号を検出する場合を例にとって説明したが、通信用以外の用途の信号を検出するようにすることも可能である。例えば、カメラ2を車両1の車室内に配置して、車両1のウィンドウガラスに付着する雨滴を検出するための信号を検出するようにすることも可能である。
In this embodiment, the case of detecting a communication signal has been described as an example. However, it is also possible to detect a signal for a purpose other than communication. For example, the
この場合には、例えば、近赤外光LED等の光源からウィンドウガラスの雨滴検出対象の領域に近赤外光を照射しつつ、該領域での近赤外光の反射光をカメラ2に入射するように該カメラ2を車室内に配置する。そして、前記実施形態の通信信号検出部33と同様の手法によって、カメラ2に入射した近赤外光(反射光)を検出する。
In this case, for example, the near infrared light is irradiated from the light source such as the near infrared LED to the raindrop detection target region of the window glass, and the reflected light of the near infrared light from the region is incident on the
この場合、ウィンドウガラスの雨滴検出対象の領域に雨滴が付着している場合と、付着していない場合とで、近赤外光の反射率が相違するので、上記反射光の検出によって、雨滴の有無を検出することができる。 In this case, since the reflectance of near-infrared light is different between the case where raindrops are attached to the raindrop detection target region of the window glass and the case where no raindrops are attached, the detection of raindrops is performed by detecting the reflected light. The presence or absence can be detected.
また、夜間等においては、カメラ2に入射する不可視領域の光、例えば近赤外光等の赤外領域の光を通信信号検出部33と同様の手法で検出することで、カメラ2に赤外線カメラとしての機能を持たせるようにすることもできる。これによって、赤外領域の光成分を強調した赤外画像(前記通信信号検出用画像45と同様の画像)と、可視画像(前記色別画像42、カラー画像43、広ダイナミックレンジ画像44等)とを同時に取得できる。また、このとき、例えば赤外線投光装置などの光源を用いて、カメラ2の撮像領域(カメラ2の画角の範囲)の一部又は全体に赤外光を投光するようにしてもよい。
Further, at night or the like, by detecting light in an invisible region that is incident on the
また、このとき、カメラ2の露出制御と光源の発光周期との同期をとることによって、カメラ2をTOF(Time of Flight)方式を用いた距離画像センサとして用い、距離検出を行なうようにしてもよい。
Further, at this time, by synchronizing the exposure control of the
また、カメラ2の撮像素子22の受光画素の配列パターンは、図2(a)に示したパターンに限られるものではない。例えば、カメラ2の撮像素子22の受光画素の配列パターンとして、図13(a)又は図13(b)に示すようパターンを採用してもよい。
Further, the arrangement pattern of the light receiving pixels of the
2…カメラ、22…撮像素子、32…外界画像生成部(外界画像生成手段)、33…通信信号検出部(通信信号検出手段)、34…信号検出用画像生成部(信号検出用画像生成手段)、STEP12,14…第1参照画像生成手段、STEP12,15…第2参照画像生成手段。
DESCRIPTION OF
Claims (3)
該カメラにより撮像された原画像であって、各カラー受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数のカラー画素と各透明受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数の透明画素とを配置してなる原画像から、外界の映像を示すカラー又はモノトーンの外界画像を生成する外界画像生成手段と、
前記原画像の少なくとも一部の領域である検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、該検出対象領域での受光成分のうち、前記複数のカラー受光画素のそれぞれが検出可能な波長域の全体の波長域の端部寄りの所定の波長域又は当該全体の波長域から逸脱した所定の波長域の受光成分を強調した画像である信号検出用画像を生成する信号検出用画像生成手段と、
該信号検出用画像から前記所定の波長域に含まれる信号成分を検出する信号検出手段とを備えることを特徴とする画像処理装置。 A camera having an imaging device in which a plurality of color light receiving pixels that receive light through a color filter and a plurality of transparent light receiving pixels that receive light without passing through a color filter;
In the original image captured by the camera, a plurality of color pixels each assigned a gradation value corresponding to the light receiving level of each color light receiving pixel and a gradation value corresponding to the light receiving level of each transparent light receiving pixel are respectively An external image generating means for generating a color or monotone external image indicating an external image from an original image formed by arranging a plurality of assigned transparent pixels;
Based on the gradation value of the color pixel in the detection target area, which is at least a partial area of the original image, and the gradation value of the transparent pixel in the detection target area, the light receiving component in the detection target area Among them, an image in which each of the plurality of color light receiving pixels emphasizes a light receiving component in a predetermined wavelength region near the end of the entire wavelength region or a predetermined wavelength region that deviates from the entire wavelength region. Signal detection image generation means for generating a signal detection image,
An image processing apparatus comprising: signal detection means for detecting a signal component included in the predetermined wavelength region from the signal detection image.
前記所定の波長域は、赤外領域内の波長域であることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the predetermined wavelength region is a wavelength region in an infrared region.
前記信号検出用画像生成手段は、前記検出対象領域における各画素の階調値を、少なくとも前記検出対象領域に含まれる複数の前記透明画素の階調値に応じて設定してなる第1参照画像を生成する第1参照画像生成手段と、前記検出対象領域における各画素の階調値を、少なくとも前記該検出対象領域に含まれる複数の前記カラー画素の階調値に応じて設定してなる第2参照画像を生成する第2参照画像生成手段とを備え、該第1参照画像と第2参照画像との階調値の差の画像を前記信号検出用画像として生成することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The signal detection image generation means sets a gradation value of each pixel in the detection target area according to at least gradation values of a plurality of the transparent pixels included in the detection target area. And a first reference image generating means for generating the first reference image generating means, and a gradation value of each pixel in the detection target area is set according to at least the gradation values of the plurality of color pixels included in the detection target area. A second reference image generating means for generating a two reference image, wherein an image having a difference in gradation value between the first reference image and the second reference image is generated as the signal detection image. Processing equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012048638A JP5904825B2 (en) | 2012-03-05 | 2012-03-05 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012048638A JP5904825B2 (en) | 2012-03-05 | 2012-03-05 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013187574A true JP2013187574A (en) | 2013-09-19 |
JP5904825B2 JP5904825B2 (en) | 2016-04-20 |
Family
ID=49388690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012048638A Active JP5904825B2 (en) | 2012-03-05 | 2012-03-05 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5904825B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018041209A (en) * | 2016-09-06 | 2018-03-15 | 本田技研工業株式会社 | Object recognition device, model information generation device, object recognition method, and object recognition program |
CN111083455A (en) * | 2018-10-22 | 2020-04-28 | 精工爱普生株式会社 | Position detection device, display system, and position detection method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180187A (en) * | 2002-11-29 | 2004-06-24 | Hitachi Ltd | Spatial division infrared communication system |
JP2005295381A (en) * | 2004-04-02 | 2005-10-20 | Sony Corp | Imaging apparatus |
JP2007288549A (en) * | 2006-04-18 | 2007-11-01 | Sony Corp | Physical information acquiring method and device thereof |
JP2008288629A (en) * | 2007-05-15 | 2008-11-27 | Sony Corp | Image signal processing apparatus, imaging device, image signal processing method, and computer program |
WO2009044544A1 (en) * | 2007-10-01 | 2009-04-09 | Panasonic Corporation | Imaging device |
JP2012008845A (en) * | 2010-06-25 | 2012-01-12 | Konica Minolta Opto Inc | Image processor |
-
2012
- 2012-03-05 JP JP2012048638A patent/JP5904825B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004180187A (en) * | 2002-11-29 | 2004-06-24 | Hitachi Ltd | Spatial division infrared communication system |
JP2005295381A (en) * | 2004-04-02 | 2005-10-20 | Sony Corp | Imaging apparatus |
JP2007288549A (en) * | 2006-04-18 | 2007-11-01 | Sony Corp | Physical information acquiring method and device thereof |
JP2008288629A (en) * | 2007-05-15 | 2008-11-27 | Sony Corp | Image signal processing apparatus, imaging device, image signal processing method, and computer program |
WO2009044544A1 (en) * | 2007-10-01 | 2009-04-09 | Panasonic Corporation | Imaging device |
JP2012008845A (en) * | 2010-06-25 | 2012-01-12 | Konica Minolta Opto Inc | Image processor |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018041209A (en) * | 2016-09-06 | 2018-03-15 | 本田技研工業株式会社 | Object recognition device, model information generation device, object recognition method, and object recognition program |
CN111083455A (en) * | 2018-10-22 | 2020-04-28 | 精工爱普生株式会社 | Position detection device, display system, and position detection method |
CN111083455B (en) * | 2018-10-22 | 2023-08-11 | 精工爱普生株式会社 | Position detection device, display system, and position detection method |
Also Published As
Publication number | Publication date |
---|---|
JP5904825B2 (en) | 2016-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5732145B2 (en) | Image processing device | |
JP5595606B2 (en) | Image processing device | |
CN104512411B (en) | Vehicle control system and imaging sensor | |
US20150312556A1 (en) | Rgb-ir sensor, and method and apparatus for obtaining 3d image by using same | |
WO2012067028A1 (en) | Image input device and image processing device | |
JP5171723B2 (en) | Obstacle detection device and vehicle equipped with the device | |
CN105453532B (en) | Photographic device, image capture method and automotive camera system | |
CN107113408A (en) | Image processing apparatus, image processing method, program and system | |
CN111034173A (en) | Image pickup apparatus and device | |
US11172173B2 (en) | Image processing device, image processing method, program, and imaging device | |
JP5697646B2 (en) | Vehicle periphery monitoring device | |
JP5904825B2 (en) | Image processing device | |
CN110365872A (en) | The dynamic demosaicing of camera pixel | |
CN107896321A (en) | Imaging sensor | |
JP2012008845A (en) | Image processor | |
JP2012010141A (en) | Image processing apparatus | |
JP5703279B2 (en) | Vehicle periphery monitoring device | |
JP5746116B2 (en) | Vehicle monitoring device | |
JP2013187572A (en) | Image processing apparatus | |
JP4795813B2 (en) | Vehicle perimeter monitoring device | |
JP5252247B2 (en) | Target position determination device | |
JP2013187573A (en) | Vehicle periphery monitoring apparatus | |
JP2017183945A (en) | Imaging apparatus, imaging method, and vehicle | |
JP2014529951A (en) | Method and apparatus for adapting the filter characteristics of a correction color filter and for operating an image sensor | |
JP2011251600A (en) | Device for detecting brake operation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5904825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |