Nothing Special   »   [go: up one dir, main page]

JP2013187574A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2013187574A
JP2013187574A JP2012048638A JP2012048638A JP2013187574A JP 2013187574 A JP2013187574 A JP 2013187574A JP 2012048638 A JP2012048638 A JP 2012048638A JP 2012048638 A JP2012048638 A JP 2012048638A JP 2013187574 A JP2013187574 A JP 2013187574A
Authority
JP
Japan
Prior art keywords
image
pixel
light receiving
pixels
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012048638A
Other languages
Japanese (ja)
Other versions
JP5904825B2 (en
Inventor
Mitsuhiko Adachi
允彦 安達
Tadahiko Kano
忠彦 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012048638A priority Critical patent/JP5904825B2/en
Publication of JP2013187574A publication Critical patent/JP2013187574A/en
Application granted granted Critical
Publication of JP5904825B2 publication Critical patent/JP5904825B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that is capable of, using a camera having an imaging element constructed by arranging color light receiving pixels and transparent light receiving pixels, obtaining images for presenting a video of an external environment and detecting a signal in a predetermined wavelength region.SOLUTION: An image processing device includes: external environment image generation means 32 for generating external environment images 42, 43, and 44 for presenting a video of an external environment from an original image 41 imaged by a camera 2 having an imaging element 22 where color light receiving pixels and transparent light receiving pixels are arranged; signal detection image generation means 34 for generating an image 45, in which a light reception component in a predetermined wavelength region (wavelength region in an infrared region, for instance) is emphasized, based on a gradation value of the color pixel and a gradation value of the transparent pixel in a detection target area of the original image 41; and signal detection means 33 for detecting, from the image 45, a signal component in the predetermined wavelength region received in the detection target area.

Description

本発明はカラーフィルタを介して受光する複数のカラー受光画素と、カラーフィルターを介さずに受光する複数の透明受光画素とを配置してなる撮像素子を有するカメラの撮像データを処理する画像処理装置に関する。   The present invention relates to an image processing apparatus for processing imaging data of a camera having an imaging element in which a plurality of color light receiving pixels that receive light through a color filter and a plurality of transparent light receiving pixels that receive light without passing through a color filter are arranged. About.

従来、カラーフィルタを介して受光する画素(カラー受光画素)と、カラーフィルタを介さずに受光する画素(透明受光画素)とを配置して構成される撮像素子を用いることにより、カラー画像の感度を改善する手法が提案されている(例えば、特許文献1を参照)。   Conventionally, the sensitivity of a color image is obtained by using an image sensor configured by arranging pixels that receive light through a color filter (color light receiving pixels) and pixels that receive light without passing through a color filter (transparent light receiving pixels). A method for improving the above has been proposed (see, for example, Patent Document 1).

また、例えば車両の前方等を撮像するカメラを車両に搭載し、その搭載したカメラの撮像画像を用いて、車両の周辺の状況を監視する装置が従来より知られている(例えば、特許文献2を参照)   In addition, for example, a device that mounts a camera that captures the front of the vehicle or the like on the vehicle and monitors a situation around the vehicle using a captured image of the mounted camera is known (for example, Patent Document 2). See

特表2008−507908号公報Special table 2008-507908 gazette 特開2004−247921号公報Japanese Patent Laid-Open No. 2004-247721

ところで、例えば車両においては、他車あるいは道路脇の通信設備などから出力される通信信号や、車両の環境情報に関するセンシング信号等を、赤外領域等の所定の波長帯域の無線信号によって受信する場合がある。   By the way, for example, in a vehicle, a communication signal output from another vehicle or a roadside communication facility, a sensing signal related to environmental information of the vehicle, or the like is received by a wireless signal in a predetermined wavelength band such as an infrared region. There is.

このような場合には、通常、それらの信号を受信するための専用的な受信機が車両に搭載される。しかるに、このように専用的な受信機を車両に搭載すると、車両の軽量化やコスト低減の妨げとなるという不都合がある。   In such a case, a dedicated receiver for receiving these signals is usually mounted on the vehicle. However, when a dedicated receiver is mounted on a vehicle in this way, there is a disadvantage that the vehicle is reduced in weight and cost.

一方、本願発明者は、前記カラー受光画素と透明受光画素とを有するカメラでは、車両周辺の可視映像等の外界映像の画像を取得できるだけでなく、該カメラの撮像データ(各画素の出力データ)を利用することで、専用的な受信機を用いずとも、上記通信信号等の所定の波長域の信号を検出することが可能であることを知見した。   On the other hand, the inventor of the present application can not only acquire an image of an external image such as a visible image around the vehicle, but also the imaging data of the camera (output data of each pixel) in the camera having the color light receiving pixels and the transparent light receiving pixels. It has been found that by using the signal, it is possible to detect a signal in a predetermined wavelength region such as the communication signal without using a dedicated receiver.

本発明はかかる背景に鑑みてなされたものであり、カラー受光画素と透明受光画素とを配置して構成された撮像素子を有するカメラを用いて、外界の映像を示す画像を取得することと、所定の波長域の信号を検出することとを行なうことができる画像処理装置を提供することを目的とする。   The present invention has been made in view of such a background, using a camera having an image sensor configured by arranging color light-receiving pixels and transparent light-receiving pixels, obtaining an image showing an image of the outside world, An object of the present invention is to provide an image processing apparatus capable of detecting a signal in a predetermined wavelength range.

本発明の画像装置は、かかる目的を達成するために、カラーフィルタを介して受光する複数のカラー受光画素と、カラーフィルタを介さずに受光する複数の透明受光画素とを配置してなる撮像素子を有するカメラと、
該カメラにより撮像された原画像であって、各カラー受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数のカラー画素と各透明受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数の透明画素とを配置してなる原画像から、外界の映像を示すカラー又はモノトーンの外界画像を生成する外界画像生成手段と、
前記原画像の少なくとも一部の領域である検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、該検出対象領域での受光成分のうち、前記複数のカラー受光画素のそれぞれが検出可能な波長域の全体の波長域の端部寄りの所定の波長域又は当該全体の波長域から逸脱した所定の波長域の受光成分を強調した画像である信号検出用画像を生成する信号検出用画像生成手段と、
該信号検出用画像から前記所定の波長域に含まれる信号成分を検出する信号検出手段とを備えることを特徴とする(第1発明)。
In order to achieve the above object, an image device according to the present invention includes a plurality of color light receiving pixels that receive light via a color filter and a plurality of transparent light receiving pixels that receive light without passing through a color filter. A camera having
In the original image captured by the camera, a plurality of color pixels each assigned a gradation value corresponding to the light receiving level of each color light receiving pixel and a gradation value corresponding to the light receiving level of each transparent light receiving pixel are respectively An external image generating means for generating a color or monotone external image indicating an external image from an original image formed by arranging a plurality of assigned transparent pixels;
Based on the gradation value of the color pixel in the detection target area, which is at least a partial area of the original image, and the gradation value of the transparent pixel in the detection target area, the light receiving component in the detection target area Among them, an image in which each of the plurality of color light receiving pixels emphasizes a light receiving component in a predetermined wavelength region near the end of the entire wavelength region or a predetermined wavelength region that deviates from the entire wavelength region. Signal detection image generation means for generating a signal detection image,
Signal detecting means for detecting a signal component included in the predetermined wavelength region from the signal detection image is provided (first invention).

かかる第1発明によれば、前記外界画像生成手段によって、前記原画像から、外界の映像を示す外界画像が生成される。この外界画像により外界の状況を認識することが可能となる。この場合、外界画像は、カラー及びモノトーンのいずれの画像であってもよい。また、前記カメラの撮像素子が、透明受光画素を有するので、高感度な外界画像や、広ダイナミックレンジの外界画像を生成することもできる。   According to the first aspect of the invention, the external image generation unit generates an external image indicating an external image from the original image. It becomes possible to recognize the situation of the outside world from this outside world image. In this case, the external image may be a color image or a monotone image. In addition, since the image sensor of the camera has transparent light receiving pixels, it is possible to generate a highly sensitive external image or an external image with a wide dynamic range.

さらに、第1発明では、前記外界画像とは別に、前記信号検出用画像生成手段によって、前記原画像の少なくとも一部の領域(すなわち、原画像の全体の領域又は一部の領域)である検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、前記所定の波長域の受光成分を強調した画像である信号検出用画像が生成される。   Furthermore, in the first invention, separately from the external image, the signal detection image generating means detects at least a part of the original image (that is, a whole area or a part of the original image). Based on the gradation value of the color pixel in the target area and the gradation value of the transparent pixel in the detection target area, a signal detection image that is an image in which the light receiving component in the predetermined wavelength range is emphasized is generated. The

そして、前記信号検出手段によって、この信号検出用画像から前記所定の波長域に含まれる信号成分が検出される。   Then, the signal detection means detects a signal component included in the predetermined wavelength range from the signal detection image.

なお、前記所定の波長域の受光成分を強調した画像(信号検出用画像)というのは、より詳しくは、前記撮像素子の全体のうち、該検出対象領域に対応する箇所(該撮像素子の全体又はその一部の箇所)に含まれるカラー受光画素及び透明受光画素で受光される光(電磁波)のうち、前記所定の波長域の光(電磁波)に対する感度を他の波長域に比して相対的に高めた画像を意味する。   More specifically, the image (signal detection image) in which the light receiving component in the predetermined wavelength region is emphasized is a portion corresponding to the detection target region (the whole of the imaging device) in the whole of the imaging device. Among the light (electromagnetic waves) received by the color light-receiving pixels and the transparent light-receiving pixels included in the color light-receiving pixels or the transparent light-receiving pixels, the sensitivity to the light (electromagnetic waves) in the predetermined wavelength range is relative to other wavelength ranges. This means an enhanced image.

ここで、各カラー受光画素は、カラーフィルタを介して受光するものであるので、該カラー受光画素が検出可能な波長域は、該カラーフィルタを透過可能な波長域内に制限されたものとなる。   Here, since each color light receiving pixel receives light via a color filter, the wavelength range that can be detected by the color light receiving pixel is limited to a wavelength range that can be transmitted through the color filter.

これに対して、各透明受光画素は、カラーフィルタを介さずに受光するものであるので、該透明受光画素が検出可能な波長域は、各カラー受光画素が検出可能な波長域の全体の波長域を逸脱した波長域も含む。   On the other hand, since each transparent light receiving pixel receives light without passing through a color filter, the wavelength range that can be detected by the transparent light receiving pixel is the entire wavelength range that can be detected by each color light receiving pixel. It includes the wavelength range that deviates from the range.

なお、カラー受光画素又は透明受光画素が検出可能な波長域というのは、各画素の受光感度(該画素がカラーフィルタ又は透明のフィルタを介して受光する場合には、該フィルタを含めた受光感度)と受光波長との関係を示すスペクトル特性において、該受光感度が相対的に高感度となる波長域を意味する。   The wavelength range that can be detected by the color light receiving pixel or the transparent light receiving pixel means the light receiving sensitivity of each pixel (when the pixel receives light through a color filter or a transparent filter, the light receiving sensitivity including the filter). ) And a wavelength characteristic indicating a relationship between the received light wavelength and a wavelength range in which the received light sensitivity is relatively high.

また、各カラー受光画素が検出可能な波長域の全体の波長域は、前記撮像素子に含まれる複数のカラー受光画素のそれぞれが検出可能な波長域を合成した波長域を意味する。   The entire wavelength range that can be detected by each color light receiving pixel means a wavelength range obtained by combining the wavelength ranges that can be detected by each of the plurality of color light receiving pixels included in the image sensor.

そして、前記所定の波長域は、前記複数のカラー受光画素のそれぞれが検出可能な波長域の全体の波長域の端部寄りの所定の波長域又は当該全体の波長域から逸脱した所定の波長域であるので、該所定の波長域においては、各カラー受光画素が検出可能な波長域の中央付近の波長域に較べて、カラー受光画素の受光感度との差が大きなものとなる。   The predetermined wavelength range is a predetermined wavelength range close to an end of an entire wavelength range that can be detected by each of the plurality of color light receiving pixels or a predetermined wavelength range deviating from the entire wavelength range. Therefore, in the predetermined wavelength region, the difference from the light receiving sensitivity of the color light receiving pixels is larger than the wavelength region near the center of the wavelength region that can be detected by each color light receiving pixel.

従って、前記検出対象領域で、前記所定の波長域の光が受光された場合と、受光されない場合とを比較すると、該検出対象領域におけるカラー受光画素の受光レベル(ひいては前記ガラー画素の階調値)は、両方の場合で大きな差異を生じ難いものとなる一方、該検出対象領域における透明受光画素の受光レベル(ひいては前記透明画素の階調値)は、両方の場合で比較的顕著な差異を生じやすい。   Therefore, comparing the case where light in the predetermined wavelength region is received with the case where light is not received in the detection target region, the light reception level of the color light receiving pixel in the detection target region (and hence the gradation value of the galler pixel). ) Is less likely to cause a large difference in both cases, while the light receiving level of the transparent light receiving pixel in the detection target region (and thus the gradation value of the transparent pixel) is relatively different in both cases. Prone to occur.

このため、前記原画像の検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、前記所定の波長域の受光成分を強調した画像である信号検出用画像が生成することができることとなる。ひいては、この信号検出用画像から、前記所定の波長域に含まれる信号成分を検出することができることとなる。   Therefore, an image in which the light receiving component in the predetermined wavelength region is emphasized based on the gradation value of the color pixel in the detection target area of the original image and the gradation value of the transparent pixel in the detection target area. A certain signal detection image can be generated. As a result, a signal component included in the predetermined wavelength region can be detected from the signal detection image.

よって、本発明によれば、カラー受光画素と透明受光画素とを配置して構成された撮像素子を有するカメラを用いて、外界の映像を示す画像(前記外界画像)を取得することと、所定の波長域の信号を検出することとを行なうことができる。   Therefore, according to the present invention, using a camera having an image sensor configured by arranging color light-receiving pixels and transparent light-receiving pixels, an image showing the external image (the external image) is acquired, It is possible to detect a signal in the wavelength region.

上記第1発明では、前記所定の波長域は、例えば、赤外領域内の波長域である(第2発明)。カラーフィルタは、通常、近赤外領域等、赤外領域の一部の波長の光を透過し難いので、該赤外領域の一部の波長域に対するカラー受光画素の受光感度は低い。   In the first invention, the predetermined wavelength region is, for example, a wavelength region in the infrared region (second invention). Since the color filter generally does not easily transmit light having a part of the wavelength in the infrared region, such as the near infrared region, the light receiving sensitivity of the color light receiving pixels in the part of the wavelength region of the infrared region is low.

これに対して、透明受光画素は、通常、該赤外領域の波長域に対する受光感度は、カラー受光画素の受光感度に比して十分に高い。   On the other hand, the light receiving sensitivity of the transparent light receiving pixel is usually sufficiently higher than the light receiving sensitivity of the color light receiving pixel.

従って、前記所定の波長域として、カラーフィルタの有無で受光感度が異なる赤外領域内の波長域を採用することで、該赤外領域内の波長域の信号成分を適切に検出することができることとなる。   Therefore, by adopting a wavelength region in the infrared region where the light receiving sensitivity is different depending on the presence or absence of a color filter, the signal component in the wavelength region in the infrared region can be appropriately detected as the predetermined wavelength region. It becomes.

また、赤外領域内の波長域は、通信や、センシング(例えば雨滴検知や、赤外線画像の検知等)等に広く活用し得る波長域である。このため、第2発明によれば、前記外界画像を取得することと併せて、外部との通信や、センシングなどを行なうことができる。   The wavelength region in the infrared region is a wavelength region that can be widely used for communication, sensing (for example, raindrop detection, infrared image detection, etc.), and the like. For this reason, according to the second aspect of the invention, it is possible to perform communication with the outside, sensing, and the like in addition to acquiring the outside world image.

上記第1発明又は第2発明では、前記信号検出用画像生成手段は、例えば次のような手法によって、前記信号検出用画像を生成することができる。   In the first invention or the second invention, the signal detection image generation means can generate the signal detection image by the following method, for example.

すなわち、前記信号検出用画像生成手段は、前記検出対象領域における各画素の階調値を、少なくとも前記該検出対象領域に含まれる複数の前記透明画素の階調値に応じて設定してなる第1参照画像を生成する第1参照画像生成手段と、前記検出対象領域における各画素の階調値を、少なくとも前記該検出対象領域に含まれる複数の前記カラー画素の階調値に応じて設定してなる第2参照画像を生成する第2参照画像生成手段とを備え、該第1参照画像と第2参照画像との階調値の差の画像を前記信号検出用画像として生成する(第3発明)。   That is, the signal detection image generation means sets the gradation value of each pixel in the detection target area according to at least the gradation values of the plurality of transparent pixels included in the detection target area. First reference image generation means for generating one reference image, and gradation values of each pixel in the detection target area are set according to at least gradation values of the plurality of color pixels included in the detection target area. Second reference image generation means for generating the second reference image, and generates an image of a difference in gradation value between the first reference image and the second reference image as the signal detection image (third invention).

この第3発明によれば、前記各カラー受光画素が検出可能な波長域の全体の波長域に関して、前記カメラの撮像素子に入射される外界の映像(当該全体の波長域に属する波長の映像)によらずに、第1参照画像と第2参照画像との階調値の一致度合いができるだけ高くなるように、該第1参照画像と第2参照画像とを生成することができる。このため、第1参照画像と第2参照画像との階調値の差の画像(詳しくは各画素の階調値として、第1参照画像と第2参照画像との階調値の差を割り当てた画像)は、前記所定の波長域の受光強度に対する依存性の高いものとなる。従って、当該差の画像を、所定の波長域の受光成分を強調した前記信号検出用画像として得ることができる。   According to the third aspect of the invention, with respect to the entire wavelength range that can be detected by each of the color light receiving pixels, an image of the outside world that is incident on the image sensor of the camera (an image having a wavelength that belongs to the entire wavelength range). Regardless, the first reference image and the second reference image can be generated so that the degree of coincidence of the gradation values of the first reference image and the second reference image is as high as possible. Therefore, an image of a difference in gradation value between the first reference image and the second reference image (specifically, a difference in gradation value between the first reference image and the second reference image is assigned as the gradation value of each pixel. The image) is highly dependent on the received light intensity in the predetermined wavelength range. Therefore, the difference image can be obtained as the signal detection image in which the light receiving component in the predetermined wavelength region is emphasized.

本発明の一実施形態の画像処理装置の構成を示す図。1 is a diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 図2(a)は実施形態におけるカメラのカラーフィルタの配置例を示す図、図2(b)は実施形態のカメラの撮像素子から得られる撮像画像(原画像)を説明するための図。FIG. 2A is a diagram illustrating an arrangement example of the color filter of the camera in the embodiment, and FIG. 2B is a diagram for explaining a captured image (original image) obtained from the image sensor of the camera of the embodiment. 図1に示す外界画像生成部に関する処理を示すフローチャート。The flowchart which shows the process regarding the external field image generation part shown in FIG. 図1に示す外界画像生成部で生成される色別画像(G画像)を説明するための図。The figure for demonstrating the image according to color (G image) produced | generated by the external field image generation part shown in FIG. 図1に示す外界画像生成部で生成される色別画像(R画像)を説明するための図。The figure for demonstrating the image according to color (R image) produced | generated by the external field image generation part shown in FIG. 図1に示す外界画像生成部で生成される色別画像(B画像)を説明するための図。The figure for demonstrating the image according to color (B image) produced | generated by the external field image generation part shown in FIG. 図1に示す外界画像生成部で生成される色別画像(W画像)を説明するための図。The figure for demonstrating the image according to color (W image) produced | generated by the external field image generation part shown in FIG. 図1に示す外界画像生成部で生成されるカラー画像を説明するための図。The figure for demonstrating the color image produced | generated by the external field image generation part shown in FIG. 図1に示す外界画像生成部で生成される広ダイナミックレンジ画像を説明するための図。The figure for demonstrating the wide dynamic range image produced | generated by the external field image generation part shown in FIG. 実施形態のカメラの受光画素の感度を例示するグラフ。The graph which illustrates the sensitivity of the light reception pixel of the camera of an embodiment. 図1に示す通信信号生成部に関する処理を示すフローチャート。The flowchart which shows the process regarding the communication signal generation part shown in FIG. 図12(a),(b),(c)は、それぞれ図1に示す信号検出用画像生成部で生成される第1参照画像、第2参照画像、信号検出用画像を説明するための図。FIGS. 12A, 12B, and 12C are diagrams for explaining the first reference image, the second reference image, and the signal detection image generated by the signal detection image generation unit illustrated in FIG. 1, respectively. . 図13(a),(b)はそれぞれ、カメラのカラーフィルタの他の配置例を示す図。FIGS. 13A and 13B are diagrams showing other arrangement examples of the color filter of the camera.

本発明の画像処理装置の一実施形態を、図1〜図12を参照して説明する。図1を参照して、本実施形態の画像処理装置は、車両1に搭載されたカメラ2と、カメラ2と接続された画像コントローラ3とにより構成されている。   An embodiment of an image processing apparatus of the present invention will be described with reference to FIGS. With reference to FIG. 1, the image processing apparatus of the present embodiment includes a camera 2 mounted on a vehicle 1 and an image controller 3 connected to the camera 2.

カメラ2は、フィルタ21が組み込まれた撮像素子22(CCD、CMOS等)により、車両1の周囲を撮像し、撮像データを画像コントローラ3の制御回路30に出力する。撮像素子22は、m×n個の複数の受光素子をm行n列の配列パターンで2次元状に配列して構成されている。   The camera 2 images the surroundings of the vehicle 1 by an image sensor 22 (CCD, CMOS, etc.) in which a filter 21 is incorporated, and outputs the image data to the control circuit 30 of the image controller 3. The imaging element 22 is configured by arranging a plurality of m × n light receiving elements in an array pattern of m rows and n columns in a two-dimensional manner.

図2(a)を参照して、カメラ2のフィルタ21は、R(赤)、G(緑)、B(青)の3原色のカラーフィルタ、すなわち、R、G、Bの波長域の光(可視光)をそれぞれ透過可能な3種類のカラーフィルタにより構成される。これらの3原色のカラーフィルターのうちのいずれかの色のカラーフィルタが、撮像素子22のm×n個の受光画素のうちの、所定割合の個数の受光画素の受光経路側に装着されている。これにより、カラーフィルタが装着された各受光画素は、それぞれに対応する色のカラーフィルタを介して受光する。   Referring to FIG. 2A, the filter 21 of the camera 2 is a color filter of three primary colors R (red), G (green), and B (blue), that is, light in the R, G, and B wavelength ranges. It is composed of three types of color filters that can each transmit (visible light). The color filter of any one of these three primary color filters is attached to the light receiving path side of a predetermined number of light receiving pixels among the m × n light receiving pixels of the image sensor 22. . Thereby, each light receiving pixel to which the color filter is attached receives light through the color filter of the corresponding color.

なお、これらの受光画素(上記所定割合の個数の受光画素)に装着されたカラーフィルタの全体には、R、G、Bの全ての色のカラーフィルタが含まれる。従って、カラーフィルタが装着された受光画素の全体は、Rの色のカラーフィルタ(以降、Rフィルタという)が装着された受光画素(以降、R受光画素という)と、Gの色のカラーフィルタ(以降、Gフィルタという)が装着された受光画素(以降、G受光画素という)と、Bの色のカラーフィルタ(以降、Bフィルタという)が装着された受光画素(以降、B受光画素という)とから構成される。これらのR受光画素、G受光画素、B受光画素は、本発明におけるカラー受光画素に相当するものである。   Note that the entire color filters mounted on these light receiving pixels (the predetermined number of light receiving pixels) include color filters of all the colors R, G, and B. Accordingly, the entire light-receiving pixel to which the color filter is attached is divided into a light-receiving pixel (hereinafter referred to as an R light-receiving pixel) to which an R color filter (hereinafter referred to as an R filter) is attached, and a G color filter ( Hereinafter, a light receiving pixel (hereinafter referred to as G light receiving pixel) to which a G filter is attached, and a light receiving pixel (hereinafter referred to as B light receiving pixel) to which a B color filter (hereinafter referred to as B filter) is attached. Consists of These R light receiving pixel, G light receiving pixel, and B light receiving pixel correspond to the color light receiving pixels in the present invention.

また、m×n個の受光画素のうちの、残りの受光画素には、カラーフィルタが省略された(装着されていない)ものとなっている。このため、この受光画素のそれぞれは、カラーフィルタを介さずに受光する。以降、この受光画素をW受光画素という。該W受光画素は、本発明における透明受光画素に相当するものである。   Of the m × n light receiving pixels, the remaining light receiving pixels have a color filter omitted (not mounted). For this reason, each of the light receiving pixels receives light without passing through a color filter. Hereinafter, this light receiving pixel is referred to as a W light receiving pixel. The W light receiving pixel corresponds to the transparent light receiving pixel in the present invention.

カメラ2は、R受光画素(図中R11,R15,…で示している)、G受光画素(図中G12,G14,…で示している)、B受光画素(図中B13,B31,…で示している)、及びRx受光画素(図中Rx22,Rx24,…で示している)の出力信号を撮像データとして画像コントローラ3に出力する。各受光画素の出力信号は、該受光画素での所定時間あたりの受光レベルに応じた強度(大きさ)を有する信号である。   The camera 2 includes R light receiving pixels (indicated by R11, R15,...), G light receiving pixels (indicated by G12, G14,...), And B light receiving pixels (B13, B31,. And output signals of Rx light receiving pixels (indicated by Rx22, Rx24,... In the figure) are output to the image controller 3 as imaging data. The output signal of each light receiving pixel is a signal having an intensity (magnitude) corresponding to the light receiving level per predetermined time at the light receiving pixel.

なお、各受光画素の受光レベルは、カメラ2の撮像素子22に入射した光のうち、その受光画素で受光した光の強度に相当する。   The light receiving level of each light receiving pixel corresponds to the intensity of the light received by the light receiving pixel among the light incident on the image sensor 22 of the camera 2.

なお、カラーフィルタとして、RGB以外の他の種類のカラーフィルタ(Cy(シアン)、Mg(マゼンタ)、Ye(イエロー)の補色系3原色のフィルタ等)を用いてもよい。   As the color filter, other types of color filters other than RGB (Cy (cyan), Mg (magenta), Ye (yellow) complementary primary color filters, etc.) may be used.

画像コントローラ3は、図示しないCPU、メモリ、入出力回路等により構成された制御回路30と、画像メモリ40と、CAN(Controller Area Network)ドライバ50とを有している。   The image controller 3 includes a control circuit 30 including a CPU, a memory, an input / output circuit, and the like (not shown), an image memory 40, and a CAN (Controller Area Network) driver 50.

制御回路30は、メモリに保持された画像処理用プログラムをCPUで実行することにより、原画像取得部31、外界画像生成部32、通信信号検出部33、対象物検知部35として機能する。なお、原画像取得部31、外界画像生成部32、通信信号検出部33、対象物検知部35の一部又は全部をハードウェアにより構成してもよい。   The control circuit 30 functions as an original image acquisition unit 31, an external image generation unit 32, a communication signal detection unit 33, and an object detection unit 35 by executing an image processing program stored in the memory by the CPU. Note that some or all of the original image acquisition unit 31, the external image generation unit 32, the communication signal detection unit 33, and the object detection unit 35 may be configured by hardware.

原画像取得部31は、カメラ2に制御信号を出力して車両1の周囲を撮像させ、カメラ2から出力される撮像データ(各受光画素の出力信号)により、原画像41のデータを取得して画像メモリ40に保持する。   The original image acquisition unit 31 outputs a control signal to the camera 2 to image the surroundings of the vehicle 1, and acquires the data of the original image 41 from the imaging data (output signal of each light receiving pixel) output from the camera 2. And stored in the image memory 40.

原画像41は、図2(b)に示したように、図2(a)に示した撮像素子22の各受光画素(R受光画素、G受光画素、B受光画素、W受光画素)の出力信号の強度を示す階調値を、対応する配置位置の画素(配置位置が同じ画素)の階調値として個別に割り当てたものになっている。図2(b)においては、各画素の階調値を、S(大文字)と、小文字r,g,b,wのいずれかと、添え字i,j(i=1,2…,m、j=1,2,…,n)との組により構成される変数により示している。   As shown in FIG. 2B, the original image 41 is output from each light receiving pixel (R light receiving pixel, G light receiving pixel, B light receiving pixel, and W light receiving pixel) of the image sensor 22 shown in FIG. The gradation values indicating the signal intensity are individually assigned as the gradation values of the pixels at the corresponding arrangement positions (pixels having the same arrangement position). In FIG. 2B, the gradation value of each pixel is set to S (upper case), one of lower case letters r, g, b, w, and subscripts i, j (i = 1, 2,..., M, j = 1, 2,..., N).

ここで、Srijは図2(a)のR受光画素に対応した配置位置の画素(以下、R画素という)の階調値を示し、Sgijは図2(a)のG受光画素に対応した配置位置の画素(以下、G画素という)の階調値を示し、Sbijは図2(a)のB受光画素に対応した配置位置の画素(以下、B画素という)の階調値を示し、Swijは図2(a)のW受光画素に対応した配置位置の画素(以下、W画素という)の階調値であることを示している。   Here, Srij represents a gradation value of a pixel at an arrangement position corresponding to the R light receiving pixel in FIG. 2A (hereinafter referred to as R pixel), and Sgij represents an arrangement corresponding to the G light receiving pixel in FIG. 2 indicates the gradation value of the pixel at the position (hereinafter referred to as G pixel), Sbij indicates the gradation value of the pixel at the arrangement position (hereinafter referred to as B pixel) corresponding to the B light receiving pixel in FIG. Indicates a gradation value of a pixel (hereinafter referred to as a W pixel) at an arrangement position corresponding to the W light receiving pixel in FIG.

なお、W画素は、本発明における透明画素に相当し、R画素、G画素及びB画素は、本発明におけるカラー画素に相当する。   The W pixel corresponds to the transparent pixel in the present invention, and the R pixel, G pixel, and B pixel correspond to the color pixel in the present invention.

外界画像生成部32は、本発明の外界画像生成手段に相当する機能部である。この外界画像生成部32は、R受光画素、G受光画素、B受光画素、W受光画素のそれぞれに対応する4種類の色別画像42と、カラー画像43と、広ダイナミックレンジ画像44とを外界画像として生成し、それらの画像を画像メモリ40に保持する。   The external image generation unit 32 is a functional unit corresponding to the external image generation unit of the present invention. The external image generation unit 32 generates four types of color-specific images 42 corresponding to each of the R light receiving pixel, the G light receiving pixel, the B light receiving pixel, and the W light receiving pixel, a color image 43, and a wide dynamic range image 44. Images are generated and stored in the image memory 40.

通信信号検出部33は、本発明の通信信号検出手段に相当する機能部である。この通信信号検出部33は、本実施形態では、車両1の外部の他車両から出力される車車間通信用の通信信号、あるいはビーコン等の道路脇の通信設備から出力される通信信号を検出する。これらの通信信号は、例えば近赤外領域の波長域の通信信号(ON・OFFのパルス列からなる信号)である。   The communication signal detector 33 is a functional unit corresponding to the communication signal detector of the present invention. In the present embodiment, the communication signal detection unit 33 detects a communication signal for inter-vehicle communication output from another vehicle outside the vehicle 1 or a communication signal output from roadside communication equipment such as a beacon. . These communication signals are, for example, communication signals in the near-infrared wavelength region (signals composed of ON / OFF pulse trains).

この場合、通信信号検出部33は、本発明における信号検出用画像生成手段に相当する信号検出用画像生成部34としての機能を含んでおり、この信号検出用画像生成部34で後述する如く生成した信号検出用画像45を画像メモリ40に保持する。そして、通信信号検出部33は、信号検出用画像45から、通信信号を検出する。   In this case, the communication signal detection unit 33 includes a function as a signal detection image generation unit 34 corresponding to the signal detection image generation means in the present invention, and is generated by the signal detection image generation unit 34 as described later. The signal detection image 45 is stored in the image memory 40. Then, the communication signal detection unit 33 detects a communication signal from the signal detection image 45.

なお、通信信号検出部33の信号検出用画像生成部34は、本発明における第1参照画像生成手段、第2参照画像生成手段としての機能を含んでいる。   The signal detection image generation unit 34 of the communication signal detection unit 33 includes functions as a first reference image generation unit and a second reference image generation unit in the present invention.

対象物検知部35は、色別画像42、カラー画像43、及び広ダイナミックレンジ画像44を用いて、車両1が走行中の道路に敷設されたレーンマーク、他車両、信号機、歩行者等を検知し、検知結果に応じて車両コントローラ6に対して各種の制御信号を送信する。   The object detection unit 35 uses the color-specific image 42, the color image 43, and the wide dynamic range image 44 to detect lane marks, other vehicles, traffic lights, pedestrians, and the like laid on the road on which the vehicle 1 is traveling. Then, various control signals are transmitted to the vehicle controller 6 according to the detection result.

車両コントローラ6は、図示しないCPU、メモリ、入出力回路等により構成された電子回路ユニットである。そして、車両コントローラ6は、メモリに保持された車両1の制御用プログラムをCPUで実行することによって、操舵装置71の作動を制御する操舵制御部61、制動装置72の作動を制御する制動制御部62、及びディスプレイ73の表示を制御するディスプレイ表示制御部63として機能する。   The vehicle controller 6 is an electronic circuit unit that includes a CPU, a memory, an input / output circuit, and the like (not shown). The vehicle controller 6 executes the control program for the vehicle 1 held in the memory by the CPU, thereby controlling the operation of the steering device 71, and the braking control unit for controlling the operation of the braking device 72. 62 and a display display control unit 63 that controls display on the display 73.

なお、画像コントローラ3と車両コントローラ6とは、CANドライバ50,64を介して相互に通信を行う。   The image controller 3 and the vehicle controller 6 communicate with each other via the CAN drivers 50 and 64.

次に、外界画像生成部32の処理(原画像取得部31の処理を含む)を図3〜図9を参照して詳細に説明する。外界画像生成部32は、原画像取得部31の処理を含めて図3のフローチャートに示す処理を実行することで、外界画像としての色別画像42、カラー画像43、広ダイナミックレンジ画像44を生成する。   Next, processing of the external image generation unit 32 (including processing of the original image acquisition unit 31) will be described in detail with reference to FIGS. The external world image generation unit 32 generates the color-specific image 42, the color image 43, and the wide dynamic range image 44 as the external world image by executing the processing shown in the flowchart of FIG. 3 including the processing of the original image acquisition unit 31. To do.

図3のSTEP1は原画像取得部31による処理である。原画像取得部31は、カメラ2から出力される撮像データにより、原画像41(図2(b)参照)を取得して画像メモリ40に保持する。   STEP 1 in FIG. 3 is processing by the original image acquisition unit 31. The original image acquisition unit 31 acquires the original image 41 (see FIG. 2B) from the imaging data output from the camera 2 and holds it in the image memory 40.

続くSTEP2において、外界画像生成部32は、原画像から4種類の色別画像42を生成して、それらの色別画像42を画像メモリ40に保持する。   In subsequent STEP 2, the external image generation unit 32 generates four types of color-specific images 42 from the original image, and holds these color-specific images 42 in the image memory 40.

上記4種類の色別画像42は、より詳しくは、R受光画素に対応する色(赤)の色別画像42であるR画像(以降、参照符号42rを付する)と、G受光画素に対応する色(緑)の色別画像42であるG画像(以降、参照符号42gを付する)と、B受光画素に対応する色(緑)の色別画像42であるB画像(以降、参照符号42bを付する)と、W受光画素に対応する色(グレー)の色別画像42であるW画像(以降、参照符号42wを付する)とから構成される。   More specifically, the four types of color-specific images 42 correspond to an R image (hereinafter referred to as reference numeral 42r) that is a color-specific image 42 of a color (red) corresponding to the R light receiving pixel, and a G light receiving pixel. A G image (hereinafter referred to as reference numeral 42g) that is a color-specific image 42 of the color (green) to be performed, and a B image (hereinafter referred to as reference numeral 42) that is a color-specific image 42 of the color (green) corresponding to the B light receiving pixel. 42b) and a W image (hereinafter referred to as reference numeral 42w) which is a color-specific image 42 of a color (gray) corresponding to the W light receiving pixel.

R画像42rは、その各画素の階調値が、原画像41のうちの、少なくともR画素の階調値を基にデモザイキング処理により決定される赤色階調のモノトーン画像(赤色の輝度分布を示す画像)である。   The R image 42r has a red tone monotone image (a red luminance distribution is determined by a demosaicing process) in which the tone value of each pixel is determined based on at least the tone value of the R pixel in the original image 41. Image).

また、G画像42gは、その各画素の階調値が、原画像41のうちの、少なくともG画素の階調値を基にデモザイキング処理により決定される緑色階調のモノトーン画像(緑色の輝度分布を示す画像)である。   The G image 42g has a green tone monotone image (green luminance) in which the tone value of each pixel is determined by demosaicing processing based on at least the tone value of the G pixel in the original image 41. Image showing the distribution).

また、B画像42bは、その各画素の階調値が、原画像41のうちの、少なくともB画素の階調値を基にデモザイキング処理により決定される青色階調のモノトーン画像(青色の輝度分布を示す画像)である。   Further, the B image 42b has a blue tone monotone image (blue luminance) in which the tone value of each pixel is determined by demosaicing processing based on at least the tone value of the B pixel in the original image 41. Image showing the distribution).

また、W画像42wは、その各画素の階調値が、原画像41のうちの、少なくともW画素の階調値を基にデモザイキング処理により決定されるグレー階調のモノトーン画像(グレーの輝度分布を示す画像)である。   Further, the W image 42w is a gray-tone monotone image (gray luminance) in which the gradation value of each pixel is determined by demosaicing processing based on at least the gradation value of the W pixel in the original image 41. Image showing the distribution).

これらの4種類の色別画像42(42r,42g,42b,42w)は、本実施形態では、次のように生成される。   These four types of color-specific images 42 (42r, 42g, 42b, 42w) are generated as follows in this embodiment.

まず、R画像42r、G画像42r、B画像42b、W画像42wのうちの1つの色別画像42が、基準輝度分布画像として生成される。この基準輝度分布画像は、カメラ2の撮影対象の実際の輝度分布に対する適合度合が比較的高いものとなる輝度分布状態を有する画像を意味する。   First, one color-specific image 42 among the R image 42r, the G image 42r, the B image 42b, and the W image 42w is generated as a reference luminance distribution image. This reference luminance distribution image means an image having a luminance distribution state in which the degree of matching with the actual luminance distribution of the photographing target of the camera 2 is relatively high.

本実施形態では、例えば、撮像素子22のうち、最も個数の多いG受光画素に対応するG画像42gが基準輝度分布画像として生成される。このG画像42gは、図4に示すように、各画素の階調値として、G値(G(緑)の輝度値)を割り当てた画像である。図4では、各画素の階調値(G値)をG'i,j(i=1,2…,m、j=1,2,…,n)で表している。   In the present embodiment, for example, the G image 42g corresponding to the largest number of G light receiving pixels in the image sensor 22 is generated as the reference luminance distribution image. As shown in FIG. 4, the G image 42g is an image to which a G value (G (green) luminance value) is assigned as a gradation value of each pixel. In FIG. 4, the gradation value (G value) of each pixel is represented by G′i, j (i = 1, 2,..., M, j = 1, 2,..., N).

基準輝度分布画像としてのG画像42gの各画素のG値G'i,jは、次のよう決定される。   The G value G′i, j of each pixel of the G image 42g as the reference luminance distribution image is determined as follows.

G画像42gの画素のうち、原画像41のG画素(階調値がSgi,jである画素)に対応する配置位置の画素(配置位置が同じ画素)については、次式(1)で示す如く、対応する原画像41のG画素の階調値Sgi,jが、そのままG画像42gの当該画素のG値(G'i,j)として決定される。例えば、図2(b)に示す原画像41の(i,j)=(2,3)の配置位置の画素の階調値(Sg2,3)が、G画像42gの(i,j)=(2,3)の配置位置の画素のG値(G'2,3)として決定される。   Among the pixels of the G image 42g, the pixel at the arrangement position (the pixel having the same arrangement position) corresponding to the G pixel of the original image 41 (the pixel whose gradation value is Sgi, j) is expressed by the following equation (1). As described above, the gradation value Sgi, j of the G pixel of the corresponding original image 41 is directly determined as the G value (G′i, j) of the pixel of the G image 42g. For example, the gradation value (Sg2,3) of the pixel at the position of (i, j) = (2,3) in the original image 41 shown in FIG. 2B is (i, j) = It is determined as the G value (G′2, 3) of the pixel at the arrangement position of (2, 3).


G'i,j=Sgi,j ……(1)

また、G画像42gの画素のうち、原画像41のG画素以外の画素(R画素又はB画素又はW画素)に対応する配置位置の画素については、その画素の周囲の配置位置のG画素の階調値を少なくとも用いて補完的に決定される。

G'i, j = Sgi, j (1)

In addition, among the pixels of the G image 42g, for the pixels at the arrangement positions corresponding to the pixels (R pixels, B pixels, or W pixels) other than the G pixels of the original image 41, the G pixels at the arrangement positions around the pixels are changed. It is determined complementarily using at least the gradation value.

具体的には、G画像42gの画素のうち、原画像41のR画素又はB画素に対応する配置位置の画素については、その画素の上下及び左右に隣接する4つのG画素の階調値Sgi+1,j、Sgi-1,j、Sgi,j+1、Sgi,j-1を基に、次式(2),(3)のIg、Jgの大小関係に応じて、式(4)又は(5)又は(6)によりG値(G'i,j)が決定される。   Specifically, among the pixels of the G image 42g, for the pixels at the arrangement positions corresponding to the R pixel or the B pixel of the original image 41, the gradation values Sgi of the four G pixels adjacent to the pixel in the vertical and horizontal directions. On the basis of + 1, j, Sgi-1, j, Sgi, j + 1, Sgi, j-1, depending on the magnitude relationship between Ig and Jg in the following formulas (2) and (3), formula (4) Alternatively, the G value (G′i, j) is determined by (5) or (6).


Ig=|Sgi+1,j−Sgi-1,j| ……(2)
Jg=|Sgi,j+1−Sgi,j-1| ……(3)
Ig<Jgである場合
G'i,j=(Sgi+1,j+Sgi-1,j)/2 ……(4)
Ig>Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1)/2 ……(5)
Ig=Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1+Sgi+1,j+Sgi-1,j)/4 ……(6)

また、G画像42gの画素のうち、原画像41のW画素に対応する配置位置の画素については、その画素の上下及び左右に隣接する4つのG画素の階調値Sgi+1,j、Sgi-1,j、Sgi,j+1、Sgi,j-1と、対応するW画素の階調値Swi,jと、その上下及び左右に1画素の間隔をおいて存在する4つのW画素の階調値Swi+2,j、Swi-2,j、Swi,j+2、Swi,j-2とを基に、次式(7),(8)のIg、Jgの大小関係に応じて、式(9)又は(10)又は(11)によりG値(G'i,j)が決定される。

Ig = | Sgi + 1, j−Sgi-1, j | (2)
Jg = | Sgi, j + 1−Sgi, j-1 | (3)
When Ig <Jg G'i, j = (Sgi + 1, j + Sgi-1, j) / 2 (4)
When Ig> Jg G'i, j = (Sgi, j + 1 + Sgi, j-1) / 2 (5)
When Ig = Jg G'i, j = (Sgi, j + 1 + Sgi, j-1 + Sgi + 1, j + Sgi-1, j) / 4 (6)

Further, among the pixels of the G image 42g, for the pixels at the arrangement positions corresponding to the W pixels of the original image 41, the gradation values Sgi + 1, j, Sgi of the four G pixels adjacent to the pixel above and below and to the left and right. -1, j, Sgi, j + 1, Sgi, j-1 and the corresponding gradation value Swi, j of the W pixel, and four W pixels existing at intervals of one pixel above and below and on the left and right. Based on the gradation values Swi + 2, j, Swi-2, j, Swi, j + 2, Swi, j-2, depending on the magnitude relationship between Ig and Jg in the following formulas (7) and (8) The G value (G′i, j) is determined by the equation (9) or (10) or (11).


Ig=|Sgi+1,j−Sgi-1,j|+|2Srxi,j−Srxi+2,j−Srxi-2,j| ……(7)
Jg=|Sgi,j+1−Sgi,j-1|+|2Srxi,j−Srxi,j+2−Srxi,j-2| ……(8)
Ig<Jgである場合
G'i,j=(Sgi+1,j+Sgi-1,j)/2
+(2Srxi,j−Srxi+2,j−Srxi-2,j)/4 ……(9)
Ig>Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1)/2
+(2Srxi,j−Srxi,j+2−Srxi,j-2)/4 ……(10)
Ig=Jgである場合
G'i,j=(Sgi,j+1+Sgi,j-1+Sgi+1,j+Sgi-1,j)/4
+(4Srxi,j−Srxi+2,j−Srxi-2,j−Srxi,j+2−Srxi,j-2)/8
……(11)

以上の処理(デモザイキング処理)により、原画像41のG画素の階調値(G値)を用いて、G画像42gの各画素に、緑の階調値(輝度値)を示すG値が割り当てられる。これにより、基準輝度分布画像としてのG画像42g(緑色階調の輝度分布画像)が生成される。

Ig = | Sgi + 1, j-Sgi-1, j | + | 2Srxi, j-Srxi + 2, j-Srxi-2, j | (7)
Jg = | Sgi, j + 1−Sgi, j−1 | + | 2Srxi, j−Srxi, j + 2−Srxi, j−2 | (8)
When Ig <Jg G'i, j = (Sgi + 1, j + Sgi-1, j) / 2
+ (2Srxi, j-Srxi + 2, j-Srxi-2, j) / 4 (9)
When Ig> Jg G'i, j = (Sgi, j + 1 + Sgi, j-1) / 2
+ (2Srxi, j-Srxi, j + 2-Srxi, j-2) / 4 (10)
When Ig = Jg G'i, j = (Sgi, j + 1 + Sgi, j-1 + Sgi + 1, j + Sgi-1, j) / 4
+ (4Srxi, j-Srxi + 2, j-Srxi-2, j-Srxi, j + 2-Srxi, j-2) / 8
...... (11)

Through the above processing (demosaicing processing), using the gradation value (G value) of the G pixel of the original image 41, each pixel of the G image 42g has a G value indicating a green gradation value (luminance value). Assigned. As a result, a G image 42g (green tone luminance distribution image) as a reference luminance distribution image is generated.

STEP2において、外界画像生成部32は、次に、基準輝度分布画像として生成したG画像42g以外の残りの3つの色別画像42r,42b,42wを生成する。この場合、本実施形態では、残りの3つの色別画像42r,42b,42wの生成は、以下に説明する如く、基準輝度分布画像の輝度分布を反映させて行なわれる。   In STEP 2, the external image generation unit 32 then generates the remaining three color-specific images 42r, 42b, and 42w other than the G image 42g generated as the reference luminance distribution image. In this case, in the present embodiment, the remaining three color-specific images 42r, 42b, and 42w are generated by reflecting the luminance distribution of the reference luminance distribution image as described below.

まず、R画像42rは、図5に示すように、各画素の階調値として、R値(赤の輝度値)を割り当てた画像である。図5では、各画素の階調値(R値)をR'i,j(i=1,2…,m、j=1,2,…,n)で表している。このR画像42rの各画素のR値(R'i,j)は、次のよう決定される。   First, as shown in FIG. 5, the R image 42r is an image to which an R value (red luminance value) is assigned as the gradation value of each pixel. In FIG. 5, the gradation value (R value) of each pixel is represented by R′i, j (i = 1, 2,..., M, j = 1, 2,..., N). The R value (R′i, j) of each pixel of the R image 42r is determined as follows.

すなわち、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素(配置位置が同じ画素)については、式(12)で示す如く、対応する原画像41のR画素の階調値Sri,jが、R画像42rの当該画素のR値(R'i,j)として決定される。   That is, among the pixels of the R image 42r, the pixel at the arrangement position corresponding to the R pixel of the original image 41 (pixels having the same arrangement position) is represented by the R pixel of the corresponding original image 41 as shown in Expression (12). Gradation value Sri, j is determined as the R value (R′i, j) of the pixel of the R image 42r.


R'i,j=Sri,j ……(12)

また、R画像42rの各画素のうち、原画像41のR画素以外の画素(G画素又はB画素又はW画素)に対応する配置位置の画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。

R'i, j = Sri, j (12)

In addition, among the pixels of the R image 42r, the R value (R′i, j) of the pixel at the arrangement position corresponding to a pixel (G pixel, B pixel, or W pixel) other than the R pixel of the original image 41 is Using the gradation value of the R pixel around the pixel (gradation value in the original image 41) and the G value of the pixel and the surrounding pixels (gradation value (G value) in the G image 42g). It is determined.

具体的には、R画像42rの画素のうち、原画像41のB画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのR画素(原画像41中のR画素)の階調値Sri+2,j、Sri-2,j、Sri,j+2、Sri,j-2と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(G画像42g中の画素)のG値(輝度値)G'i+2,j、G'i-2,j、G'i,j+2、G'i,j-2とを基に、次式(13),(14)のIr、Jrの大小関係に応じて、式(15)又は(16)又は(17)によりR値(R'i,j)が決定される。   Specifically, among the pixels of the R image 42r, with respect to the pixel at the arrangement position corresponding to the B pixel of the original image 41, four R pixels (one pixel interval above and below and right and left of the pixel) ( The gradation value Sri + 2, j, Sri-2, j, Sri, j + 2, Sri, j-2 of the original image 41) and the corresponding pixel (pixel in the G image 42g) G Value (luminance value) G′i, j, and G values (luminance values) G′i + 2, of four pixels (pixels in the G image 42g) existing at intervals of one pixel above and below and on the left and right. Based on j, G'i-2, j, G'i, j + 2, G'i, j-2, depending on the magnitude relationship between Ir and Jr in the following formulas (13) and (14), The R value (R′i, j) is determined by the equation (15) or (16) or (17).


Ir=|Sri+2,j−Sri-2,j|+|2G'i,j−G'i+2,j−G'i-2,j| ……(13)
Jr=|Sri,j+2−Sri,j-2|+|2G'i,j−G'i,j+2−G'i,j-2| ……(14)
Ir<Jrである場合
R'i,j=(Sri+2,j+Sri-2,j)/2
+(2G'i,j−G'i+2,j−G'i-2,j)/2 ……(15)
Ir>Jrである場合
R'i,j=(Sri,j+2+Sri,j-2)/2
+(2G'i,j−G'i,j+2−G'i,j-2)/2 ……(16)
Ir=Jrである場合
R'i,j=(Sri,j+2+Sri,j-2+Sri+2,j+Sri-2,j)/4
+(4G'i,j−G'i+2,j−G'i-2,j−G'i,j+2−G'i,j-2)/4
……(17)

また、R画像42rの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのR画素(原画像41中の画素)の階調値Sri+1,j又はSri-1,j又はSri,j+1又はSri,j-1と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下左右のいずれかに隣接する1つの画素(G画像42g中の画素)のG値(輝度値)G'i+1,j、G'i-1,j、G'i,j+1、G'i,j-1とを基に、次式(18)又は(19)又は(20)又は(21)によりR値(R'i,j)が決定される。

Ir = | Sri + 2, j−Sri−2, j | + | 2G′i, j−G′i + 2, j−G′i−2, j | (13)
Jr = | Sri, j + 2-Sri, j-2 | + | 2G'i, j-G'i, j + 2-G'i, j-2 | (14)
When Ir <Jr R'i, j = (Sri + 2, j + Sri-2, j) / 2
+ (2G'i, j-G'i + 2, j-G'i-2, j) / 2 (15)
When Ir> Jr R'i, j = (Sri, j + 2 + Sri, j-2) / 2
+ (2G′i, j−G′i, j + 2−G′i, j−2) / 2 (16)
When Ir = Jr R'i, j = (Sri, j + 2 + Sri, j-2 + Sri + 2, j + Sri-2, j) / 4
+ (4G'i, j-G'i + 2, j-G'i-2, j-G'i, j + 2-G'i, j-2) / 4
...... (17)

Further, among the pixels of the R image 42r, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, one R pixel (a pixel in the original image 41) adjacent to any one of the upper, lower, left, and right of the pixel. The gradation value Sri + 1, j or Sri-1, j or Sri, j + 1 or Sri, j-1 and the G value (luminance value) G′i, of the corresponding pixel (the pixel in the G image 42g) j and the G value (luminance value) G′i + 1, j, G′i−1, j, G′i, of one pixel (a pixel in the G image 42g) adjacent to either the top, bottom, left, or right thereof Based on j + 1 and G′i, j−1, the R value (R′i, j) is determined by the following formula (18) or (19) or (20) or (21).


下側にR画素が隣接する場合
R'i,j=Sri+1,j+(G'i,j−G'i+1,j) ……(18)
上側にR画素が隣接する場合
R'i,j=Sri-1,j+(G'i,j−G'i-1,j) ……(19)
右側にR画素が隣接する場合
R'i,j=Sri,j+1+(G'i,j−G'i,j+1) ……(20)
左側にR画素が隣接する場合
R'i,j=Sri,j-1+(G'i,j−G'i,j-1) ……(21)

また、R画像42rの画素のうち、原画像41のW画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのR画素(原画像41中の画素)の階調値(Sri-1,j+1,Sri+1,j-1)又は(Sri-1,j−1,Sri+1,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j+1,G'i+1,j-1)又は(G'i-1,j−1,G'i+1,j+1)とを基に、次式(22)又は(23)によりR値(R'i,j)が決定される。

When R pixel is adjacent to the lower side R′i, j = Sri + 1, j + (G′i, j−G′i + 1, j) (18)
When R pixel is adjacent on the upper side R′i, j = Sri−1, j + (G′i, j−G′i−1, j) (19)
When R pixel is adjacent to the right side R′i, j = Sri, j + 1 + (G′i, j−G′i, j + 1) (20)
When R pixel is adjacent to the left side R'i, j = Sri, j-1 + (G'i, j-G'i, j-1) (21)

Among the pixels of the R image 42r, the pixels at the arrangement positions corresponding to the W pixels of the original image 41 are adjacent to the pixels on the upper right side and the lower left side or the upper left side and the lower right side. The gradation values (Sri-1, j + 1, Sri + 1, j-1) or (Sri-1, j-1, Sri + 1, j + 1) of two R pixels (pixels in the original image 41) And the G value (luminance value) G′i, j of the corresponding pixel (the pixel in the G image 42g) and two adjacent pixels on the upper right and lower left sides, or on the upper left and lower right sides. G value (luminance value) (G′i−1, j + 1, G′i + 1, j−1) or (G′i−1, j−1, G−1) of a pixel (pixel in the G image 42g) Based on 'i + 1, j + 1), the R value (R'i, j) is determined by the following equation (22) or (23).


右斜め上及び左斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j-1+Sri-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(22)
左斜め上及び右斜め下にR画素が隣接する場合
R'i,j=(Sri+1,j+1+Sri-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(23)

以上のようにして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の画素以外の各画素のR値(R'i,j)は、当該画素の周囲のR画素の階調値(原画像41における階調値)に応じて決定される基本値(式(15)〜(23)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(15)〜(23)のそれぞれの右辺の第2項)により補正することによって、決定される。

R'i, j = (Sri + 1, j-1 + Sri-1, j + 1) / 2 when R pixels are adjacent to the upper right and lower left
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (22)
R'i, j = (Sri + 1, j + 1 + Sri-1, j-1) / 2 when R pixel is adjacent to upper left and lower right
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (23)

As described above, among the pixels of the R image 42r, the R value (R′i, j) of each pixel other than the pixel at the arrangement position corresponding to the R pixel of the original image 41 is the R around the pixel. The basic value (the first term on the right side of each of the equations (15) to (23)) determined according to the tone value of the pixel (the tone value in the original image 41) is the pixel and the surrounding pixels. It is determined by correcting with a correction value (second term on the right side of each of the equations (15) to (23)) determined according to the G value (G value in the G image 42g).

そして、R画像42rの各画素のうち、原画像41のR画素に対応する配置位置の各画素のR値(R'i,j)は、当該画素に対応する原画像41のR画素の階調値Sri,jに一致するように決定される。   The R value (R′i, j) of each pixel at the arrangement position corresponding to the R pixel of the original image 41 among the pixels of the R image 42r is the level of the R pixel of the original image 41 corresponding to the pixel. It is determined so as to coincide with the key value Sri, j.

これによりR画像42rが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。   Thereby, the R image 42r is generated by reflecting the luminance distribution of the G image 42g as the reference luminance distribution image.

次に、B画像42bは、図6に示すように、各画素の階調値として、B値(青の輝度値)を割り当てた画像である。図6では、各画素の階調値(B値)をB'i,j(i=1,2…,m、j=1,2,…,n)で表している。このB画像42bの各画素のB値(B'i,j)は、R画像42rの各画素のR値(R'i,j)と同様の仕方で決定される。   Next, as shown in FIG. 6, the B image 42b is an image to which a B value (blue luminance value) is assigned as the gradation value of each pixel. In FIG. 6, the gradation value (B value) of each pixel is represented by B′i, j (i = 1, 2,..., M, j = 1, 2,..., N). The B value (B′i, j) of each pixel of the B image 42b is determined in the same manner as the R value (R′i, j) of each pixel of the R image 42r.

すなわち、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の画素(配置位置が同じ画素)については、式(24)で示す如く、対応する原画像41のB画素の階調値Sbi,jが、B画像42bの当該画素のB値(B'i,j)として決定される。   That is, among the pixels of the B image 42b, the pixels at the arrangement positions corresponding to the B pixels of the original image 41 (the pixels at the same arrangement position) are represented by the B pixels of the corresponding original image 41 as shown in Expression (24). Gradation value Sbi, j is determined as the B value (B′i, j) of the pixel of the B image 42b.


B'i,j=Sbi,j ……(24)

また、B画像42bの各画素のうち、原画像41のB画素以外の画素(R画素又はG画素又はW画素)に対応する配置位置の画素のB値(B'i,j)は、当該画素の周囲のB画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。

B'i, j = Sbi, j (24)

In addition, among the pixels of the B image 42b, the B value (B′i, j) of the pixel at the arrangement position corresponding to a pixel other than the B pixel of the original image 41 (R pixel, G pixel, or W pixel) is Using the gradation value of the B pixel around the pixel (gradation value in the original image 41) and the G value of the pixel and the surrounding pixels (gradation value (G value) in the G image 42g) It is determined.

具体的には、B画像42bの画素のうち、原画像41のR画素に対応する配置位置の画素については、その画素の上下及び左右に1画素の間隔をおいて存在する4つのB画素(原画像41中のB画素)の階調値Sbi+2,j、Sbi-2,j、Sbi,j+2、Sbi,j-2と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下及び左右に1画素の間隔をおいて存在する4つの画素(G画像42g中の画素)のG値(輝度値)G'i+2,j、G'i-2,j、G'i,j+2、G'i,j-2とを基に、次式(25),(26)のIb、Jbの大小関係に応じて、式(27)又は(28)又は(29)によりB値(B'i,j)が決定される。   Specifically, among the pixels of the B image 42b, with respect to the pixel at the arrangement position corresponding to the R pixel of the original image 41, four B pixels (one pixel interval above and below and right and left of the pixel) ( The gradation value Sbi + 2, j, Sbi-2, j, Sbi, j + 2, Sbi, j-2 of the original image 41) and the corresponding pixel (pixel in the G image 42g) G Value (luminance value) G′i, j, and G values (luminance values) G′i + 2, of four pixels (pixels in the G image 42g) existing at intervals of one pixel above and below and on the left and right. Based on j, G'i-2, j, G'i, j + 2, and G'i, j-2, depending on the magnitude relationship between Ib and Jb in the following equations (25) and (26), The B value (B′i, j) is determined by the equation (27), (28) or (29).


Ib=|Sbi+2,j−Sbi-2,j|+|2G'i,j−G'i+2,j−G'i-2,j| ……(25)
Jb=|Sbi,j+2−Sbi,j-2|+|2G'i,j−G'i,j+2−G'i,j-2| ……(26)
Ib<Jbである場合
B'i,j=(Sbi+2,j+Sbi-2,j)/2
+(2G'i,j−G'i+2,j−G'i-2,j)/2 ……(27)
Ib>Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2)/2
+(2G'i,j−G'i,j+2−G'i,j-2)/2 ……(28)
Ib=Jbである場合
B'i,j=(Sbi,j+2+Sbi,j-2+Sbi+2,j+Sbi-2,j)/4
+(4G'i,j−G'i+2,j−G'i-2,j−G'i,j+2−G'i,j-2)/4
……(29)

また、B画像42bの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素の上下左右のいずれかに隣接する1つのB画素(原画像41中のB画素)の階調値Sbi+1,j又はSbi-1,j又はSbi,j+1又はSbi,j-1と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下左右のいずれかに隣接する1つの画素(G画像42g中の画素)のG値(輝度値)G'i+1,j、G'i-1,j、G'i,j+1、G'i,j-1とを基に、次式(30)又は(31)又は(32)又は(33)によりB値(B'i,j)が決定される。

Ib = | Sbi + 2, j−Sbi−2, j | + | 2G′i, j−G′i + 2, j−G′i−2, j | (25)
Jb = | Sbi, j + 2-Sbi, j-2 | + | 2G'i, j-G'i, j + 2-G'i, j-2 | (26)
When Ib <Jb B'i, j = (Sbi + 2, j + Sbi-2, j) / 2
+ (2G'i, j-G'i + 2, j-G'i-2, j) / 2 (27)
When Ib> Jb B′i, j = (Sbi, j + 2 + Sbi, j−2) / 2
+ (2G'i, j-G'i, j + 2-G'i, j-2) / 2 (28)
When Ib = Jb B'i, j = (Sbi, j + 2 + Sbi, j-2 + Sbi + 2, j + Sbi-2, j) / 4
+ (4G'i, j-G'i + 2, j-G'i-2, j-G'i, j + 2-G'i, j-2) / 4
...... (29)

In addition, among the pixels of the B image 42 b, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, one B pixel adjacent to either the upper, lower, left, or right of the pixel (B pixel in the original image 41) Gradation value Sbi + 1, j or Sbi-1, j or Sbi, j + 1 or Sbi, j-1 and the G value (luminance value) G′i of the corresponding pixel (the pixel in the G image 42g). , j and the G value (luminance value) G′i + 1, j, G′i−1, j, G′i of one pixel (pixel in the G image 42g) adjacent to any one of the top, bottom, left, and right , j + 1, G′i, j−1, the B value (B′i, j) is determined by the following equation (30) or (31) or (32) or (33).


下側にB画素が隣接する場合
B'i,j=Sbi+1,j+(G'i,j−G'i+1,j) ……(30)
上側にB画素が隣接する場合
B'i,j=Sbi-1,j+(G'i,j−G'i-1,j) ……(31)
右側にB画素が隣接する場合
B'i,j=Sbi,j+1+(G'i,j−G'i,j+1) ……(32)
左側にR画素が隣接する場合
B'i,j=Sbi,j-1+(G'i,j−G'i,j-1) ……(33)

また、B画像42bの画素のうち、原画像41のW画素に対応する配置位置の画素については、その画素の右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つのB画素(原画像41中のB画素)の階調値(Sbi-1,j+1,Sbi+1,j-1)又は(Sbi-1,j−1,Sbi+1,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その右斜め上及び左斜め下、あるいは、左斜め上及び右斜め下に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j+1,G'i+1,j-1)又は(G'i-1,j−1,G'i+1,j+1)とを基に、次式(34)又は(35)によりB値(B'i,j)が決定される。

When B pixel is adjacent to the lower side B′i, j = Sbi + 1, j + (G′i, j−G′i + 1, j) (30)
When B pixel is adjacent on the upper side B′i, j = Sbi−1, j + (G′i, j−G′i−1, j) (31)
When B pixel is adjacent to the right side B′i, j = Sbi, j + 1 + (G′i, j−G′i, j + 1) (32)
When R pixel is adjacent to the left side B′i, j = Sbi, j−1 + (G′i, j−G′i, j−1) (33)

Among the pixels of the B image 42b, the pixels at the arrangement positions corresponding to the W pixels of the original image 41 are adjacent to the pixel on the upper right side and the lower left side, or on the upper left side and the lower right side. The gradation values (Sbi-1, j + 1, Sbi + 1, j-1) or (Sbi-1, j-1, Sbi + 1, j + 1) of two B pixels (B pixels in the original image 41) ) And the G value (luminance value) G′i, j of the corresponding pixel (the pixel in the G image 42 g), 2 adjacent to the upper right side and the lower left side, or the upper left side and the lower right side. G values (luminance values) (G′i−1, j + 1, G′i + 1, j−1) or (G′i−1, j−1,) of two pixels (pixels in the G image 42g) Based on G′i + 1, j + 1), the B value (B′i, j) is determined by the following equation (34) or (35).


右斜め上及び左斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j-1+Sbi-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(34)
左斜め上及び右斜め下にB画素が隣接する場合
B'i,j=(Sbi+1,j+1+Sbi-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(35)

以上のようにして、B画像42bの各画素うち、原画像41のB画素に対応する配置位置の画素以外の各画素のB値(B'i,j)は、当該画素の周囲のB画素の階調値(原画像41における階調値)に応じて決定される基本値(式(27)〜(35)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(27)〜(35)のそれぞれの右辺の第2項)により補正することによって、決定される。

When B pixels are adjacent to the upper right and lower left, B'i, j = (Sbi + 1, j-1 + Sbi-1, j + 1) / 2
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (34)
When B pixel is adjacent to upper left and lower right B'i, j = (Sbi + 1, j + 1 + Sbi-1, j-1) / 2
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (35)

As described above, among the pixels of the B image 42b, the B value (B′i, j) of each pixel other than the pixel at the arrangement position corresponding to the B pixel of the original image 41 is the B pixel around the pixel. The basic value (the first term on the right side of each of the equations (27) to (35)) determined according to the tone value (the tone value in the original image 41) of the pixel and its surrounding pixels It is determined by correcting with a correction value (second term on the right side of each of the equations (27) to (35)) determined according to the value (G value in the G image 42g).

そして、B画像42bの各画素のうち、原画像41のB画素に対応する配置位置の各画素のB値(B'i,j)は、当該画素に対応する原画像41のB画素の階調値Sbi,jに一致するように決定される。   Then, among the pixels of the B image 42b, the B value (B′i, j) of each pixel at the arrangement position corresponding to the B pixel of the original image 41 is the level of the B pixel of the original image 41 corresponding to the pixel. It is determined so as to coincide with the key value Sbi, j.

これによりB画像42bが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。   Thereby, the B image 42b is generated by reflecting the luminance distribution of the G image 42g as the reference luminance distribution image.

次に、W画像42wは、図7に示すように、各画素の階調値として、W値(グレー階調の輝度値)を割り当てた画像である。図7では、各画素の階調値(W値)をW'i,j(i=1,2…,m、j=1,2,…,n)で表している。このW画像42wの各画素のW値(W'i,j)は、次のように決定される。   Next, as shown in FIG. 7, the W image 42w is an image in which a W value (gray gradation luminance value) is assigned as the gradation value of each pixel. In FIG. 7, the gradation value (W value) of each pixel is represented by W′i, j (i = 1, 2,..., M, j = 1, 2,..., N). The W value (W′i, j) of each pixel of the W image 42w is determined as follows.

すなわち、W画像42wの各画素のうち、原画像41のW画素に対応する配置位置の画素(配置位置が同じ画素)については、式(36)で示す如く、対応する原画像41のW画素の階調値Swi,jが、W画像42wの当該画素のW値(W'i,j)として決定される。   That is, among the pixels of the W image 42w, the pixel at the arrangement position corresponding to the W pixel of the original image 41 (pixels having the same arrangement position) is represented by the W pixel of the corresponding original image 41 as shown in Expression (36). Gradation value Swi, j is determined as the W value (W′i, j) of the pixel of the W image 42w.


W'i,j=Swi,j ……(36)

また、W画像42wの各画素のうち、原画像41のW画素以外の画素(R画素又はG画素又はB画素)に対応する配置位置の画素のW値(W'i,j)は、当該画素の周囲のW画素の階調値(原画像41での階調値)と、当該画素及びその周囲の画素のG値(G画像42gでの階調値(G値))とを用いて決定される。

W'i, j = Swi, j (36)

In addition, among the pixels of the W image 42w, the W value (W′i, j) of the pixel at the arrangement position corresponding to a pixel other than the W pixel of the original image 41 (R pixel, G pixel, or B pixel) is Using the gradation value of the W pixel around the pixel (gradation value in the original image 41) and the G value of the pixel and the surrounding pixels (gradation value (G value) in the G image 42g). It is determined.

具体的には、W画像42wの画素のうち、原画像41のR画素又はB画素に対応する配置位置の画素については、その画素の右斜め上、右斜め下、左斜め上、左斜め下に隣接する4つのW画素(原画像中のW画素)の階調値Swi-1,j+1、Swi+1,j+1、Swi-1,j-1、Swi+1,j-1と、対応する画素(G画像中の画素)のG値G'i,jと、その右斜め上、右斜め下、左斜め上、左斜め下に隣接する4つの画素(G画像42g中の画素)のG値G'i-1,j+1、G'i+1,j+1、G'i-1,j-1、G'i+1,j-1とを基に、次式(37),(38)のIw、Jwの大小関係に応じて、式(39)又は(40)又は(41)によりW値(W'i,j)が決定される。   Specifically, among the pixels of the W image 42w, with respect to the pixel at the arrangement position corresponding to the R pixel or the B pixel of the original image 41, the pixel is located on the upper right side, the lower right side, the upper left side, and the lower left side. Gradation values Swi-1, j + 1, Swi + 1, j + 1, Swi-1, j-1, Swi + 1, j-1 of four W pixels adjacent to (W pixels in the original image) And the G value G′i, j of the corresponding pixel (pixel in the G image) and four pixels (in the G image 42g) that are adjacent to the upper right side, the lower right side, the upper left side, and the lower left side. Pixel) G values G′i−1, j + 1, G′i + 1, j + 1, G′i−1, j−1, G′i + 1, j−1 The W value (W′i, j) is determined by the formula (39), (40) or (41) according to the magnitude relationship between Iw and Jw in the formulas (37) and (38).


Iw=|Swi+1,j+1−Swi-1,j-1|
+|2G'i,j−G'i+1,j+1−G'i-1,j-1| ……(37)
Jw=|Swi+1,j-1−Swi-1,j+1|
+|2G'i,j−G'i+1,j-1−G'i-1,j+1| ……(38)
Iw<Jwである場合
W'i,j=(Swi+1,j+1+Swi-1,j-1)/2
+(2G'i,j−G'i+1,j+1−G'i-1,j-1)/2 ……(39)
Iw>Jwである場合
W'i,j=(Swi+1,j-1+Swi-1,j+1)/2
+(2G'i,j−G'i+1,j-1−G'i-1,j+1)/2 ……(40)
Iw=Jwである場合
W'i,j=(Swi+1,j+1+Swi+1,j-1+Swi-1,j+1+Swi-1,j-1)/4
+(4G'i,j−G'i+1,j+1−G'i+1,j-1−G'i-1,j+1−G'i-1,j-1)/4
……(41)

また、W画像42wの画素のうち、原画像41のG画素に対応する配置位置の画素については、その画素に上下又は左右に隣接する2つのW画素(原画像41中の画素)の階調値(Swi-1,j、Swi+1,j)又は(Swi,j-1、Swi,j+1)と、対応する画素(G画像42g中の画素)のG値(輝度値)G'i,jと、その上下又は左右に隣接する2つの画素(G画像42g中の画素)のG値(輝度値)(G'i-1,j、G'i+1,j)又は(G'i,j-1、G'i,j+1)とを基に、次式(42)又は(43)によりW値(W'i,j)が決定される。

Iw = | Swi + 1, j + 1−Swi-1, j−1 |
+ | 2G'i, j-G'i + 1, j + 1-G'i-1, j-1 | (37)
Jw = | Swi + 1, j-1-Swi-1, j + 1 |
+ | 2G′i, j−G′i + 1, j−1−G′i−1, j + 1 | (38)
When Iw <Jw W′i, j = (Swi + 1, j + 1 + Swi-1, j−1) / 2
+ (2G'i, j-G'i + 1, j + 1-G'i-1, j-1) / 2 (39)
When Iw> Jw W'i, j = (Swi + 1, j-1 + Swi-1, j + 1) / 2
+ (2G′i, j−G′i + 1, j−1−G′i−1, j + 1) / 2 (40)
When Iw = Jw W'i, j = (Swi + 1, j + 1 + Swi + 1, j-1 + Swi-1, j + 1 + Swi-1, j-1) / 4
+ (4G′i, j−G′i + 1, j + 1−G′i + 1, j−1−G′i−1, j + 1−G′i−1, j−1) / 4
...... (41)

Of the pixels of the W image 42w, for the pixel at the arrangement position corresponding to the G pixel of the original image 41, the gradation of two W pixels (pixels in the original image 41) adjacent to the pixel in the vertical and horizontal directions. G value (luminance value) G ′ of the value (Swi-1, j, Swi + 1, j) or (Swi, j−1, Swi, j + 1) and the corresponding pixel (the pixel in the G image 42g) i, j and G values (luminance values) (G′i−1, j, G′i + 1, j) or (G Based on 'i, j-1, G'i, j + 1), the W value (W'i, j) is determined by the following equation (42) or (43).


上下にW画素が隣接する場合
W'i,j=(Swi+1,j+Swi-1,j)/2
+(2G'i,j−G'i+1,j−G'i-1,j)/2 ……(42)
左右にW画素が隣接する場合
W'i,j=(Swi,j+1+Swi,j-1)/2
+(2G'i,j−G'i,j+1−G'i,j-1)/2 ……(43)

以上のようにして、W画像42wの各画素うち、原画像41のW画素に対応する配置位置の画素以外の各画素のW値(W'i,j)は、当該画素の周囲のW画素の階調値(原画像41における階調値)に応じて決定される基本値(式(39)〜(43)のそれぞれの右辺の第1項)を、当該画素及びその周囲の画素のG値(G画像42gにおけるG値)に応じて決定される補正値(式(39)〜(43)のそれぞの右辺の第2項)により補正することによって、決定される。

W'i, j = (Swi + 1, j + Swi-1, j) / 2
+ (2G′i, j−G′i + 1, j−G′i−1, j) / 2 (42)
When W pixels are adjacent to the left and right W'i, j = (Swi, j + 1 + Swi, j-1) / 2
+ (2G'i, j-G'i, j + 1-G'i, j-1) / 2 (43)

As described above, among the pixels of the W image 42w, the W value (W′i, j) of each pixel other than the pixel at the arrangement position corresponding to the W pixel of the original image 41 is the W pixel around the pixel. The basic value (the first term on the right side of each of the equations (39) to (43)) determined according to the tone value (the tone value in the original image 41) of the pixel and its surrounding pixels It is determined by correcting with the correction value (the second term on the right side of each of the equations (39) to (43)) determined according to the value (G value in the G image 42g).

そして、W画像42wの各画素のうち、原画像41のW画素に対応する配置位置の各画素のW値(W'i,j)は、当該画素に対応する原画像41のW画素の階調値Swi,jに一致するように決定される。   Then, among the pixels of the W image 42w, the W value (W′i, j) of each pixel at the arrangement position corresponding to the W pixel of the original image 41 is the level of the W pixel of the original image 41 corresponding to the pixel. It is determined to match the key value Swi, j.

これによりW画像42wが、基準輝度分布画像としてのG画像42gの輝度分布を反映させて生成される。   Thereby, the W image 42w is generated by reflecting the luminance distribution of the G image 42g as the reference luminance distribution image.

以上が、STEP2において、外界画像生成部32が4種類の色別画像42r,42g,42b,42wを生成する処理(デモザイキング処理)の詳細である。   The above is the details of the process (the demosaicing process) in which the external image generation unit 32 generates the four color-specific images 42r, 42g, 42b, and 42w in STEP2.

補足すると、G画像42g以外の色別画像42を基準輝度分布画像として生成し、その基準輝度分布画像の輝度分布を反映させて他の3種類の色別画像を生成するようにしてもよい。例えば、原画像41におけるG画素の全体のうち、階調値が所定値以下の微小値となっているG画素(所謂、黒つぶれ状態のG画素)が比較的多いような場合には、W画像42wを基準輝度分布画像として生成し、その基準輝度分布画像の輝度分布を反映させて他の3種類の色別画像(R画像42r、G画増42g、B画像42b)を生成するようにしてもよい。   Supplementally, a color-specific image 42 other than the G image 42g may be generated as a reference luminance distribution image, and the other three types of color-specific images may be generated by reflecting the luminance distribution of the reference luminance distribution image. For example, in a case where there are a relatively large number of G pixels (so-called blackened G pixels) whose gradation value is a minute value equal to or less than a predetermined value among all the G pixels in the original image 41, W The image 42w is generated as a reference luminance distribution image, and the other three types of color-specific images (R image 42r, G image increase 42g, and B image 42b) are generated by reflecting the luminance distribution of the reference luminance distribution image. May be.

また、原画像41の全体を複数の領域に区分けし、各領域毎に、4種類の色別画像42のうちのいずれか1つを基準輝度分布画像として生成し、その基準輝度分布画像の輝度分布を反映させて残りの3種類の色別画像42を生成するようにしてもよい。   Further, the entire original image 41 is divided into a plurality of regions, and for each region, one of the four types of color-specific images 42 is generated as a reference luminance distribution image, and the luminance of the reference luminance distribution image is generated. The remaining three types of color-specific images 42 may be generated by reflecting the distribution.

STEP2に続くSTEP3では、外界画像生成部32は、カラー画像43を生成する。このカラー画像43は、図8に示すように、その各画素に、R(赤)の階調値であるR値(Ci,j_r)と、G(緑)の階調値であるG値(Ci,j_g)と、B(青)の階調値であるB値(Ci,j_b)との組(3色の階調値の組)として構成される階調値Ci,jが割り当てられた画像である。   In STEP 3 following STEP 2, the external image generation unit 32 generates a color image 43. As shown in FIG. 8, the color image 43 includes an R value (Ci, j_r) which is a gradation value of R (red) and a G value (G) which is a gradation value of G (green). Ci, j_g) and a gradation value Ci, j configured as a set of B values (Ci, j_b) that is a gradation value of B (blue) (a set of gradation values of three colors) are assigned. It is an image.

このカラー画像43は、色別画像42のうちのR画像42r、G画増42b、B画像42bの合成画像として生成される。具体的には、次式(44a)〜(44c)で示す如く、カラー画像43の各画素の階調値Ci,jのうちのR値(Ci,j_r)、G値(Ci,j_g)、B値(Ci,j_b)として、それぞれ、R画像42rの対応画素のR値(R'i,j)、G画像42gの対応画素のG値(G'i,j)、B画像42bの対応画素のB値(B'i,j)がそのまま設定される。   The color image 43 is generated as a composite image of the R image 42r, the G image increase 42b, and the B image 42b among the color-specific images 42. Specifically, as shown by the following expressions (44a) to (44c), the R value (Ci, j_r), G value (Ci, j_g) of the gradation values Ci, j of each pixel of the color image 43, As the B value (Ci, j_b), the R value (R′i, j) of the corresponding pixel of the R image 42r, the G value (G′i, j) of the corresponding pixel of the G image 42g, and the correspondence of the B image 42b, respectively. The B value (B′i, j) of the pixel is set as it is.


Ci,j_r=R'i,j ……(44a)
Ci,j_g=G'i,j ……(44b)
Ci,j_b=B'i,j ……(44c)

これにより、カラー画像43が生成される。

Ci, j_r = R'i, j (44a)
Ci, j_g = G'i, j (44b)
Ci, j_b = B'i, j (44c)

Thereby, a color image 43 is generated.

STEP3に続くSTEP4では、外界画像生成部32は、広ダイナミックレンジ画像44を生成する。   In STEP 4 following STEP 3, the external image generation unit 32 generates a wide dynamic range image 44.

広ダイナミックレンジ画像44は、前記色別画像42やカラー画像43よりもダイナミックレンジを拡張させた画像である。この広ダイナミックレンジ画像44は、図9に示すように、その各画素に、階調値Di,jを割り当てたモノトーン画像である。   The wide dynamic range image 44 is an image in which the dynamic range is expanded as compared with the color-specific image 42 and the color image 43. As shown in FIG. 9, the wide dynamic range image 44 is a monotone image in which gradation values Di, j are assigned to the respective pixels.

この場合、広ダイナミックレンジ画像44の各画素の階調値Di,jは、次のように決定される。   In this case, the gradation value Di, j of each pixel of the wide dynamic range image 44 is determined as follows.

外界画像生成部32は、まず、カラー画像43の各画素の3種類の階調値(Ci,j_r、Ci,j_g、Ci,j_b)(又はR画像42r、G画像42g、及びB画像42bのそれぞれの対応画素の階調値R'i,j、G'i,j、B'i,j)から、カラー画像43の各画素の輝度値に相当する参照階調値Yi,jを以下の式(45)により算出する。   First, the external image generation unit 32 has three kinds of gradation values (Ci, j_r, Ci, j_g, Ci, j_b) (or R image 42r, G image 42g, and B image 42b) of each pixel of the color image 43. From the gradation values R′i, j, G′i, j, B′i, j) of the corresponding pixels, the reference gradation values Yi, j corresponding to the luminance values of the pixels of the color image 43 are expressed as follows: Calculated according to equation (45).


Yi,j=0.3×Ci,jr+0.59×Ci,jg+0.11×Ci,jb ……(45)

従って、Yi,jは、Ci,jr(=R'i,j)、Ci,jg(=G'i,j)、Ci,jb(=B'i,j)の線形結合値として算出される。この場合、各項の重み付け係数(0.3,0.59,0.11)は、実験等により決定したものである。ただし、これらの重み係数は、他の値を用いてもよい。

Yi, j = 0.3 × Ci, jr + 0.59 × Ci, jg + 0.11 × Ci, jb (45)

Therefore, Yi, j is calculated as a linear combination value of Ci, jr (= R'i, j), Ci, jg (= G'i, j) and Ci, jb (= B'i, j). . In this case, the weighting coefficient (0.3, 0.59, 0.11) of each term is determined by experiments or the like. However, other values may be used for these weighting factors.

次いで、外界画像生成部32は、以下の式(46)により、原画像41の各W画素の階調値Swi,jと、各W画素に対応する配置位置のカラー画像43の画素の参照階調値Yijとの比ai,jを、感度差補正係数として算出する。   Next, the external image generation unit 32 uses the following equation (46) to calculate the gradation value Swi, j of each W pixel of the original image 41 and the pixel reference floor of the color image 43 at the arrangement position corresponding to each W pixel. A ratio a i, j with the tone value Y ij is calculated as a sensitivity difference correction coefficient.


ai,j=Swi,j/Yi,j ……(46)

そして、外界画像生成部32は、以下の式(47)の重み付け関数w(x)を用いて、広ダイナミックレンジ画像44の各画素に割り当てる階調値(Di,j)を算出する。

ai, j = Swi, j / Yi, j (46)

Then, the external image generation unit 32 calculates the gradation value (Di, j) to be assigned to each pixel of the wide dynamic range image 44 using the weighting function w (x) of the following equation (47).


w(x)=1/(1+exp(g×(0.5−x))) ……(47)

但し、w(x)はシグモイド関数、gはゲイン、exp( )は自然対数の底eの指数関数である。

w (x) = 1 / (1 + exp (g × (0.5−x))) (47)

Here, w (x) is a sigmoid function, g is a gain, and exp () is a natural logarithm base e exponential function.

具体的には、外界画像生成部32は、色別画像42のうちのW画像42wの階調値(W'i,j)を最大階調値(分解能が8bitであれば255、10bitであれば1023)に対して規格化した規格化階調値(hi,j)と、カラー画像43から上記式(45)により算出した参照階調値(Yi,j)を、最大階調値で規格化した規格化階調値(yi,j)とから、以下の式(48)により、規格化合成階調値(hdri,j)を算出する。なお、階調値を最大階調値に対して規格化するとは、階調値を最大階調値で除することを意味する。例えば、W'i,j=200,Yi,j=65で、最大階調値が255であるときには、hi,j=200/255,yi,j=65/255となる。   Specifically, the external image generation unit 32 sets the gradation value (W′i, j) of the W image 42w in the color-specific image 42 to the maximum gradation value (255 or 10 bits if the resolution is 8 bits). For example, the normalized gradation value (hi, j) normalized with respect to 1023) and the reference gradation value (Yi, j) calculated from the color image 43 by the above equation (45) are standardized with the maximum gradation value. From the normalized gradation value (yi, j), the normalized composite gradation value (hdri, j) is calculated by the following equation (48). Note that normalizing the gradation value with respect to the maximum gradation value means dividing the gradation value by the maximum gradation value. For example, when W′i, j = 200, Yi, j = 65 and the maximum gradation value is 255, hi, j = 200/255, yi, j = 65/255.


hdri,j=((1−w(hi,j))×hi,j+w(hi,j)×a'×yi,j)/a'
……(48)

但し、a'は、原画像41のW画素に対応する画素を対象とするときは、上記式(46)により算出した当該画素の感度差補正係数ai,j、原画像41のR画素又はG画素又はB画素に対応する画素を対象とするときは、周囲に配置されたW画素に対応する画素の感度差補正係数ai,jである。

hdri, j = ((1-w (hi, j)) * hi, j + w (hi, j) * a '* yi, j) / a'
...... (48)

However, when a ′ is a pixel corresponding to the W pixel of the original image 41, the sensitivity difference correction coefficient a i, j of the pixel calculated by the above equation (46), the R pixel of the original image 41, or G When the pixel corresponding to the pixel or the B pixel is targeted, the sensitivity difference correction coefficient a i, j of the pixel corresponding to the W pixel arranged in the periphery is used.

そして、外界画像生成部32は、低階調のコントラスを保つために、以下の式(49)により規格化合成階調値(hdri,j)にγ変換処理を施すことで、広ダイナミックレンジ画像44の対象画素に割り当てる階調値(Di,j)を決定する。   Then, in order to maintain a low gradation contrast, the external image generation unit 32 performs a γ conversion process on the normalized composite gradation value (hdri, j) according to the following equation (49), so that a wide dynamic range image is obtained. The gradation value (Di, j) assigned to the 44 target pixels is determined.


Di,j=Mb×(hdri,j)(1/γ) ……(49)

但し、Mbは広ダイナミックレンジ画像44の最大階調値である。

Di, j = Mb × (hdri, j) (1 / γ) (49)

However, Mb is the maximum gradation value of the wide dynamic range image 44.

このように各画素の階調値(Di,j)を決定することで、広ダイナミックレンジ画像44が生成される。   Thus, the wide dynamic range image 44 is generated by determining the gradation value (Di, j) of each pixel.

広ダイナミックレンジ画像44を生成するために用いた上記式(47)のシグモイド関数は、重み付け関数の一例であり、他の重み付け関数を用いてもよい。   The sigmoid function of the above equation (47) used for generating the wide dynamic range image 44 is an example of a weighting function, and other weighting functions may be used.

本実施形態では、以上説明した外界画像生成部32の処理によって、4種類の色別画像42(42r,42g,42b,42w)と、カラー画像43と、広ダイナミックレンジ画像44とが外界画像として生成される。この場合、色別画像42のうちのW画像42wは、カラーフィルタを介さずに受光するW受光画素の出力信号の強度を示すW画素の階調値Swi,jを用いて生成される画像であるので、R画像42rや、G画像42g、B画像42bに比して高感度な画像としての意味を持つ。   In the present embodiment, four types of color-specific images 42 (42r, 42g, 42b, 42w), a color image 43, and a wide dynamic range image 44 are formed as external images by the processing of the external image generation unit 32 described above. Generated. In this case, the W image 42w of the color-specific images 42 is an image generated by using the gradation value Swi, j of the W pixel indicating the intensity of the output signal of the W light receiving pixel that receives light without passing through the color filter. Therefore, it has a meaning as an image having higher sensitivity than the R image 42r, the G image 42g, and the B image 42b.

なお、外界画像生成部32は、4種類の色別画像42(42r,42g,42b,42w)と、カラー画像43と、広ダイナミックレンジ画像44との全ての画像を生成せずともよく、いずれかの外界画像の生成を省略してもよい。例えば、広ダイナミックレンジ画像44の生成を省略してもよい。   The external image generation unit 32 does not have to generate all the four types of color-specific images 42 (42r, 42g, 42b, 42w), the color image 43, and the wide dynamic range image 44. The generation of the external image may be omitted. For example, the generation of the wide dynamic range image 44 may be omitted.

次に、通信信号検出部33の処理を図10及び図11を参照して説明する。   Next, the processing of the communication signal detection unit 33 will be described with reference to FIGS.

まず、図10を参照して通信信号検出部33の処理に関する基礎的事項を説明すると、カメラ2の撮像素子22のW受光画素は、カラーフィルタを介さずにカメラ2への入射光(これは一般に可視光以外の波長域の電磁波を含む)を受光する。このため、W受光画素の受光感度(入射光の強度に対する受光画素の受光レベル(出力信号の強度)の比率)と、入射光の波長との関係(スペクトル特性)は、W受光画素を構成する受光素子自体の構造や材質に依存したものとなる。   First, the basic matters regarding the processing of the communication signal detection unit 33 will be described with reference to FIG. 10. The W light receiving pixel of the image sensor 22 of the camera 2 is incident on the camera 2 without passing through the color filter (this is In general, it includes electromagnetic waves in a wavelength range other than visible light. For this reason, the relationship (spectral characteristics) between the light receiving sensitivity (the ratio of the light receiving level (output signal intensity) of the light receiving pixel to the intensity of the incident light) and the wavelength of the incident light constitutes the W light receiving pixel. It depends on the structure and material of the light receiving element itself.

従って、W受光画素の受光感度のスペクトル特性は、一般に、例えば図10の実線のグラフawで示すような特性となる。この場合、W受光画素は、可視光域の波長はもちろん、近赤外領域の波長を含む幅広い波長域において感度を有し、当該幅広い波長域の入射光を検出可能である。   Therefore, the spectral characteristic of the light receiving sensitivity of the W light receiving pixel is generally a characteristic as shown by a solid line graph aw in FIG. 10, for example. In this case, the W light receiving pixel has sensitivity in a wide wavelength range including a wavelength in the near infrared region as well as a wavelength in the visible light region, and can detect incident light in the wide wavelength region.

一方、カメラ2への入射光をR,G,Bの各色のカラーフィルターを介して受光するR受光画素、G受光画素、B受光画素は、カメラ2への入射光のうち、それぞれに対応するカラーフィルタを透過可能な波長域の光だけを受光する。   On the other hand, R light receiving pixels, G light receiving pixels, and B light receiving pixels that receive light incident on the camera 2 through color filters of R, G, and B colors respectively correspond to the light incident on the camera 2. Only light in the wavelength range that can pass through the color filter is received.

このため、R受光画素、G受光画素、B受光画素のそれぞれの受光感度と、入射光の波長との関係(スペクトル特性)は、受光素子自体の特性と、それぞれに対応するカラーフィルタの透過特性とに依存したものとなる。   For this reason, the relationship (spectral characteristics) between the light receiving sensitivity of each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel and the wavelength of the incident light depends on the characteristics of the light receiving element itself and the transmission characteristics of the corresponding color filters. It depends on and.

この場合、R受光画素、G受光画素、B受光画素のそれぞれの受光感度のスペクトル特性は、それぞれ、一般に、図10の実線のグラフar,ag,abで例示するような特性となる。この場合、R受光画素、G受光画素、B受光画素の受光感度は、それぞれ赤色の波長、緑色の波長、青色の波長の近辺の比較的狭い波長域で感度を有するような凸波形の特性となる。   In this case, the spectral characteristics of the light receiving sensitivities of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel are generally characteristics as illustrated by solid line graphs a r, a g, and a b in FIG. In this case, the light receiving sensitivities of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel have characteristics of a convex waveform that has sensitivity in a relatively narrow wavelength region near the red wavelength, the green wavelength, and the blue wavelength, respectively. Become.

従って、R受光画素、G受光画素、B受光画素のそれぞれが検出可能な波長域(それぞのれ受光画素の受光感度が相対的に高感度となる波長域)は、W受光画素よりも狭く、その大部分が可視光域内の波長となる。そして、R受光画素、G受光画素、B受光画素のそれぞれの受光感度は、近赤外領域など、可視光域から逸脱した波長域では、可視光域での最大の受光感度に比して小さなものとなる。   Therefore, the wavelength range in which each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel can be detected (the wavelength range in which the light receiving sensitivity of each light receiving pixel is relatively high) is narrower than that of the W light receiving pixel. Most of the wavelengths are in the visible light range. The light receiving sensitivity of each of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel is smaller than the maximum light receiving sensitivity in the visible light region in a wavelength region that deviates from the visible light region, such as the near infrared region. It will be a thing.

このため、W受光画素で検出可能な波長域(W受光画素の受光感度が相対的に高感度となる波長域)のうち、本実施形態における通信信号の波長域としての近赤外領域に着目すると、該近赤外領域は、R受光画素、G受光画素、B受光画素の全体が検出可能な波長域(図10に示すWL)、すなわち、R受光画素、G受光画素、B受光画素のそれぞれが検出可能な波長域を合成した波長域WLの端部寄りの波長域、もしくは、該波長域WLから逸脱した波長域となる。   For this reason, attention is paid to the near infrared region as the wavelength region of the communication signal in the present embodiment in the wavelength region that can be detected by the W light receiving pixel (the wavelength region in which the light receiving sensitivity of the W light receiving pixel is relatively high). Then, the near-infrared region is a wavelength region (WL shown in FIG. 10) in which the entire R light receiving pixel, G light receiving pixel, and B light receiving pixel can be detected, that is, the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel. Each becomes a wavelength region near the end of the wavelength region WL obtained by synthesizing the detectable wavelength region, or a wavelength region deviating from the wavelength region WL.

従って、近赤外領域の波長では、W受光画素の受光感度と、R受光画素、G受光画素、B受光画素のそれぞの受光感度との差(相違度合い)は、R受光画素、G受光画素、B受光画素のそれぞの受光感度が比較的大きなものとなる波長域に較べて、顕著なものとなる。   Therefore, at the wavelength in the near infrared region, the difference (degree of difference) between the light receiving sensitivity of the W light receiving pixel and the light receiving sensitivity of the R light receiving pixel, the G light receiving pixel, and the B light receiving pixel is as follows. The light receiving sensitivity of each of the pixels and the B light receiving pixels is remarkable as compared with the wavelength region where the light receiving sensitivity is relatively large.

通信信号検出部33は、上記の如き特性を利用して、近赤外領域の波長域の通信信号を検出する。その検出のための処理を、図11のフローチャートの従って以下に説明する。   The communication signal detector 33 detects a communication signal in the near-infrared wavelength region using the characteristics as described above. The processing for the detection will be described below according to the flowchart of FIG.

なお、通信信号検出部33に関する図11のフローチャートの処理には、外界画像生成部32に関する図3のフローチャートの一部の処理と同じ処理が含まれる。この場合、図3と図11とで互いに同じ処理は、通信信号検出部33及び外界画像生成部32の両方で各別に実行する必要はなく、一方だけで実行するようにしてもよい。その場合、通信信号検出部33及び外界画像生成部32は、互いに共通の処理機能を有することとなる。   Note that the processing of the flowchart of FIG. 11 related to the communication signal detection unit 33 includes the same processing as part of the processing of the flowchart of FIG. In this case, the same processes in FIG. 3 and FIG. 11 do not need to be executed separately by both the communication signal detector 33 and the external image generator 32, but may be executed by only one of them. In this case, the communication signal detection unit 33 and the external image generation unit 32 have a common processing function.

以下、図11のフローチャートの処理を説明すると、まず、STEP11において、原画像取得部31により原画像41(図2(b)参照)を取得して画像メモリ40に保持する。このSTEP11の処理は、前記STEP1の処理と同じである。従って、既にSTEP1の処理が実行されている場合には、STEP11の処理を改めて行う必要はない。   In the following, the processing of the flowchart of FIG. 11 will be described. First, in STEP 11, the original image 41 (see FIG. 2B) is acquired by the original image acquisition unit 31 and held in the image memory 40. The processing of STEP 11 is the same as the processing of STEP 1 described above. Therefore, when the processing of STEP1 is already executed, it is not necessary to perform the processing of STEP11 again.

次いで、STEP12〜16の処理が、通信信号検出部33の信号検出用画像生成部34により実行される。   Next, the processing of STEPs 12 to 16 is executed by the signal detection image generation unit 34 of the communication signal detection unit 33.

STEP12では、信号検出用画像生成部34は、前記STEP2と同じ処理によって、原画像から4種類の色別画像42(R画像42r、G画像42g、B画像42b、W画像42w)を生成し、それらの色別画像42を画像メモリ40に保持する。なお、前記STEP2の処理により既に色別画像42が生成されている場合には、STEP12の処理を改めて行なう必要はない。   In STEP 12, the signal detection image generator 34 generates four types of color-specific images 42 (R image 42r, G image 42g, B image 42b, and W image 42w) from the original image by the same processing as in STEP 2. Those color-specific images 42 are stored in the image memory 40. If the color-specific image 42 has already been generated by the processing of STEP2, it is not necessary to perform the processing of STEP12 again.

次いで、STEP13において、信号検出用画像生成部34は、原画像41内に、通信信号を検出しようとする検出対象領域を設定する。例えば、前走車から送信される通信信号を受信しようとする場合、原画像41中で、前走車が写っているか、もしくは写っている可能性の高い領域(自車両1とほぼ同じ高さの領域等)が検出対象領域として設定される。   Next, in STEP 13, the signal detection image generation unit 34 sets a detection target region in which the communication signal is to be detected in the original image 41. For example, when a communication signal transmitted from a preceding vehicle is to be received, an area in the original image 41 where the preceding vehicle is shown or is likely to be shown (almost the same height as the host vehicle 1). Are set as detection target areas.

また、道路脇の通信設備から送信される通信信号を受信するような場合には、該通信設備の送信部が写っているか、もしくは、写っている可能性の高い領域が検出対象領域として設定される。   In addition, when receiving a communication signal transmitted from a communication facility on the side of the road, a region where the transmission unit of the communication facility is captured or is likely to be captured is set as a detection target region. The

なお、検出対象領域は受信しようとする通信信号の送信元の種別に応じてあらかじめ定めれた所定の領域であってもよい。   The detection target area may be a predetermined area determined in advance according to the type of the transmission source of the communication signal to be received.

あるいは、前記外界画像生成部32で生成された外界画像(色別画像42、カラー画像43、広ダイナミックレンジ画像44)のうちのいずれか1つ以上の画像から、受信しようとする通信信号の送信元の存在箇所を特定した上で、それに応じて検出対象領域を設定するようにしてもよい。あるいは、原画像41の全体の領域を検出対象領域として設定するようにしてもよい。   Alternatively, transmission of a communication signal to be received from any one or more of the external images (color-specific image 42, color image 43, wide dynamic range image 44) generated by the external image generation unit 32. After specifying the original location, the detection target area may be set accordingly. Alternatively, the entire area of the original image 41 may be set as the detection target area.

次いで、信号検出用画像生成部34は、STEP14の処理を実行する。このSTEP14では、信号検出用画像生成部34は、検出対象領域におけるW画像42w(詳しくは、STEP12(又はSTEP2)で先に生成されたW画像42wのうちの検出対象領域内の画像)を第1参照画像として得る。従って、この第1参照画像は、図12(a)に示す如く、その各画素の階調値として、前記した如く決定されるグレー階調の階調値W'i,jを割り当てた画像である。   Next, the signal detection image generation unit 34 executes the processing of STEP14. In this STEP 14, the signal detection image generating unit 34 selects the W image 42w in the detection target region (specifically, the image in the detection target region in the W image 42w previously generated in STEP 12 (or STEP 2)). Obtained as one reference image. Therefore, as shown in FIG. 12A, the first reference image is an image to which the grayscale gradation value W′i, j determined as described above is assigned as the gradation value of each pixel. is there.

補足すると、色別画像42を生成する前に、検出対象領域を設定するようにしてもよい。その場合、信号検出用画像生成部34の処理では、設定した検出対象領域においてのみ、色別画像42を生成するようにしてもよい。なお、この場合には、色別画像42のうちのW画像42wは、第1参照画像として生成されることとなる。   Supplementally, the detection target region may be set before the color-specific image 42 is generated. In that case, in the process of the signal detection image generation unit 34, the color-specific image 42 may be generated only in the set detection target region. In this case, the W image 42w of the color-specific images 42 is generated as the first reference image.

次いで、信号検出用画像生成部34は、STEP15の処理を実行する。このSTEP15では、信号検出用画像生成部34は、検出対象領域におけるR画像42r、G画像42g及びB画像42b(詳しくは、STEP12(又はSTEP2)で先に生成されたR画像42r、G画像42g及びB画像42bのそれぞれの検出対象領域内の画像)から、検出対象領域の各画素に階調値(モノトーンの階調値)を割り当ててなる第2参照画像を生成する。以降、図12(b)に示す如く、第2参照画像の各画素(配置位置が(i,j)である画素)の階調値をPYi,jと表記する。   Next, the signal detection image generation unit 34 executes the processing of STEP15. In this STEP 15, the signal detection image generating unit 34 performs the R image 42r, the G image 42g, and the B image 42b (specifically, the R image 42r and the G image 42g previously generated in STEP 12 (or STEP 2)) in the detection target region. And a second reference image in which a gradation value (monotone gradation value) is assigned to each pixel in the detection target area. Hereinafter, as shown in FIG. 12B, the gradation value of each pixel of the second reference image (the pixel whose arrangement position is (i, j)) is denoted as PYi, j.

この第2参照画像は、例えば次のように生成される。信号検出用画像生成部34は、まず、第2参照画像の前画像としてのモノトーン階調のベース第2参照画像を生成する。以降、ベース第2参照画像の各画素(配置位置が(i,j)である画素)の階調値をPY0i,jと表記する。   For example, the second reference image is generated as follows. First, the signal detection image generation unit 34 generates a base second reference image of monotone gradation as a previous image of the second reference image. Hereinafter, the gradation value of each pixel (the pixel whose arrangement position is (i, j)) of the base second reference image is denoted as PY0i, j.

このベース第2参照画像の各画素の階調値PY0i,jは、R画像42r中の対応画素(配置位置が同じ画像)の階調値R'i,jと、G画像42g中の対応画素の階調値G'i,jと、B画像42b中の対応画素の階調値B'i,jとを次式(50)により線形結合することにより、決定される。   The gradation value PY0i, j of each pixel of the base second reference image is equal to the gradation value R'i, j of the corresponding pixel (image having the same arrangement position) in the R image 42r and the corresponding pixel in the G image 42g. Is determined by linearly combining the gradation value G′i, j of the pixel and the gradation value B′i, j of the corresponding pixel in the B image 42b by the following equation (50).


PY0i,j=αr×R'i,j+αg×G'i,j+αb×B'i,j ……(50)

αr,αg,αbは、既定値の重み付け係数である。それらの値としては、例えば前記式(45)と同じ値(0.3,0.59,0.11)を用いることができる。ただし、αr,αg,αbの値を、式(45)に示す値と異ならせてもよい。

PY0i, j = αr × R′i, j + αg × G′i, j + αb × B′i, j (50)

αr, αg, and αb are predetermined weighting coefficients. As those values, for example, the same values (0.3, 0.59, 0.11) as those in the formula (45) can be used. However, the values of αr, αg, and αb may be different from the values shown in Expression (45).

このようにして算出される階調値PY0i,jは、R画像42r、G画像42g及びB画像42bのそれぞれの互いに対応する配置位置の画素の階調値R'i,j、G'i,j、B'i,jの線形結合値であるので、カメラ2の入射光に対する該階調値PY0i,jの感度特性(入射光の波長に対するスペクトル特性)は、R受光画素、G受光画素、B受光画素のそれぞれの受光感度の特性を合成した特性を有する。例えば、入射光の波長に対する該階調値PY0i,jの感度特性は、図10の実線のグラフayで例示するような特性となる。この場合、R受光画素、G受光画素、B受光画素の全体が検出可能な波長域WLにおいて、階調値PY0i,jが感度を有するものとなる。   The gradation values PY0i, j calculated in this way are the gradation values R′i, j, G′i, j of the pixels at the arrangement positions corresponding to each of the R image 42r, the G image 42g, and the B image 42b. Since this is a linear combination value of j and B′i, j, the sensitivity characteristic (spectral characteristic with respect to the wavelength of the incident light) of the gradation value PY0i, j with respect to the incident light of the camera 2 is R light receiving pixel, G light receiving pixel, The light receiving sensitivity characteristic of each of the B light receiving pixels is combined. For example, the sensitivity characteristic of the gradation value PY0i, j with respect to the wavelength of the incident light is a characteristic illustrated by a solid line graph ay in FIG. In this case, the gradation value PY0i, j has sensitivity in the wavelength range WL where the entire R light receiving pixel, G light receiving pixel, and B light receiving pixel can be detected.

そして、信号検出用画像生成部34は、検出対象領域における各画素の階調値PYi,jを、次式(51)によりPY0i,jに応じて決定してなる画像を、第2参照画像として生成する。すなわち、信号検出用画像生成部34は、第2参照画像の各画素の階調値PYi,jを、その配置位置に対応する上記ベース第2参照画像の画素の階調値PY0i,jに所定のゲイン係数βを乗じてなる値とすることで、第2参照画像を生成する。   Then, the signal detection image generation unit 34 sets, as the second reference image, an image obtained by determining the gradation value PYi, j of each pixel in the detection target region according to PY0i, j by the following equation (51). Generate. That is, the signal detection image generation unit 34 sets the gradation value PYi, j of each pixel of the second reference image to the gradation value PY0i, j of the pixel of the base second reference image corresponding to the arrangement position. The second reference image is generated by multiplying the gain coefficient β of the second reference image.


PYi,j=β×PY0i,j ……(51)

ここで、上記ゲイン係数βは、あらかじめ実験等に基づいて定められた値の係数である。その値は、第1参照画像の各画素の階調値W'i,jに含まれる、可視光領域の波長に対応する成分と、第2参照画像の各画素の階調値PYi,jに含まれる、可視光領域の波長に対応する成分とをほぼ一致させることができるように設定されている。

PYi, j = β × PY0i, j (51)

Here, the gain coefficient β is a coefficient having a value determined in advance based on experiments or the like. The value is the component corresponding to the wavelength of the visible light region included in the gradation value W′i, j of each pixel of the first reference image and the gradation value PYi, j of each pixel of the second reference image. It is set so that the component included and corresponding to the wavelength in the visible light region can be substantially matched.

以上のように第2参照画像は、その各画素の階調値PYi,jが、検出対象領域におけるR画像42r、G画像42g及びB画像42bのそれぞれの互いに対応する配置位置の画素の階調値R'i,j、G'i,j、B'i,jを線形結合してなる値(該画素の合成輝度値に相当する値)に、ゲイン係数βを乗じてなる値となるように生成される。   As described above, in the second reference image, the gradation value PYi, j of each pixel is the gradation of the pixel at the arrangement position corresponding to each of the R image 42r, the G image 42g, and the B image 42b in the detection target region. A value obtained by multiplying a value obtained by linearly combining values R′i, j, G′i, j, and B′i, j (a value corresponding to the combined luminance value of the pixel) by a gain coefficient β. Is generated.

なお、第2参照画像は、第1参照画像よりも前に生成するようにしてもよい。   Note that the second reference image may be generated before the first reference image.

次に、信号検出用画像生成部34は、STEP16の処理を実行する。このSTEP16では、信号検出用画像生成部34は、上記の如く生成した第1参照画像と第2参照画像との差の画像を信号検出用画像45として生成する。以降、図12(c)に示す如く、信号検出用画像45の各画素(配置位置が(i,j)である画素)の階調値をDfi,jと表記する。   Next, the signal detection image generation unit 34 executes the processing of STEP16. In STEP 16, the signal detection image generation unit 34 generates an image of the difference between the first reference image and the second reference image generated as described above as the signal detection image 45. Hereinafter, as shown in FIG. 12C, the gradation value of each pixel (the pixel whose arrangement position is (i, j)) of the signal detection image 45 is denoted as Dfi, j.

この信号検出用画像45は、その各画素((i,j)の位置の画素)の階調値Dfi,jを、次式(52)に示す如く、第1参照画像の対応する位置の画素の階調値W'i,jと、第2参照画像の対応する位置の画素の階調値PYi,jとの偏差に一致させた画像である。   In the signal detection image 45, the gradation value Dfi, j of each pixel (the pixel at the position (i, j)) is set to the pixel at the corresponding position in the first reference image as shown in the following equation (52). The tone value W′i, j of the second reference image and the tone value PYi, j of the pixel at the corresponding position in the second reference image are matched with each other.


Dfi,j=W'i,j−PYi,j ……(52)

以上のSTEP12〜16の信号検出用画像生成部34の処理により、信号検出用画像45が生成される。

Dfi, j = W'i, j-PYi, j (52)

The signal detection image 45 is generated by the processing of the signal detection image generation unit 34 in STEPs 12 to 16 described above.

次いで、STEP17において、通信信号検出部33は、上記の如く生成した信号検出用画像45を基に、通信信号を検出する。   Next, in STEP 17, the communication signal detector 33 detects a communication signal based on the signal detection image 45 generated as described above.

ここで、第1参照画像の各画素の階調値W'i,jと、これに対応する第2参照画像の各画素の階調値PYi,jとは、それぞれに含まれる可視光領域の波長に対応する成分がほぼ一致するので、原画像41の検出対象領域に対応するカメラ2の撮像素子22の箇所に近赤外領域の波長の通信信号が入射している場合には、上記信号検出用画像45において、通信信号の入射箇所の画素の階調値Dfi,jがその周囲の箇所に較べて比較的顕著に大きなものとなる。   Here, the gradation value W′i, j of each pixel of the first reference image and the gradation value PYi, j of each pixel of the second reference image corresponding thereto correspond to the visible light region included in each of them. Since the components corresponding to the wavelengths substantially match, when a communication signal having a wavelength in the near-infrared region is incident on the position of the image sensor 22 of the camera 2 corresponding to the detection target region of the original image 41, the above signal In the detection image 45, the gradation value Dfi, j of the pixel where the communication signal is incident is relatively significantly larger than that of the surrounding area.

これに対して、検出対象領域に対応する箇所に通信信号が入射していない場合には、一般に、上記信号検出用画像45には、階調値Dfi,jが顕著に大きなものとなるような箇所は生じ難い。   On the other hand, when the communication signal is not incident on the portion corresponding to the detection target region, generally, the gradation value Dfi, j is remarkably large in the signal detection image 45. The place is hard to occur.

従って、信号検出用画像45は、近赤外領域の波長の受光成分を強調した画像となる。   Therefore, the signal detection image 45 is an image in which a light receiving component having a wavelength in the near infrared region is emphasized.

そこで、通信信号検出部33は、上記信号検出用画像45における階調値Dfi,jの分布に基づいて、撮像素子22の検出対象領域に対応する箇所に通信信号が入射したか否かを検出する。例えば、該階調値Dfi,jが所定値以上となるような所定面積以上の箇所が、上記信号検出用画像45中に存在する場合には、撮像素子22の検出対象領域に対応する箇所に通信信号が入射したことを検出する。そして、通信信号検出部33は、そのような箇所が信号検出用画像45中で検出されない場合には、撮像素子22の検出対象領域に対応する箇所への通信信号の入射が無いものと判断する。   Therefore, the communication signal detection unit 33 detects whether or not a communication signal is incident on a location corresponding to the detection target area of the image sensor 22 based on the distribution of the gradation values Dfi, j in the signal detection image 45. To do. For example, when a portion having a predetermined area or larger such that the gradation value Dfi, j is equal to or larger than a predetermined value exists in the signal detection image 45, the portion corresponding to the detection target region of the image sensor 22 is displayed. It detects that a communication signal has entered. Then, when such a location is not detected in the signal detection image 45, the communication signal detection unit 33 determines that the communication signal is not incident on the location corresponding to the detection target region of the image sensor 22. .

これにより、ON・OFFのパルス列により構成される近赤外領域の波長の通信信号を高い信頼性で検出することができる。   Thereby, it is possible to detect a communication signal having a wavelength in the near-infrared region constituted by an ON / OFF pulse train with high reliability.

なお、上記信号検出用画像45において所定値以上の階調値Dfi,jを有する箇所における階調値Dfi,jの大きさの変化に基づいて、カメラ2の撮像素子22に入射した通信信号の強度の変化を検出するようにすることも可能である。   Note that the communication signal incident on the image sensor 22 of the camera 2 is based on the change in the magnitude of the gradation value Dfi, j at a location having a gradation value Dfi, j that is equal to or greater than a predetermined value in the signal detection image 45. It is also possible to detect a change in intensity.

また、色別画像42、カラー画像43、広ダイナミックレンジ画像44などの可視画像で通信を行う対象を検知し、信号検出用画像45(通信信号強調画像)の対応する位置の階調値及び該階調値の変化を用いて通信信号の検出を行なってもよい。   Further, a target to be communicated is detected with a visible image such as the color-specific image 42, the color image 43, and the wide dynamic range image 44, and the gradation value of the corresponding position of the signal detection image 45 (communication signal emphasized image) A communication signal may be detected using a change in gradation value.

以上が、通信信号検出部33の処理の詳細である。   The details of the processing of the communication signal detection unit 33 have been described above.

なお、前記式(51)におけるゲイン係数βは、本実施形態では、一定値としたが、カメラ2の撮像条件に応じて適宜変化させるようにしてもよい。例えば、周囲の光環境の状態(昼間、夕方、夜間、日陰、日なた等)や、カメラ2の露出などに応じてゲイン係数βの値を変化させるようにしてもよい。また、可視光の影響を受け難い夜間においては、第1参照画像と第2参照画像とのいずれにおいても、それらの画素の階調値に含まれる可視光域の成分が微小なものとなるので、例えば第1参照画像だけを用いて(換言すれば、式(51)のβを“0”として)、近赤外領域の波長の通信信号を検出するようにすることも可能である。   The gain coefficient β in the equation (51) is a constant value in the present embodiment, but may be changed as appropriate according to the imaging conditions of the camera 2. For example, the value of the gain coefficient β may be changed according to the ambient light environment state (daytime, evening, nighttime, shade, sunlit, etc.), the exposure of the camera 2, and the like. In addition, at night when it is difficult to be affected by visible light, the components of the visible light range included in the gradation values of these pixels are minute in both the first reference image and the second reference image. For example, it is possible to detect a communication signal having a wavelength in the near-infrared region using only the first reference image (in other words, β in Expression (51) is set to “0”).

また、第1参照画像の階調値と、R画像42rの階調値R'i,j又はG画像42gの階調値G'i,j又はB画像42bの階調値B'i,jとを比較することで、通信信号を検出するようにすることも可能である。   Further, the gradation value of the first reference image, the gradation value R′i, j of the R image 42r, the gradation value G′i, j of the G image 42g, or the gradation value B′i, j of the B image 42b. It is also possible to detect a communication signal by comparing.

次に、前記対象物検知部35の処理を説明する。対象物検知部35は、検出しようとする対象物の種別や、夜間であるか否か(もしくは周囲環境が暗いか否か)等に応じて、色別画像42、カラー画像43、及び広ダイナミックレンジ画像44のいずれかの1つ以上の外界画像を選択し、その選択した外界画像を用いて車両1の周辺に存在する対象物を検知する。   Next, processing of the object detection unit 35 will be described. The object detection unit 35 selects the color-specific image 42, the color image 43, and the wide dynamic according to the type of the object to be detected, whether it is nighttime (or whether the surrounding environment is dark), and the like. One or more external images of the range image 44 are selected, and an object existing around the vehicle 1 is detected using the selected external image.

例えば、歩行者は比較的低輝度である場合が多いため、対象物検知部35は高感度な画像であるW画像42wから歩行者を検知する。   For example, since pedestrians often have relatively low luminance, the object detection unit 35 detects pedestrians from a W image 42w that is a highly sensitive image.

また、夜間においては、暗い物体から明るい物体まで、広い範囲の輝度の物体を検知する必要があることから、対象物検知部35は、広ダイナミックレンジ画像44から、歩行者や他車等を検知する。   In addition, since it is necessary to detect a wide range of luminance objects from dark objects to bright objects at night, the object detection unit 35 detects pedestrians, other vehicles, etc. from the wide dynamic range image 44. To do.

また、夜間でない場合には、カラー画像43により物体の色を認識できることから、レーンマークや、他車、信号機等をカラー画像43から検出する。   In addition, when it is not nighttime, the color of the object can be recognized from the color image 43, so that lane marks, other vehicles, traffic lights, and the like are detected from the color image 43.

このように、対象物の種別や、周囲環境の明るさなどに応じて対象物の検出のために用いる画像を選択することで、種々様々な環境下で、種々様々の対象物を高い信頼性で検出することができる。   As described above, by selecting an image to be used for detection of an object according to the type of the object or the brightness of the surrounding environment, various kinds of objects can be highly reliable in various environments. Can be detected.

なお、対象物検知部35は、歩行者や他車を検出した場合に、該歩行者や他車と車両1(自車両)との接触の可能性を判断し、接触の可能性が有ると判断した場合には、車両コントローラ6に対して接触回避処理の実施を指示する制御信号を送信する。このとき、車両コントローラ6のディスプレイ表示制御部63は、ディスプレイ73に警報表示を行う。また、制動制御部62は、必要に応じて、制動装置72を作動させて接触を回避する処理を行う。   When the object detection unit 35 detects a pedestrian or other vehicle, the object detection unit 35 determines the possibility of contact between the pedestrian or other vehicle and the vehicle 1 (own vehicle). If it is determined, a control signal for instructing the vehicle controller 6 to perform the contact avoidance process is transmitted. At this time, the display display control unit 63 of the vehicle controller 6 displays an alarm on the display 73. Moreover, the braking control part 62 performs the process which operates the braking device 72 and avoids a contact as needed.

また、対象物検知部35は、レーンマークの検知位置から車両1(自車両)を車線内に維持して走行させるレーンキープ制御のための制御信号を車両コントローラ6に送信する。このとき、操舵制御部61が操舵装置71の作動を制御することで、レーンキープ制御を行なう。   Further, the object detection unit 35 transmits to the vehicle controller 6 a control signal for lane keeping control that causes the vehicle 1 (own vehicle) to travel while maintaining the lane mark from the detection position of the lane mark. At this time, the steering control unit 61 controls the operation of the steering device 71 to perform lane keep control.

以上説明した実施形態によれば、透明画素であるW画素と、カラー画素であるR画素、G画素及びB画素とにより構成される原画像41から、複数種類の外界画像としての色別画像42、カラー画像43及び広ダイナミックレンジ画像44を生成することができる。   According to the embodiment described above, the color-specific images 42 as a plurality of types of external images from the original image 41 composed of W pixels that are transparent pixels and R pixels, G pixels, and B pixels that are color pixels. A color image 43 and a wide dynamic range image 44 can be generated.

そして、このように可視光域での外界画像を生成しながら、信号検出用画像45を生成して、該信号検出用画像45を基に、近赤外領域の波長域の通信信号を高い信頼性で検出することができる。   Then, while generating the external image in the visible light region in this way, the signal detection image 45 is generated, and the communication signal in the near-infrared wavelength region is highly reliable based on the signal detection image 45. Can be detected by sex.

なお、以上説明した実施形態では、近赤外領域の波長域の通信信号を通信信号検出部33で検出するようにしたが、近赤外領域以外の波長、例えば近赤外領域よりも波長の長い赤外領域の通信信号を検出するようにしてもよい。   In the embodiment described above, a communication signal in the near-infrared wavelength range is detected by the communication signal detection unit 33, but a wavelength other than the near-infrared region, for example, a wavelength that is higher than that in the near-infrared region. A communication signal in a long infrared region may be detected.

また、本実施形態では、通信信号を検出する場合を例にとって説明したが、通信用以外の用途の信号を検出するようにすることも可能である。例えば、カメラ2を車両1の車室内に配置して、車両1のウィンドウガラスに付着する雨滴を検出するための信号を検出するようにすることも可能である。   In this embodiment, the case of detecting a communication signal has been described as an example. However, it is also possible to detect a signal for a purpose other than communication. For example, the camera 2 can be arranged in the vehicle interior of the vehicle 1 to detect a signal for detecting raindrops attached to the window glass of the vehicle 1.

この場合には、例えば、近赤外光LED等の光源からウィンドウガラスの雨滴検出対象の領域に近赤外光を照射しつつ、該領域での近赤外光の反射光をカメラ2に入射するように該カメラ2を車室内に配置する。そして、前記実施形態の通信信号検出部33と同様の手法によって、カメラ2に入射した近赤外光(反射光)を検出する。   In this case, for example, the near infrared light is irradiated from the light source such as the near infrared LED to the raindrop detection target region of the window glass, and the reflected light of the near infrared light from the region is incident on the camera 2. Thus, the camera 2 is arranged in the vehicle interior. And the near-infrared light (reflected light) which injected into the camera 2 is detected by the method similar to the communication signal detection part 33 of the said embodiment.

この場合、ウィンドウガラスの雨滴検出対象の領域に雨滴が付着している場合と、付着していない場合とで、近赤外光の反射率が相違するので、上記反射光の検出によって、雨滴の有無を検出することができる。   In this case, since the reflectance of near-infrared light is different between the case where raindrops are attached to the raindrop detection target region of the window glass and the case where no raindrops are attached, the detection of raindrops is performed by detecting the reflected light. The presence or absence can be detected.

また、夜間等においては、カメラ2に入射する不可視領域の光、例えば近赤外光等の赤外領域の光を通信信号検出部33と同様の手法で検出することで、カメラ2に赤外線カメラとしての機能を持たせるようにすることもできる。これによって、赤外領域の光成分を強調した赤外画像(前記通信信号検出用画像45と同様の画像)と、可視画像(前記色別画像42、カラー画像43、広ダイナミックレンジ画像44等)とを同時に取得できる。また、このとき、例えば赤外線投光装置などの光源を用いて、カメラ2の撮像領域(カメラ2の画角の範囲)の一部又は全体に赤外光を投光するようにしてもよい。   Further, at night or the like, by detecting light in an invisible region that is incident on the camera 2, for example, light in an infrared region such as near-infrared light, using the same method as the communication signal detection unit 33, an infrared camera is connected to the camera 2. It can also be made to have the function as. Thereby, an infrared image (an image similar to the communication signal detection image 45) in which light components in the infrared region are emphasized, and a visible image (the color-specific image 42, the color image 43, the wide dynamic range image 44, etc.). And can be acquired at the same time. At this time, for example, infrared light may be projected onto a part or the whole of the imaging region of the camera 2 (the range of the angle of view of the camera 2) using a light source such as an infrared projector.

また、このとき、カメラ2の露出制御と光源の発光周期との同期をとることによって、カメラ2をTOF(Time of Flight)方式を用いた距離画像センサとして用い、距離検出を行なうようにしてもよい。   Further, at this time, by synchronizing the exposure control of the camera 2 and the light emission cycle of the light source, the camera 2 may be used as a distance image sensor using a TOF (Time of Flight) method to perform distance detection. Good.

また、カメラ2の撮像素子22の受光画素の配列パターンは、図2(a)に示したパターンに限られるものではない。例えば、カメラ2の撮像素子22の受光画素の配列パターンとして、図13(a)又は図13(b)に示すようパターンを採用してもよい。   Further, the arrangement pattern of the light receiving pixels of the image sensor 22 of the camera 2 is not limited to the pattern shown in FIG. For example, a pattern as shown in FIG. 13A or FIG. 13B may be adopted as the array pattern of the light receiving pixels of the image sensor 22 of the camera 2.

2…カメラ、22…撮像素子、32…外界画像生成部(外界画像生成手段)、33…通信信号検出部(通信信号検出手段)、34…信号検出用画像生成部(信号検出用画像生成手段)、STEP12,14…第1参照画像生成手段、STEP12,15…第2参照画像生成手段。   DESCRIPTION OF SYMBOLS 2 ... Camera, 22 ... Image pick-up element, 32 ... Outside world image generation part (outside world image generation means), 33 ... Communication signal detection part (communication signal detection means), 34 ... Signal detection image generation part (Signal detection image generation means) ), STEP12, 14... First reference image generating means, STEP12, 15... Second reference image generating means.

Claims (3)

カラーフィルタを介して受光する複数のカラー受光画素と、カラーフィルタを介さずに受光する複数の透明受光画素とを配置してなる撮像素子を有するカメラと、
該カメラにより撮像された原画像であって、各カラー受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数のカラー画素と各透明受光画素の受光レベルに応じた階調値がそれぞれ割り当てられた複数の透明画素とを配置してなる原画像から、外界の映像を示すカラー又はモノトーンの外界画像を生成する外界画像生成手段と、
前記原画像の少なくとも一部の領域である検出対象領域における前記カラー画素の階調値と、該検出対象領域における前記透明画素の階調値とに基づいて、該検出対象領域での受光成分のうち、前記複数のカラー受光画素のそれぞれが検出可能な波長域の全体の波長域の端部寄りの所定の波長域又は当該全体の波長域から逸脱した所定の波長域の受光成分を強調した画像である信号検出用画像を生成する信号検出用画像生成手段と、
該信号検出用画像から前記所定の波長域に含まれる信号成分を検出する信号検出手段とを備えることを特徴とする画像処理装置。
A camera having an imaging device in which a plurality of color light receiving pixels that receive light through a color filter and a plurality of transparent light receiving pixels that receive light without passing through a color filter;
In the original image captured by the camera, a plurality of color pixels each assigned a gradation value corresponding to the light receiving level of each color light receiving pixel and a gradation value corresponding to the light receiving level of each transparent light receiving pixel are respectively An external image generating means for generating a color or monotone external image indicating an external image from an original image formed by arranging a plurality of assigned transparent pixels;
Based on the gradation value of the color pixel in the detection target area, which is at least a partial area of the original image, and the gradation value of the transparent pixel in the detection target area, the light receiving component in the detection target area Among them, an image in which each of the plurality of color light receiving pixels emphasizes a light receiving component in a predetermined wavelength region near the end of the entire wavelength region or a predetermined wavelength region that deviates from the entire wavelength region. Signal detection image generation means for generating a signal detection image,
An image processing apparatus comprising: signal detection means for detecting a signal component included in the predetermined wavelength region from the signal detection image.
請求項1記載の画像処理装置において、
前記所定の波長域は、赤外領域内の波長域であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the predetermined wavelength region is a wavelength region in an infrared region.
請求項1又は2記載の画像処理装置において、
前記信号検出用画像生成手段は、前記検出対象領域における各画素の階調値を、少なくとも前記検出対象領域に含まれる複数の前記透明画素の階調値に応じて設定してなる第1参照画像を生成する第1参照画像生成手段と、前記検出対象領域における各画素の階調値を、少なくとも前記該検出対象領域に含まれる複数の前記カラー画素の階調値に応じて設定してなる第2参照画像を生成する第2参照画像生成手段とを備え、該第1参照画像と第2参照画像との階調値の差の画像を前記信号検出用画像として生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The signal detection image generation means sets a gradation value of each pixel in the detection target area according to at least gradation values of a plurality of the transparent pixels included in the detection target area. And a first reference image generating means for generating the first reference image generating means, and a gradation value of each pixel in the detection target area is set according to at least the gradation values of the plurality of color pixels included in the detection target area. A second reference image generating means for generating a two reference image, wherein an image having a difference in gradation value between the first reference image and the second reference image is generated as the signal detection image. Processing equipment.
JP2012048638A 2012-03-05 2012-03-05 Image processing device Active JP5904825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012048638A JP5904825B2 (en) 2012-03-05 2012-03-05 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048638A JP5904825B2 (en) 2012-03-05 2012-03-05 Image processing device

Publications (2)

Publication Number Publication Date
JP2013187574A true JP2013187574A (en) 2013-09-19
JP5904825B2 JP5904825B2 (en) 2016-04-20

Family

ID=49388690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048638A Active JP5904825B2 (en) 2012-03-05 2012-03-05 Image processing device

Country Status (1)

Country Link
JP (1) JP5904825B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041209A (en) * 2016-09-06 2018-03-15 本田技研工業株式会社 Object recognition device, model information generation device, object recognition method, and object recognition program
CN111083455A (en) * 2018-10-22 2020-04-28 精工爱普生株式会社 Position detection device, display system, and position detection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180187A (en) * 2002-11-29 2004-06-24 Hitachi Ltd Spatial division infrared communication system
JP2005295381A (en) * 2004-04-02 2005-10-20 Sony Corp Imaging apparatus
JP2007288549A (en) * 2006-04-18 2007-11-01 Sony Corp Physical information acquiring method and device thereof
JP2008288629A (en) * 2007-05-15 2008-11-27 Sony Corp Image signal processing apparatus, imaging device, image signal processing method, and computer program
WO2009044544A1 (en) * 2007-10-01 2009-04-09 Panasonic Corporation Imaging device
JP2012008845A (en) * 2010-06-25 2012-01-12 Konica Minolta Opto Inc Image processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180187A (en) * 2002-11-29 2004-06-24 Hitachi Ltd Spatial division infrared communication system
JP2005295381A (en) * 2004-04-02 2005-10-20 Sony Corp Imaging apparatus
JP2007288549A (en) * 2006-04-18 2007-11-01 Sony Corp Physical information acquiring method and device thereof
JP2008288629A (en) * 2007-05-15 2008-11-27 Sony Corp Image signal processing apparatus, imaging device, image signal processing method, and computer program
WO2009044544A1 (en) * 2007-10-01 2009-04-09 Panasonic Corporation Imaging device
JP2012008845A (en) * 2010-06-25 2012-01-12 Konica Minolta Opto Inc Image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041209A (en) * 2016-09-06 2018-03-15 本田技研工業株式会社 Object recognition device, model information generation device, object recognition method, and object recognition program
CN111083455A (en) * 2018-10-22 2020-04-28 精工爱普生株式会社 Position detection device, display system, and position detection method
CN111083455B (en) * 2018-10-22 2023-08-11 精工爱普生株式会社 Position detection device, display system, and position detection method

Also Published As

Publication number Publication date
JP5904825B2 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
JP5732145B2 (en) Image processing device
JP5595606B2 (en) Image processing device
CN104512411B (en) Vehicle control system and imaging sensor
US20150312556A1 (en) Rgb-ir sensor, and method and apparatus for obtaining 3d image by using same
WO2012067028A1 (en) Image input device and image processing device
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
CN105453532B (en) Photographic device, image capture method and automotive camera system
CN107113408A (en) Image processing apparatus, image processing method, program and system
CN111034173A (en) Image pickup apparatus and device
US11172173B2 (en) Image processing device, image processing method, program, and imaging device
JP5697646B2 (en) Vehicle periphery monitoring device
JP5904825B2 (en) Image processing device
CN110365872A (en) The dynamic demosaicing of camera pixel
CN107896321A (en) Imaging sensor
JP2012008845A (en) Image processor
JP2012010141A (en) Image processing apparatus
JP5703279B2 (en) Vehicle periphery monitoring device
JP5746116B2 (en) Vehicle monitoring device
JP2013187572A (en) Image processing apparatus
JP4795813B2 (en) Vehicle perimeter monitoring device
JP5252247B2 (en) Target position determination device
JP2013187573A (en) Vehicle periphery monitoring apparatus
JP2017183945A (en) Imaging apparatus, imaging method, and vehicle
JP2014529951A (en) Method and apparatus for adapting the filter characteristics of a correction color filter and for operating an image sensor
JP2011251600A (en) Device for detecting brake operation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160315

R150 Certificate of patent or registration of utility model

Ref document number: 5904825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150