Nothing Special   »   [go: up one dir, main page]

JP2015194388A - Imaging device and imaging system - Google Patents

Imaging device and imaging system Download PDF

Info

Publication number
JP2015194388A
JP2015194388A JP2014072235A JP2014072235A JP2015194388A JP 2015194388 A JP2015194388 A JP 2015194388A JP 2014072235 A JP2014072235 A JP 2014072235A JP 2014072235 A JP2014072235 A JP 2014072235A JP 2015194388 A JP2015194388 A JP 2015194388A
Authority
JP
Japan
Prior art keywords
optical
pixels
light
imaging
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014072235A
Other languages
Japanese (ja)
Inventor
今村 典広
Norihiro Imamura
典広 今村
是永 継博
Tsuguhiro Korenaga
継博 是永
善光 野口
Yoshimitsu Noguchi
善光 野口
飯島 友邦
Tomokuni Iijima
友邦 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014072235A priority Critical patent/JP2015194388A/en
Publication of JP2015194388A publication Critical patent/JP2015194388A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging technology that is hard to be affected by environmental factors.SOLUTION: An imaging device A according to an embodiment of the present application comprises: a lens optical system L that has first to third optical areas D1, D2 and D3; an image pickup element N that has a plurality of first to third pixels arranged so as to receive light passing through the lens optical system L; and an array-shape optical element K that is arranged between the lens optical system L and the image pickup element N. The first area D1 is configured so as to cause visible light to transmit, the second area D2 is configured to cause red light and a near infrared-ray to transmit, and the third area D3 is configured to cause light oscillating in a direction of a specific polarization axis to transmit. The array-shape optical element K is configured to cause light passing through the first optical area D1 to be incident upon the plurality of first pixels, cause light passing through the second optical area D2 to be incident upon the plurality of second pixels, and cause light passing through the third optical area D3 to be incident upon the plurality of third pixels.

Description

本願は撮像装置および撮像システムに関する。   The present application relates to an imaging apparatus and an imaging system.

車載カメラの分野において、路面の状態や車線を検知するため、複眼カメラの光路中に撮像素子毎に偏光軸の方向が異なる偏光子を設けた撮像装置が知られている(例えば特許文献1)。   In the field of in-vehicle cameras, an imaging device is known in which a polarizer having a different polarization axis direction is provided for each imaging element in an optical path of a compound eye camera in order to detect a road surface state or a lane (for example, Patent Document 1). .

特開2010−25915号公報JP 2010-25915 A

従来技術では、夜間、西日、雨天などの環境要因によって適切な画像を取得できない場合があるという課題がある。   In the prior art, there is a problem that an appropriate image may not be acquired due to environmental factors such as nighttime, western sun, and rainy weather.

本開示は、そのような環境要因に左右されにくい撮像技術を提供する。   The present disclosure provides an imaging technique that is less susceptible to such environmental factors.

本発明の一態様に係る撮像装置は、第1の光学領域、第2の光学領域、および第3の光学領域を有するレンズ光学系と、前記レンズ光学系を通過した光を受けるように配置された複数の第1の画素、複数の第2の画素、および複数の第3の画素を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置されたアレイ状光学素子とを備える。前記第1から第3の光学領域は、可視光を透過させる領域、赤光および近赤外線を透過させる領域、特定の偏光軸の方向に振動する光を透過させる領域、および可視光を所定の割合で減衰させて透過させる領域の4つの領域から選択された3つの領域である。前記アレイ状光学素子は、前記第1の光学領域を透過した光を前記複数の第1の画素に入射させ、前記第2の光学領域を透過した光を前記複数の第2の画素に入射させ、前記第3の光学領域を透過した光を前記複数の第3の画素に入射させるように構成されている。   An imaging device according to one embodiment of the present invention is arranged to receive a lens optical system having a first optical region, a second optical region, and a third optical region, and light that has passed through the lens optical system. An imaging element having a plurality of first pixels, a plurality of second pixels, and a plurality of third pixels, and an array-like optical element disposed between the lens optical system and the imaging element. . The first to third optical regions are a region that transmits visible light, a region that transmits red light and near infrared light, a region that transmits light that vibrates in the direction of a specific polarization axis, and a predetermined ratio of visible light. These are three areas selected from the four areas that are attenuated and transmitted through the area. The arrayed optical element causes light transmitted through the first optical region to enter the plurality of first pixels, and allows light transmitted through the second optical region to enter the plurality of second pixels. The light transmitted through the third optical region is incident on the plurality of third pixels.

本発明の一態様にかかる撮像装置によれば、夜間、西日、雨天などの環境要因に左右されにくい撮像が可能になる。   According to the imaging apparatus according to one embodiment of the present invention, it is possible to perform imaging that is not easily influenced by environmental factors such as nighttime, western sun, and rainy weather.

本開示の実施の形態1の撮像装置Aを示す模式図である。It is a mimetic diagram showing imaging device A of Embodiment 1 of this indication. 第1から第3の光学領域D1〜D3を被写体側から見たときの正面図である。It is a front view when the first to third optical regions D1 to D3 are viewed from the subject side. レンチキュラレンズKの構造を示す斜視図である。2 is a perspective view showing a structure of a lenticular lens K. FIG. (a)は、図1に示すレンチキュラレンズKおよび撮像素子Nを拡大して示す図であり、(b)は、撮像面Ni上の画素の配列を示す図である。(A) is a figure which expands and shows the lenticular lens K and the image pick-up element N which are shown in FIG. 1, (b) is a figure which shows the arrangement | sequence of the pixel on the image pick-up surface Ni. 本開示の実施の形態1の撮像装置Aを搭載した車両Veの一例を示す図である。It is a figure which shows an example of the vehicle Ve carrying the imaging device A of Embodiment 1 of the present disclosure. 第1の画像情報と第2の画像情報とを活用したブレーキランプや赤信号の認識の例を説明するための図である。It is a figure for demonstrating the example of the recognition of the brake lamp and red signal which utilized 1st image information and 2nd image information. 本開示の実施の形態2の撮像装置Aを示す模式図である。It is a mimetic diagram showing imaging device A of Embodiment 2 of this indication. 第1から第4の光学領域D1〜D4を被写体側から見たときの正面図である。It is a front view when the first to fourth optical regions D1 to D4 are viewed from the subject side. (a)は、図7に示すレンチキュラレンズKおよび撮像素子Nを拡大して示す図であり、(b)は、撮像面Ni上の画素の配列を示す図である。(A) is a figure which expands and shows the lenticular lens K and the image pick-up element N which are shown in FIG. 7, (b) is a figure which shows the arrangement | sequence of the pixel on the image pick-up surface Ni. 撮像装置を2つ用いた測距装置の概略図である。It is the schematic of the distance measuring device using two imaging devices. 信号処理部Cによる第1から第3の画像情報の合成処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of a synthesis process of first to third image information by a signal processing unit. SAD演算を説明するための図である。It is a figure for demonstrating SAD calculation. (a)および(b)は、レンチキュラレンズと撮像素子Nとを一体化した例を示す図である。(A) And (b) is a figure which shows the example which integrated the lenticular lens and the image pick-up element N. FIG. レンチキュラレンズの代わりにマイクロレンズアレイを用いた場合の構成例を示す図である。(a)は光学素子の構成を示し、(b)はマイクロレンズアレイK’の構成を示している。It is a figure which shows the structural example at the time of using a microlens array instead of a lenticular lens. (A) shows the configuration of the optical element, and (b) shows the configuration of the microlens array K ′. 図14の構成における撮像面Ni上の画素配列を示す図である。It is a figure which shows the pixel arrangement | sequence on the imaging surface Ni in the structure of FIG.

本開示の実施の形態の概要は以下の通りである。   The outline of the embodiment of the present disclosure is as follows.

(1)本発明の一態様に係る撮像装置は、第1の光学領域、第2の光学領域、および第3の光学領域を有するレンズ光学系と、前記レンズ光学系を通過した光を受けるように配置された複数の第1の画素、複数の第2の画素、および複数の第3の画素を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置されたアレイ状光学素子とを備える。前記第1から第3の光学領域は、可視光を透過させる領域、赤光および近赤外線を透過させる領域、特定の偏光軸の方向に振動する光を透過させる領域、および可視光を所定の割合で減衰させて透過させる領域の4つの領域から選択された3つの領域である。前記アレイ状光学素子は、前記第1の光学領域を透過した光を前記複数の第1の画素に入射させ、前記第2の光学領域を透過した光を前記複数の第2の画素に入射させ、前記第3の光学領域を透過した光を前記複数の第3の画素に入射させるように構成されている。   (1) An imaging device according to one embodiment of the present invention receives a lens optical system having a first optical region, a second optical region, and a third optical region, and light that has passed through the lens optical system. An image sensor having a plurality of first pixels, a plurality of second pixels, and a plurality of third pixels, and an array-like optical element disposed between the lens optical system and the image sensor With. The first to third optical regions are a region that transmits visible light, a region that transmits red light and near infrared light, a region that transmits light that vibrates in the direction of a specific polarization axis, and a predetermined ratio of visible light. These are three areas selected from the four areas that are attenuated and transmitted through the area. The arrayed optical element causes light transmitted through the first optical region to enter the plurality of first pixels, and allows light transmitted through the second optical region to enter the plurality of second pixels. The light transmitted through the third optical region is incident on the plurality of third pixels.

(2)ある実施形態において、前記第1から第3の光学領域は、前記レンズ光学系の光軸方向に垂直な第1の方向に配列されており、前記アレイ状光学素子は、前記第1の方向に複数のシリンドリカルレンズが配列されたレンチキュラレンズである。   (2) In one embodiment, the first to third optical regions are arranged in a first direction perpendicular to an optical axis direction of the lens optical system, and the arrayed optical element includes the first optical element. This is a lenticular lens in which a plurality of cylindrical lenses are arranged in the direction of.

(3)ある実施形態において、前記第1の光学領域は、赤光および近赤外線を透過させるように構成され、前記第2の光学領域は、可視光を透過させるように構成され、前記第3の光学領域は、特定の偏光軸の方向に振動する光を透過させるように構成されている。   (3) In one embodiment, the first optical region is configured to transmit red light and near-infrared light, and the second optical region is configured to transmit visible light, and the third optical region The optical region is configured to transmit light that vibrates in the direction of a specific polarization axis.

(4)ある実施形態において、前記レンズ光学系は、可視光を所定の割合で減衰させて透過させる第4の光学領域をさらに有し、前記撮像素子は、複数の第4の画素をさらに有し、前記アレイ状光学素子は、さらに、前記第4の光学領域を透過した光を前記複数の第4の画素に入射させるように構成されている。   (4) In one embodiment, the lens optical system further includes a fourth optical region that attenuates and transmits visible light at a predetermined rate, and the imaging element further includes a plurality of fourth pixels. The arrayed optical element is further configured to make light transmitted through the fourth optical region incident on the plurality of fourth pixels.

(5)ある実施形態において、前記第1から第4の光学領域は、前記レンズ光学系の光軸方向に垂直な第1の方向に配列されており、前記アレイ状光学素子は、前記第1の方向に複数のシリンドリカルレンズが配列されたレンチキュラレンズである。   (5) In one embodiment, the first to fourth optical regions are arranged in a first direction perpendicular to an optical axis direction of the lens optical system, and the arrayed optical element includes the first optical element. This is a lenticular lens in which a plurality of cylindrical lenses are arranged in the direction of.

(6)ある実施形態において、前記アレイ状光学素子と前記撮像素子とが一体化されている。   (6) In an embodiment, the arrayed optical element and the imaging element are integrated.

(7)本発明の他の態様に係る測距装置は、各々が上記(1)から(6)のいずれかに記載の撮像装置である2つの撮像装置と、前記2つの撮像装置から出力された信号に基づいて、被写体の距離情報を生成する距離演算回路とを備える。   (7) A distance measuring device according to another aspect of the present invention outputs two imaging devices, each of which is the imaging device according to any one of (1) to (6) above, and the two imaging devices. And a distance calculation circuit for generating distance information of the subject based on the received signal.

(8)ある実施形態において、前記2つの撮像装置の各々は、前記複数の第1の画素、前記複数の第2の画素、および前記複数の第3の画素から出力された信号に基づく合成画像を生成して出力し、前記距離演算回路は、前記2つの撮像装置から出力された2つの画像間でパターンマッチングを行うことにより、前記距離情報を生成する。   (8) In one embodiment, each of the two imaging devices includes a composite image based on signals output from the plurality of first pixels, the plurality of second pixels, and the plurality of third pixels. The distance calculation circuit generates the distance information by performing pattern matching between the two images output from the two imaging devices.

(9)ある実施形態において、前記2つの撮像装置の各々は、上記(4)または(5)に記載の撮像装置であり、前記複数の第1の画素、前記複数の第2の画素、前記複数の第3の画素、および前記複数の第4の画素から出力された信号に基づく合成画像を生成して出力し、前記距離演算回路は、前記2つの撮像装置から出力された2つの画像間でパターンマッチングを行うことにより、前記距離情報を生成する。   (9) In an embodiment, each of the two imaging devices is the imaging device according to (4) or (5), wherein the plurality of first pixels, the plurality of second pixels, A composite image based on a plurality of third pixels and signals output from the plurality of fourth pixels is generated and output, and the distance calculation circuit is configured to output the two images output from the two imaging devices. The distance information is generated by performing pattern matching in step (b).

(10)本発明の他の態様に係る撮像システムは、上記(1)から(6)のいずれかに記載の撮像装置のうち、前記レンズ光学系が赤光および近赤外線を透過させるように構成された光学領域を有する撮像装置と、近赤外線を出射する照明装置とを備える。   (10) An imaging system according to another aspect of the present invention is configured such that, in the imaging apparatus according to any one of (1) to (6), the lens optical system transmits red light and near infrared light. An imaging device having an optical region and an illumination device that emits near infrared rays.

(11)本発明の他の態様に係る車両は、上記(1)から(6)のいずれかに記載の撮像装置、上記(7)から(9)のいずれかに記載の測距装置、および上記(10)に記載の撮像システムの少なくとも1つを備える。   (11) A vehicle according to another aspect of the present invention provides an imaging device according to any one of (1) to (6), a distance measuring device according to any one of (7) to (9), and At least one of the imaging systems according to (10) above is provided.

以下、図面を参照しながら、本開示のより具体的な実施の形態を説明する。以下の説明において、同一または類似する構成要素については同一の参照符号を付している。   Hereinafter, more specific embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same reference numerals are assigned to the same or similar components.

(実施の形態1)
図1は、実施の形態1の撮像装置Aを示す模式図である。本実施の形態の撮像装置Aは、光軸Vを有するレンズ光学系Lと、レンズ光学系Lの焦点近傍に配置されたレンチキュラレンズKと、撮像素子Nと、信号処理部Cとを備える。
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating an imaging apparatus A according to the first embodiment. The imaging apparatus A according to the present embodiment includes a lens optical system L having an optical axis V, a lenticular lens K disposed near the focal point of the lens optical system L, an imaging element N, and a signal processing unit C.

レンズ光学系Lは、被写体(図示せず)からの光が入射する絞りSと、絞りSを通過した光が入射するように配置された光学素子L1と、光学素子L1を通過した光が入射するように配置されたレンズL2とを有している。レンズ光学系Lは、第1の光学領域D1、第2の光学領域D2、および第3の光学領域D3を有する。   The lens optical system L has a diaphragm S on which light from a subject (not shown) is incident, an optical element L1 that is arranged so that light that has passed through the diaphragm S enters, and light that has passed through the optical element L1 is incident. And a lens L2 arranged so as to do so. The lens optical system L has a first optical region D1, a second optical region D2, and a third optical region D3.

レンズL2は、一枚のレンズで構成されていてもよいし、複数枚のレンズで構成されていてもよい。また、絞りSの前または前後に複数枚に分かれて配置された構成であってもよい。図1では、絞りSの後ろに一枚だけ配置された構成例を示している。   The lens L2 may be configured by a single lens or may be configured by a plurality of lenses. Further, a configuration may be adopted in which a plurality of sheets are arranged in front of or behind the diaphragm S. FIG. 1 shows a configuration example in which only one sheet is arranged behind the diaphragm S.

光学素子L1は、絞りSの近傍に配置され、第1の光学領域D1に位置する部分と第2の光学領域D2に位置する部分と第3の光学領域D3に位置する部分とによって構成される。第1の光学領域D1には、赤色の波長域の光(以下、「赤光」と称する。)と近赤外領域の波長を有する光(近赤外線)とを透過させる分光フィルタが配置されている。第2の光学領域D2には、可視光を透過させる分光フィルタが配置されている。第3の光学領域D3には、特定の偏光軸(透過軸)の方向に電場が振動する光を透過させる偏光フィルタが配置されている。ここで、「赤光」は、例えば600nmから700nmの範囲内の波長を有する光であり、近赤外線は、概ね700nmから2.5μmの範囲内の波長を有する光(電磁波)である。   The optical element L1 is disposed in the vicinity of the stop S and includes a portion located in the first optical region D1, a portion located in the second optical region D2, and a portion located in the third optical region D3. . In the first optical region D1, a spectral filter that transmits light in the red wavelength region (hereinafter referred to as “red light”) and light having a wavelength in the near infrared region (near infrared) is disposed. Yes. A spectral filter that transmits visible light is disposed in the second optical region D2. In the third optical region D3, a polarizing filter that transmits light whose electric field vibrates in a direction of a specific polarization axis (transmission axis) is disposed. Here, “red light” is, for example, light having a wavelength in the range of 600 nm to 700 nm, and near infrared light is light (electromagnetic wave) having a wavelength in the range of approximately 700 nm to 2.5 μm.

本実施の形態では、3つの光学領域D1、D2、D3を通過した光は、レンズL2を通過した後、レンチキュラレンズKに入射する。レンチキュラレンズKは、光学領域D1を通過した光を撮像素子Nにおける複数の画素P1に、光学領域D2を通過した光を撮像素子Nにおける複数の画素P2に、光学領域D3を通過した光を撮像素子Nにおける複数の画素P3に入射させるように設計されている。撮像素子Nは、画素P1、P2、P3に入射した光をその強度に応じた画素信号に変換する。ここで「画素信号」とは、各画素P1、P2、P3において、光電変換によって生成された輝度値(画素値)を示す信号をいう。信号処理部Cは、撮像素子Nから画素信号を受け取り、画素P1の画素群の輝度情報から、赤光および近赤外線による画像の画像情報を生成して出力する。また、画素P2の画素群の輝度情報から、可視光による画像の画像情報を生成して出力する。さらに、画素P3の画素群の輝度情報から、特定の偏光軸の方向に電場が振動する偏光光による画像の画像情報を生成して出力する。信号処理部Cは、デジタルシグナルプロセッサ(DSP)などの電子回路によって構成されていてもよいし、CPUなどの演算装置とプログラムを格納したメモリとの組み合わせによって構成されていてもよい。   In the present embodiment, the light that has passed through the three optical regions D1, D2, and D3 enters the lenticular lens K after passing through the lens L2. The lenticular lens K images the light that has passed through the optical region D1 to the plurality of pixels P1 in the imaging device N, the light that has passed through the optical region D2 to the plurality of pixels P2 in the imaging device N, and the light that has passed through the optical region D3. It is designed to enter a plurality of pixels P3 in the element N. The image sensor N converts light incident on the pixels P1, P2, and P3 into a pixel signal corresponding to the intensity. Here, the “pixel signal” refers to a signal indicating a luminance value (pixel value) generated by photoelectric conversion in each of the pixels P1, P2, and P3. The signal processing unit C receives a pixel signal from the image sensor N, generates image information of an image using red light and near infrared rays from luminance information of the pixel group of the pixel P1, and outputs the image information. Further, image information of an image by visible light is generated and output from the luminance information of the pixel group of the pixel P2. Further, the image information of the image by the polarized light whose electric field vibrates in the direction of the specific polarization axis is generated and output from the luminance information of the pixel group of the pixel P3. The signal processing unit C may be configured by an electronic circuit such as a digital signal processor (DSP), or may be configured by a combination of an arithmetic device such as a CPU and a memory storing a program.

図1において、光束B1、B2、B3は、光学素子L1上の第1から第3の光学領域D1、D2、D3をそれぞれ通過する光束(light beam)である。光束B1、B2、B3は、絞りS、光学素子L1、レンズL2、レンチキュラレンズKをこの順に通過し、撮像素子N上の撮像面Ni(図4に示す)に到達する。   In FIG. 1, light beams B1, B2, and B3 are light beams that pass through the first to third optical regions D1, D2, and D3 on the optical element L1, respectively. The light beams B1, B2, and B3 pass through the stop S, the optical element L1, the lens L2, and the lenticular lens K in this order, and reach the imaging surface Ni (shown in FIG. 4) on the imaging element N.

図2は、第1から第3の光学領域D1〜D3を被写体側から見たときの正面図である。光学素子L1における第1から第3の光学領域D1〜D3は、全て同じ面積であり、光軸Vに垂直な方向(図2におけるy方向)に配列されている。図2において、破線sは、絞りSの開口領域を示している。図2に示すx方向およびy方向は、撮像装置が使用されるときの水平方向および垂直方向にそれぞれ対応する。また、光学領域D1〜D3の形状は全て同一である必要はなく、光学領域D1〜D3の並び方が図2の例とは異なっていてもよい。   FIG. 2 is a front view when the first to third optical regions D1 to D3 are viewed from the subject side. All of the first to third optical regions D1 to D3 in the optical element L1 have the same area and are arranged in a direction perpendicular to the optical axis V (y direction in FIG. 2). In FIG. 2, the broken line s indicates the opening area of the stop S. The x direction and the y direction shown in FIG. 2 correspond to the horizontal direction and the vertical direction when the imaging device is used, respectively. Further, the optical regions D1 to D3 need not all have the same shape, and the arrangement of the optical regions D1 to D3 may be different from the example of FIG.

図3は、レンチキュラレンズKの構造を示す斜視図である。本実施の形態では、レンチキュラレンズKをアレイ状光学素子として用いる。レンチキュラレンズKは、複数のシリンドリカルレンズM1を有する。各シリンドリカルレンズM1はx方向に伸びた形状を有し、複数のシリンドリカルレンズM1がy方向に配列されている。それぞれのシリンドリカルレンズM1のx方向に垂直な断面は、撮像素子N側に突出した曲面の形状を有する。本実施の形態では、x方向およびy方向は互いに直交している。   FIG. 3 is a perspective view showing the structure of the lenticular lens K. FIG. In the present embodiment, the lenticular lens K is used as an arrayed optical element. The lenticular lens K has a plurality of cylindrical lenses M1. Each cylindrical lens M1 has a shape extending in the x direction, and a plurality of cylindrical lenses M1 are arranged in the y direction. The cross section perpendicular to the x direction of each cylindrical lens M1 has a curved shape protruding toward the image sensor N side. In the present embodiment, the x direction and the y direction are orthogonal to each other.

図1に示すように、レンチキュラレンズKは、レンズ光学系Lの焦点近傍に配置されており、撮像面Niから所定の距離だけ離れた位置に配置されている。   As shown in FIG. 1, the lenticular lens K is disposed in the vicinity of the focal point of the lens optical system L, and is disposed at a position away from the imaging surface Ni by a predetermined distance.

図4(a)は、図1に示すレンチキュラレンズKおよび撮像素子Nを拡大して示す図であり、図4(b)は、撮像面Ni上の画素の配列を示す図である。上述のように、レンチキュラレンズKは、シリンドリカルレンズM1が形成された面が撮像面Ni側に向くように配置されている。   4A is an enlarged view showing the lenticular lens K and the image sensor N shown in FIG. 1, and FIG. 4B is a diagram showing an arrangement of pixels on the imaging surface Ni. As described above, the lenticular lens K is disposed so that the surface on which the cylindrical lens M1 is formed faces the imaging surface Ni side.

撮像素子Nは、撮像面Niと複数の画素Pとを含む。図4(b)に示すように、複数の画素Pは、x方向およびy方向に2次元的に配列されている。y方向およびx方向への配列をそれぞれ行および列と呼ぶとき、複数の画素は、撮像面Ni上において、例えば、m行l列(l、mは2以上の整数)に配置されている。つまり、x方向にl個の画素が配列した一行の画素群が、y方向に1からm行目までのm行に配列されている。   The imaging element N includes an imaging surface Ni and a plurality of pixels P. As shown in FIG. 4B, the plurality of pixels P are two-dimensionally arranged in the x direction and the y direction. When the arrays in the y direction and the x direction are called rows and columns, respectively, the plurality of pixels are arranged in m rows and 1 columns (l and m are integers of 2 or more) on the imaging surface Ni, for example. That is, a group of pixels in which one pixel is arranged in the x direction is arranged in m rows from the 1st to mth rows in the y direction.

複数の画素Pは、それぞれx方向に配列され、行を構成する複数の画素P1、複数の画素P2、および複数の画素P3に分けられる。y方向において、画素P1の行、画素P2の行、および画素P3の行は、この順で繰り返し配置されている。レンチキュラレンズKは、そのシリンドリカルレンズM1の1つが、撮像面Ni上における画素P1〜P3の3行の画素群に対応するように配置されている。撮像面Ni上には、複数の画素P1〜P3の各々を覆うようにマイクロレンズMsが設けられている。   The plurality of pixels P are each arranged in the x direction, and are divided into a plurality of pixels P1, a plurality of pixels P2, and a plurality of pixels P3 constituting a row. In the y direction, the row of pixels P1, the row of pixels P2, and the row of pixels P3 are repeatedly arranged in this order. The lenticular lens K is arranged so that one of the cylindrical lenses M1 corresponds to a pixel group of three rows of pixels P1 to P3 on the imaging surface Ni. On the imaging surface Ni, a microlens Ms is provided so as to cover each of the plurality of pixels P1 to P3.

本実施の形態において、複数の画素P1〜P3は、いずれも同じ形状を有している。例えば、複数の第1の画素P1、複数の第2の画素P2、および複数の第3の画素P3は同じ矩形形状を有しており、面積も互いに等しい。   In the present embodiment, the plurality of pixels P1 to P3 all have the same shape. For example, the plurality of first pixels P1, the plurality of second pixels P2, and the plurality of third pixels P3 have the same rectangular shape and have the same area.

画素P1、P2、P3の各々は、光電変換によって受けた光の強度に応じた電気信号を出力する光検知セル(例えばフォトダイオード)を有する。各光検知セルの出力は信号処理部Cに送られ、画像情報を生成するために用いられる。本実施の形態では、各光検知セルに対向する位置に光を選択的に透過させる光学フィルタのような素子は設けられていない。しかし、複数の画素P1の各々に光学領域D1と同等の透過特性を有する光学フィルタを設け、複数の画素P2の各々に光学領域D2と同等の透過特性を有する光学フィルタを設け、複数の画素P3の各々に光学領域D3と同等の透過特性を有する光学フィルタを設けてもよい。これにより、各画素に不要な光が入射することを防ぐことができる。   Each of the pixels P1, P2, and P3 includes a light detection cell (for example, a photodiode) that outputs an electrical signal corresponding to the intensity of light received by photoelectric conversion. The output of each photodetecting cell is sent to the signal processing unit C and used to generate image information. In this embodiment, an element such as an optical filter that selectively transmits light is not provided at a position facing each photodetecting cell. However, each of the plurality of pixels P1 is provided with an optical filter having a transmission characteristic equivalent to that of the optical region D1, and each of the plurality of pixels P2 is provided with an optical filter having a transmission characteristic equivalent to that of the optical region D2. Each of these may be provided with an optical filter having transmission characteristics equivalent to those of the optical region D3. Thereby, unnecessary light can be prevented from entering each pixel.

レンチキュラレンズKは、光学素子L1上の光学領域D1(図1、図2に示す)を通過した光束B1の大部分が撮像面Ni上の画素P1に到達し、光学領域D2を通過した光束B2の大部分が撮像面Ni上の画素P2に到達し、光学領域D3を透過した光束B3の大部分が撮像面Ni上の画素P3に到達するように設計されている。具体的には、レンチキュラレンズKの屈折率、撮像面Niからの距離及びシリンドリカルレンズM1表面の曲率半径等のパラメータを適切に設定することで、上記構成が実現する。   In the lenticular lens K, most of the light beam B1 that has passed through the optical region D1 (shown in FIGS. 1 and 2) on the optical element L1 reaches the pixel P1 on the imaging surface Ni, and the light beam B2 that has passed through the optical region D2. Is most likely to reach the pixel P2 on the imaging surface Ni, and most of the light beam B3 transmitted through the optical region D3 reaches the pixel P3 on the imaging surface Ni. Specifically, the above configuration is realized by appropriately setting parameters such as the refractive index of the lenticular lens K, the distance from the imaging surface Ni, and the radius of curvature of the surface of the cylindrical lens M1.

図1においては、絞りSを通過した光が直接(他の光学部材を介することなく)、光学素子L1に入射するように各構成要素が配置されている。図1に示す構成に限らず、光学素子L1は、絞りSよりも被写体側に設けられていてもよい。この場合、光学素子L1を通過した光が、直接(他の光学部材を介することなく)、絞りSに入射する。   In FIG. 1, each component is arranged so that light that has passed through the diaphragm S is directly incident on the optical element L1 (without passing through another optical member). The optical element L1 is not limited to the configuration illustrated in FIG. In this case, the light that has passed through the optical element L1 enters the diaphragm S directly (without passing through another optical member).

レンチキュラレンズKは、光線の入射角に応じて出射方向を振り分ける機能を有する。そのため、絞りSの近傍で分割された第1から第3の光学領域D1、D2、D3に対応するように、撮像面Ni上の画素に光束を振り分けることができる。   The lenticular lens K has a function of distributing the emission direction according to the incident angle of the light beam. Therefore, the luminous flux can be distributed to the pixels on the imaging surface Ni so as to correspond to the first to third optical regions D1, D2, and D3 divided in the vicinity of the stop S.

以上の構成により、画素P1、P2、P3の各画素群の輝度情報を用いて、赤光および近赤外線の強度情報を有する第1の画像情報と、可視光の強度情報を有する第2の画像情報と、特定の偏光軸(透過軸)の方向に振動する偏光の強度情報を有する第3の画像情報とを同時に取得することができる。   With the above configuration, using the luminance information of each pixel group of the pixels P1, P2, and P3, the first image information having the intensity information of red light and near infrared light, and the second image having the intensity information of visible light Information and third image information having intensity information of polarized light oscillating in the direction of a specific polarization axis (transmission axis) can be acquired at the same time.

本実施の形態の撮像装置は、例えば車載カメラとして好適に利用することができる。図5は、本実施の形態の撮像装置Aを搭載した車両Veの一例を示す図である。この車両Veは、撮像装置Aと可視光および近赤外線を出射する照明装置(ヘッドライト)Liとを備えている。照明装置Liは、可視光(ロービーム)を比較的低い角度で出射し、近赤外線(ハイビーム)を比較的高い角度で出射するように構成されている。図5に示すように、ロービームによって照射される範囲、ハイビームによって照射される範囲、および撮像装置Aの撮影可能範囲(カメラ視野)は全て異なっている。   The imaging device of the present embodiment can be suitably used as, for example, an in-vehicle camera. FIG. 5 is a diagram illustrating an example of a vehicle Ve equipped with the imaging device A of the present embodiment. The vehicle Ve includes an imaging device A and an illumination device (headlight) Li that emits visible light and near infrared light. The illumination device Li is configured to emit visible light (low beam) at a relatively low angle and emit near-infrared light (high beam) at a relatively high angle. As shown in FIG. 5, the range irradiated by the low beam, the range irradiated by the high beam, and the shootable range (camera field of view) of the imaging apparatus A are all different.

本実施の形態の撮像装置Aを車載カメラとして適用した場合、第2の画像情報によって可視光のモノクロ画像が得られるため、車線の判別などの画像認識に活用できる。また、第1の画像情報によって前方の対象物から反射した近赤外線を認識することができるため、夜間に遠方の人物や障害物を検出することができる。第1の画像情報と第2の画像情報とを用いることにより、赤い光を認識することができるため、先行車のブレーキランプや赤信号を検出することもできる。さらに、第3の画像情報を用いることにより、路面による光の反射を抑制した画像を得たり、第2の画像情報と組み合わせてハイダイナミックレンジ(HDR)合成を行うことができる。以下、これらの活用例を説明する。   When the imaging apparatus A of the present embodiment is applied as an in-vehicle camera, a visible monochrome image can be obtained from the second image information, which can be used for image recognition such as lane discrimination. Moreover, since the near-infrared ray reflected from the front object can be recognized by the first image information, a distant person or an obstacle can be detected at night. Since the red light can be recognized by using the first image information and the second image information, the brake lamp and red signal of the preceding vehicle can also be detected. Furthermore, by using the third image information, it is possible to obtain an image in which light reflection by the road surface is suppressed, or to perform high dynamic range (HDR) synthesis in combination with the second image information. Hereinafter, these utilization examples will be described.

図6は、第1の画像情報と第2の画像情報とを活用したブレーキランプや赤信号の認識の例を説明するための図である。図6(a)および(b)は、ブレーキランプが消灯し、かつ信号が青である場合に、第1および第2の画像情報からそれぞれ得られる画像の例を示している。図6(c)および(d)は、ブレーキランプが点灯し、かつ信号が赤である場合に、第1および第2の画像情報からそれぞれ得られる画像の例を示している。   FIG. 6 is a diagram for explaining an example of recognition of a brake lamp and a red signal using the first image information and the second image information. FIGS. 6A and 6B show examples of images obtained from the first and second image information, respectively, when the brake lamp is turned off and the signal is blue. FIGS. 6C and 6D show examples of images obtained from the first and second image information, respectively, when the brake lamp is lit and the signal is red.

先行車Ob1のブレーキランプが消灯している場合や信号機Ob2が赤色でない場合は、図6(a)および(b)に示すように、先行車Ob1のブレーキランプに対応する箇所と信号機Ob2の赤に相当する箇所は、第1の画像情報および第2の画像情報共に暗い状態となる。これに対し、先行車のブレーキランプが点灯している場合や信号機が赤色の場合は、図6(c)および(d)に示すように、先行車のブレーキランプに対応する箇所と信号の赤に相当する箇所は、第1の画像情報および第2の画像情報共に明るい状態となる。したがって、先行車や信号機を画像認識した上で、第1の画像情報と第2の画像情報とを比較することにより、先行車のブレーキランプや信号機が赤く発光しているか否かを判別することができる。これらが赤色に発光しているか否かを判別することができれば、その判別結果をブレーキ制動などの運転補助に活用することができる。   When the brake lamp of the preceding vehicle Ob1 is turned off or when the traffic light Ob2 is not red, as shown in FIGS. 6A and 6B, the location corresponding to the brake lamp of the preceding vehicle Ob1 and the red color of the traffic light Ob2 The portion corresponding to is dark in both the first image information and the second image information. On the other hand, when the brake lamp of the preceding vehicle is lit or when the traffic light is red, as shown in FIGS. 6C and 6D, the location corresponding to the brake lamp of the preceding vehicle and the signal red The portion corresponding to is bright in both the first image information and the second image information. Therefore, it is possible to determine whether or not the brake lamp or the traffic light of the preceding vehicle emits red light by comparing the first image information and the second image information after recognizing the preceding vehicle and the traffic signal. Can do. If it is possible to determine whether or not these lights emit red, the determination result can be used for driving assistance such as braking.

第1の画像情報は近赤外の情報を含んでいるため、図5に示すようにヘッドライトLiにハイビームの近赤外投光器を搭載することにより、第1の画像情報を用いて夜間に遠方にいる障害物や人物を検出することが可能となる。これにより、障害物や人物が遠方にいる場合に、音声や表示等でドライバーにいち早く注意を促したりすることができる。   Since the first image information includes near-infrared information, a high-beam near-infrared projector is mounted on the headlight Li as shown in FIG. It is possible to detect obstacles and persons in the area. Thereby, when an obstacle or a person is far away, the driver can be promptly alerted by voice or display.

第2の画像情報は、可視光帯域の情報を含んでいるため、昼間の画像認識用や夜間のロービームの照射領域の画像認識用として常用することができる。   Since the second image information includes information in the visible light band, the second image information can be regularly used for daytime image recognition and for nighttime low beam irradiation region image recognition.

第3の画像情報は、偏光フィルタ越しに撮影した画像の情報であるため、入射光の特定の偏光成分が除去された画像に相当する。したがって、第3の光学領域D3の偏光透過軸を路面に垂直な方向に設定することにより、雨天時や積雪時、西日に正対したときの路面での光の反射や、水面での光の反射の影響を抑制した画像を取得することができる。第3の画像情報により、雨天や西日などの条件下でも道路の車線を判別しやすくなるため、車線を判別する運転支援、例えば車線の逸脱に対する注意喚起やステアリングの制動等について機能不全に陥りにくくすることができる。また、撮像装置Aを車両のフロントガラスの内側に設置した場合、ダッシュボードの映り込みを低減することができ、画像認識に好適な映像を得ることができる。   Since the third image information is information of an image taken through a polarization filter, it corresponds to an image from which a specific polarization component of incident light has been removed. Therefore, by setting the polarization transmission axis of the third optical region D3 in a direction perpendicular to the road surface, it is possible to reflect light on the road surface when facing in the rain, snow, or on the west, or light on the water surface. It is possible to acquire an image in which the influence of reflection is suppressed. The third image information makes it easy to distinguish road lanes under conditions such as rainy weather or in the sun. Can be difficult. Moreover, when the imaging device A is installed inside the windshield of the vehicle, the reflection of the dashboard can be reduced, and an image suitable for image recognition can be obtained.

さらに、第3の画像情報は、偏光フィルタ越しに撮影した画像情報であるため、第2の画像情報に比べて露光量が半減された画像を取得できる。したがって、第2の画像情報と第3の画像情報とを合成することにより、ダイナミックレンジの広い画像を生成することができる。例えば、第2の画像情報において、輝度値が上限値(8ビットの場合は255)に達している画素を、第3の画像情報における対応画素の輝度値をゲイン調整した値で置換することによってダイナミックレンジの広い合成画像を生成することができる。ゲイン調整は、第2の光学領域D2における光の透過率に対する第3の光学領域D3における光の透過率の割合をr(例えば0.4)とするとき、1/rを乗じればよい。HDR合成は、この方法に限らず、公知の方法を広く適用できる。HDR合成により、トンネルの出入り口付近における先行車や道路の車線の白飛びや黒つぶれの発生を抑制することができる。   Furthermore, since the third image information is image information taken through a polarizing filter, an image with an exposure amount reduced by half compared to the second image information can be acquired. Therefore, an image having a wide dynamic range can be generated by combining the second image information and the third image information. For example, in the second image information, a pixel whose luminance value has reached the upper limit value (255 in the case of 8 bits) is replaced with a value obtained by gain adjustment of the luminance value of the corresponding pixel in the third image information. A composite image having a wide dynamic range can be generated. The gain adjustment may be performed by multiplying 1 / r when the ratio of the light transmittance in the third optical region D3 to the light transmittance in the second optical region D2 is r (for example, 0.4). HDR synthesis is not limited to this method, and widely known methods can be applied. By HDR synthesis, it is possible to suppress the occurrence of whiteout or blackout in the preceding vehicle or road lane near the entrance of the tunnel.

以上のように、本実施の形態では、昼夜や天候状況に影響されにくい撮像が可能である。このため、画像認識を用いた安全運転支援の信頼性を高めることができる。   As described above, in the present embodiment, it is possible to perform imaging that is not easily influenced by daytime and weather conditions. For this reason, the reliability of the safe driving support using image recognition can be improved.

なお、本実施の形態では、第1の光学領域D1は、赤光および近赤外線を透過させるように構成され、第2の光学領域D2は、可視光を透過させるように構成され、第3の光学領域D3は、特定の偏光軸の方向に振動する光を透過させるように構成されているが、必ずしもこのような構成である必要はない。例えば、第1から第3の光学領域D1、D2、D3のいずれかが、可視光を所定の割合で減衰させて透過させる領域であってもよい。そのような領域は、例えば本実施の形態における偏光フィルタよりも可視光の透過率の低いND(Neutral Density)フィルタを用いて実現できる。そのようなNDフィルタを用いることにより、ダイナミックレンジをさらに広くすることができる。このように、本実施の形態のように3つの光学領域を光学素子に設ける場合、第1から第3の光学領域は、可視光を透過させる領域、赤光および近赤外線を透過させる領域、特定の偏光軸の方向に振動する光を透過させる領域、および可視光を所定の割合で減衰させて透過させる領域の4つの領域から選択された3つの領域であればよい。   In the present embodiment, the first optical region D1 is configured to transmit red light and near-infrared light, and the second optical region D2 is configured to transmit visible light, and the third The optical region D3 is configured to transmit light oscillating in the direction of a specific polarization axis, but it is not always necessary to have such a configuration. For example, one of the first to third optical regions D1, D2, and D3 may be a region that attenuates and transmits visible light at a predetermined rate. Such a region can be realized by using, for example, an ND (Neutral Density) filter having a visible light transmittance lower than that of the polarizing filter in the present embodiment. By using such an ND filter, the dynamic range can be further widened. As described above, when three optical regions are provided in the optical element as in the present embodiment, the first to third optical regions are a region that transmits visible light, a region that transmits red light and near infrared light, and a specific region. The three regions selected from the four regions of the region that transmits light oscillating in the direction of the polarization axis and the region that transmits visible light after being attenuated at a predetermined ratio may be used.

(実施の形態2)
本実施の形態2は、光学領域の分割数が4分割である点、およびレンチキュラレンズKにおける1つのシリンドリカルレンズM1に4行の画素が対応している点において実施の形態1と異なる。以下、実施の形態1と異なる点を中心に説明し、同様の内容についての詳細な説明は省略する。
(Embodiment 2)
The second embodiment is different from the first embodiment in that the number of divisions of the optical region is four and that four rows of pixels correspond to one cylindrical lens M1 in the lenticular lens K. The following description will focus on the differences from the first embodiment, and a detailed description of the same contents will be omitted.

図7は、本実施の形態の撮像装置Aを示す模式図である。本実施の形態では、レンズ光学系Lにおける光学素子L1は、第1の光学領域D1、第2の光学領域D2、第3の光学領域D3、第4の光学領域D4を有している。第1から第3の光学領域D1、D2、D3は、実施の形態1におけるものと同一である。第4の光学領域D4は、可視光を所定の割合で減衰させて透過させるNDフィルタである。以下の説明では、NDフィルタの透過率を12.5%とするが、この透過率は必要に応じて変更してもよい。   FIG. 7 is a schematic diagram illustrating the imaging apparatus A according to the present embodiment. In the present embodiment, the optical element L1 in the lens optical system L has a first optical region D1, a second optical region D2, a third optical region D3, and a fourth optical region D4. The first to third optical regions D1, D2, and D3 are the same as those in the first embodiment. The fourth optical region D4 is an ND filter that attenuates and transmits visible light at a predetermined rate. In the following description, the transmittance of the ND filter is 12.5%, but this transmittance may be changed as necessary.

本実施の形態では、4つの光学領域D1〜D4を通過した光は、レンズL2を通過した後、レンチキュラレンズKに入射する。レンチキュラレンズKは、光学領域D1を通過した光を撮像素子Nにおける複数の画素P1に、光学領域D2を通過した光を撮像素子Nにおける複数の画素P2に、光学領域D3を通過した光を撮像素子Nにおける複数の画素P3に、光学領域D4を通過した光を撮像素子Nにおける複数の画素P4に入射させるように設計されている。撮像素子Nは、画素P1、P2、P3、P4に入射した光をその強度に応じた画素信号に変換する。信号処理部Cは、撮像素子Nから画素信号を受け取り、画素P1の画素群の輝度情報から、赤光および近赤外線による画像の画像情報を生成して出力する。画素P2の画素群の輝度情報から、可視光による画像の画像情報を生成して出力する。画素P3の画素群の輝度情報から、特定の偏光軸の方向に電場が振動する偏光光による画像の画像情報を生成して出力する。さらに、画素P4の画素群の輝度情報から、NDフィルタによって減衰された可視光による画像の画像情報を生成して出力する。   In the present embodiment, the light that has passed through the four optical regions D1 to D4 passes through the lens L2, and then enters the lenticular lens K. The lenticular lens K images the light that has passed through the optical region D1 to the plurality of pixels P1 in the imaging device N, the light that has passed through the optical region D2 to the plurality of pixels P2 in the imaging device N, and the light that has passed through the optical region D3. It is designed such that light that has passed through the optical region D4 is incident on the plurality of pixels P4 in the image sensor N on the plurality of pixels P3 in the element N. The imaging element N converts light incident on the pixels P1, P2, P3, and P4 into a pixel signal corresponding to the intensity. The signal processing unit C receives a pixel signal from the image sensor N, generates image information of an image using red light and near infrared rays from luminance information of the pixel group of the pixel P1, and outputs the image information. Image information of an image by visible light is generated and output from the luminance information of the pixel group of the pixel P2. From the luminance information of the pixel group of the pixel P3, image information of an image by polarized light whose electric field vibrates in the direction of a specific polarization axis is generated and output. Furthermore, the image information of the image by the visible light attenuated by the ND filter is generated and output from the luminance information of the pixel group of the pixel P4.

図7において、光束B1、B2、B3、B4は、光学素子L1上の第1から第4の光学領域D1〜D4をそれぞれ通過する光束である。光束B1〜B4は、絞りS、光学素子L1、レンズL2、レンチキュラレンズKをこの順に通過し、撮像素子N上の撮像面Ni(図9に示す)に到達する。   In FIG. 7, light beams B1, B2, B3, and B4 are light beams that pass through the first to fourth optical regions D1 to D4 on the optical element L1, respectively. The light beams B1 to B4 pass through the stop S, the optical element L1, the lens L2, and the lenticular lens K in this order, and reach the imaging surface Ni (shown in FIG. 9) on the imaging element N.

図8は、第1から第4の光学領域D1〜D4を被写体側から見たときの正面図である。光学素子L1における第1から第4の光学領域D1〜D4は、長方形状であり、光軸Vに垂直な方向(図8におけるy方向)に配列されている。光学領域D1〜D4の形状や面積は全て同一である必要はない。光学領域D1〜D4の並び方が図8の例とは異なっていてもよい。   FIG. 8 is a front view when the first to fourth optical regions D1 to D4 are viewed from the subject side. The first to fourth optical regions D1 to D4 in the optical element L1 have a rectangular shape and are arranged in a direction perpendicular to the optical axis V (y direction in FIG. 8). The shapes and areas of the optical regions D1 to D4 need not all be the same. The arrangement of the optical regions D1 to D4 may be different from the example of FIG.

図9(a)は、図7に示すレンチキュラレンズKおよび撮像素子Nを拡大して示す図であり、図9(b)は、撮像面Ni上の画素の配列を示す図である。複数の画素Pは、それぞれx方向に配列され、行を構成する複数の画素P1、複数の画素P2、複数の画素P3、および複数の画素P4に分けられる。y方向において、画素P1の行、画素P2の行、画素P3の行、および画素P4の行は、この順で繰り返し配置されている。レンチキュラレンズKは、そのシリンドリカルレンズM1の1つが、撮像面Ni上における画素P1〜P4の4行の画素群に対応するように配置されている。撮像面Ni上には、複数の画素P1〜P4の各々を覆うようにマイクロレンズMsが設けられている。   FIG. 9A is an enlarged view of the lenticular lens K and the image sensor N shown in FIG. 7, and FIG. 9B is a diagram showing an arrangement of pixels on the image pickup surface Ni. The plurality of pixels P are each arranged in the x direction, and are divided into a plurality of pixels P1, a plurality of pixels P2, a plurality of pixels P3, and a plurality of pixels P4 constituting a row. In the y direction, the row of the pixel P1, the row of the pixel P2, the row of the pixel P3, and the row of the pixel P4 are repeatedly arranged in this order. The lenticular lens K is arranged so that one of the cylindrical lenses M1 corresponds to a pixel group of four rows of pixels P1 to P4 on the imaging surface Ni. On the imaging surface Ni, a microlens Ms is provided so as to cover each of the plurality of pixels P1 to P4.

画素P1〜P4の各々は、光電変換によって受けた光の強度に応じた電気信号を出力する光検知セルを有する。各光検知セルの出力は信号処理部Cに送られ、画像情報を生成するために用いられる。本実施の形態では、各光検知セルに対向する位置に光を選択的に透過させる光学フィルタのような素子は設けられていない。しかし、複数の画素P1の各々に光学領域D1と同等の透過特性を有する光学フィルタを設け、複数の画素P2の各々に光学領域D2と同等の透過特性を有する光学フィルタを設け、複数の画素P3の各々に光学領域D3と同等の透過特性を有する光学フィルタを設け、複数の画素P4の各々に光学領域D4と同等の透過特性を有する光学フィルタを設けてもよい。これにより、各画素に不要な光が入射することを防ぐことができる。   Each of the pixels P1 to P4 has a light detection cell that outputs an electrical signal corresponding to the intensity of light received by photoelectric conversion. The output of each photodetecting cell is sent to the signal processing unit C and used to generate image information. In this embodiment, an element such as an optical filter that selectively transmits light is not provided at a position facing each photodetecting cell. However, each of the plurality of pixels P1 is provided with an optical filter having a transmission characteristic equivalent to that of the optical region D1, and each of the plurality of pixels P2 is provided with an optical filter having a transmission characteristic equivalent to that of the optical region D2. May be provided with an optical filter having a transmission characteristic equivalent to that of the optical region D3, and an optical filter having a transmission characteristic equivalent to that of the optical region D4 may be provided for each of the plurality of pixels P4. Thereby, unnecessary light can be prevented from entering each pixel.

レンチキュラレンズKは、光学素子L1上の光学領域D1を通過した光束B1の大部分が撮像面Ni上の画素P1に到達し、光学領域D2を通過した光束B2の大部分が撮像面Ni上の画素P2に到達し、光学領域D3を透過した光束B3の大部分が撮像面Ni上の画素P3に到達し、光学領域D4を透過した光束B4の大部分が撮像面Ni上の画素P4に到達するように設計されている。具体的には、レンチキュラレンズKの屈折率、撮像面Niからの距離及びシリンドリカルレンズM1表面の曲率半径等のパラメータを適切に設定することで、上記構成が実現する。   In the lenticular lens K, most of the light beam B1 that has passed through the optical region D1 on the optical element L1 reaches the pixel P1 on the imaging surface Ni, and most of the light beam B2 that has passed through the optical region D2 is on the imaging surface Ni. Most of the light beam B3 reaching the pixel P2 and transmitted through the optical region D3 reaches the pixel P3 on the imaging surface Ni, and most of the light beam B4 transmitted through the optical region D4 reaches the pixel P4 on the imaging surface Ni. Designed to be. Specifically, the above configuration is realized by appropriately setting parameters such as the refractive index of the lenticular lens K, the distance from the imaging surface Ni, and the radius of curvature of the surface of the cylindrical lens M1.

以上の構成により、実施の形態1において説明した第1から第3の画像情報に加え、画素P4の画素群の輝度情報に基づく第4の画像情報を同時に取得することができる。第4の画像情報は、露光量が第2の画像情報に対して12.5%の画像に相当する。実施の形態1では、第2の画像情報と第3の画像情報とを用いてダイナミックレンジの広い画像を生成することができるが、本実施の形態では、さらにダイナミックレンジを広げることができる。偏光フィルタの透過率は40%程度であるため、第2の画像情報と第3の画像情報との露光量比は1:0.4程度である。これに対し、本実施の形態では、第2の画像情報と第4の画像情報との露光量比が1:0.125となるため、実施の形態1よりもダイナミックレンジの広い画像を取得することができる。これにより、トンネルの出入り口や西日に正対した場合においても、白飛びや黒つぶれをより少なくすることができるため、画像認識を用いた安全運転支援の信頼性をさらに高めることができる。   With the above configuration, in addition to the first to third image information described in the first embodiment, the fourth image information based on the luminance information of the pixel group of the pixel P4 can be simultaneously acquired. The fourth image information corresponds to an image having an exposure amount of 12.5% with respect to the second image information. In the first embodiment, an image with a wide dynamic range can be generated using the second image information and the third image information. However, in this embodiment, the dynamic range can be further expanded. Since the transmittance of the polarizing filter is about 40%, the exposure amount ratio between the second image information and the third image information is about 1: 0.4. On the other hand, in the present embodiment, since the exposure amount ratio between the second image information and the fourth image information is 1: 0.125, an image having a wider dynamic range than that of the first embodiment is acquired. be able to. As a result, even when facing the entrance of a tunnel or facing the west, it is possible to further reduce whiteout and blackout, thereby further improving the reliability of safe driving support using image recognition.

なお、透過率が0.125のNDフィルタの代わりに特定の偏光軸の方向に振動する光の透過率が約0.25の偏光フィルタを第4の光学領域D4に設けてもよい。そのような構成であっても、第4の光学領域D4の光の透過率が0.125程度になるため、本実施の形態と同様の効果を得ることができる。   Instead of the ND filter having a transmittance of 0.125, a polarization filter having a transmittance of about 0.25 for light vibrating in the direction of a specific polarization axis may be provided in the fourth optical region D4. Even in such a configuration, since the light transmittance of the fourth optical region D4 is about 0.125, the same effect as the present embodiment can be obtained.

(実施の形態3)
本実施の形態3は、実施の形態1の撮像装置を複数用いた測距装置に関する。図10は撮像装置を2つ用いた測距装置の概略図である。この測距装置は、2つの撮像装置Aと、被写体の距離情報を生成して出力する距離演算回路C2とを備えている。距離演算回路C2は、2つの撮像装置Aによって生成された2つの画像間でパターンマッチングを行うことによって視差を求め、求めた視差に基づいて三角測量の原理に基づく演算によって被写体までの距離を算出する。距離演算回路C2は、DSPなどの電子回路によって構成されていてもよいし、CPUなどの演算装置とプログラムを格納したメモリとの組み合わせによって構成されていてもよい。本実施の形態では、測距装置の基線方向Bに対して各撮像装置のレンチキュラレンズKにおけるシリンドリカルレンズの配列方向Eを直交させている。このため、測距装置の基線方向Bに対してレンチキュラのシリンドリカルレンズの配列方向Eを同一にした場合に比べて、視差算出の分解能を上げることができる。
(Embodiment 3)
The third embodiment relates to a distance measuring device using a plurality of imaging devices of the first embodiment. FIG. 10 is a schematic diagram of a distance measuring device using two imaging devices. The distance measuring device includes two imaging devices A and a distance calculation circuit C2 that generates and outputs subject distance information. The distance calculation circuit C2 calculates parallax by performing pattern matching between two images generated by the two imaging devices A, and calculates the distance to the subject by calculation based on the principle of triangulation based on the calculated parallax. To do. The distance calculation circuit C2 may be configured by an electronic circuit such as a DSP, or may be configured by a combination of a calculation device such as a CPU and a memory storing a program. In the present embodiment, the arrangement direction E of the cylindrical lenses in the lenticular lens K of each imaging device is orthogonal to the baseline direction B of the distance measuring device. Therefore, the resolution of parallax calculation can be increased as compared with the case where the arrangement direction E of the lenticular cylindrical lenses is the same as the base line direction B of the distance measuring device.

本実施の形態における各撮像装置Aにおける信号処理部C(図1)は、第1から第3の光学領域D1〜D3をそれぞれ透過した光による第1から第3の画像情報を合成して新たな画像情報(「合成画像情報」と呼ぶ。)として出力する。各合成画像情報が示す画像は、昼夜や天候状況に関わらず、対象物をしっかり捕らえた画像である。距離演算回路C2は、出力されたそれらの合成画像情報に基づいてパターンマッチングを行うことによって視差情報を生成し、その視差情報から三角測量の原理に基づく演算によって対象物までの距離情報を生成する。ここで、「距離情報」とは、距離そのものの値を示す情報に限らず、対象物の座標情報のように、測距装置と対象物との相対的な位置関係を示す情報であればよい。   The signal processing unit C (FIG. 1) in each imaging apparatus A according to the present embodiment synthesizes the first to third image information by the light transmitted through the first to third optical regions D1 to D3, respectively. Image information (referred to as “composite image information”). The image indicated by each composite image information is an image that firmly captures the object regardless of daytime or nighttime or weather conditions. The distance calculation circuit C2 generates parallax information by performing pattern matching on the basis of the output composite image information, and generates distance information to the target object by calculation based on the principle of triangulation from the parallax information. . Here, the “distance information” is not limited to information indicating the value of the distance itself, but may be information indicating the relative positional relationship between the distance measuring device and the object, such as coordinate information of the object. .

以上のような構成により、 昼夜や天候状況に関わらず対象物までの距離を取得することが可能な測距装置を実現できる。   With the above configuration, it is possible to realize a distance measuring device that can acquire a distance to an object regardless of day and night or weather conditions.

以下、各撮像装置Aの信号処理部Cによる第1から第3の画像情報の合成方法の一例を説明する。以下の説明において、第1の画像情報に基づく画像を「近赤外画像」、第2の画像情報に基づく画像を「可視画像」、第3の画像情報に基づく画像を「偏光画像」と称する。   Hereinafter, an example of a method for synthesizing the first to third image information by the signal processing unit C of each imaging apparatus A will be described. In the following description, an image based on the first image information is referred to as a “near infrared image”, an image based on the second image information is referred to as a “visible image”, and an image based on the third image information is referred to as a “polarized image”. .

図11は、各撮像装置Aの信号処理部Cによる第1から第3の画像情報の合成処理の一例を示すフローチャートである。信号処理部Cは、ステップS100において、撮影時点の環境が昼間なのか夜間なのかを判定する。この判定は、例えばヘッドライトのスイッチがオンであるかオフであるかに基づいて行うことができる。あるいは、可視画像の平均輝度や、可視画像と近赤外画像との輝度比、時刻情報といった他の情報に基づいて行ってもよい。信号処理部Cは、撮影時点が昼間であると判定した場合、ステップS101〜S104の処理を実行し、夜間であると判定した場合、ステップS111、S112の処理を実行する。   FIG. 11 is a flowchart illustrating an example of the synthesis process of the first to third image information by the signal processing unit C of each imaging apparatus A. In step S100, the signal processing unit C determines whether the environment at the time of shooting is daytime or nighttime. This determination can be made based on whether the headlight switch is on or off, for example. Or you may perform based on other information, such as the average brightness | luminance of a visible image, the luminance ratio of a visible image and a near-infrared image, and time information. When the signal processing unit C determines that the photographing time is daytime, the signal processing unit C executes the processing of steps S101 to S104, and when it determines that the shooting time is nighttime, the signal processing unit C executes the processing of steps S111 and S112.

まず、ステップS100において昼間であると判定した場合の処理を説明する。   First, the process when it is determined in step S100 that it is daytime will be described.

ステップS101では、偏光画像を光学領域D3における偏光フィルタの透過率で除算することにより、新たな偏光画像(「ゲイン調整した偏光画像」と呼ぶ。)を生成する。   In step S101, a new polarization image (referred to as a “gain-adjusted polarization image”) is generated by dividing the polarization image by the transmittance of the polarization filter in the optical region D3.

ステップS102では、「可視画像」と「ゲイン調整した偏光画像」とを画素ごとに比較し、輝度値の低い方をその画素の輝度値とする画像(「合成画像1」と呼ぶ。)を生成する。合成画像1は、路面による光の反射の影響やフロントガラスへのダッシュボードの映り込みを抑制した画像である。   In step S102, the “visible image” and the “gain-adjusted polarization image” are compared for each pixel, and an image having the lower luminance value as the luminance value of the pixel (referred to as “synthesized image 1”) is generated. To do. The composite image 1 is an image in which the influence of light reflection from the road surface and the reflection of the dashboard on the windshield are suppressed.

ステップS103では、「合成画像1」と「偏光画像」とをHDR合成することによって新たな合成画像(「合成画像2」と呼ぶ。)を生成する。HDR合成の方法は、例えば実施の形態1で説明した方法または他の公知の方法である。   In step S103, a new composite image (referred to as “composite image 2”) is generated by HDR composite of “composite image 1” and “polarized image”. The HDR synthesis method is, for example, the method described in Embodiment 1 or other known methods.

ステップS104では、生成した合成画像2を、距離演算回路C2に送出する。   In step S104, the generated composite image 2 is sent to the distance calculation circuit C2.

以上の処理により、距離演算回路C2は、2つの撮像装置Aからそれぞれ送出された2つの合成画像2を用いてパターンマッチングを行い、視差情報および距離情報を算出することができる。   Through the above processing, the distance calculation circuit C2 can perform pattern matching using the two composite images 2 respectively transmitted from the two imaging devices A, and calculate parallax information and distance information.

続いて、ステップS100において夜間であると判定した場合の処理を説明する。   Next, a process when it is determined that it is nighttime in step S100 will be described.

ステップS111では、「可視画像」と「近赤外画像」とを画素ごとに加算平均することによって合成画像(「合成画像3」と呼ぶ。)を生成する。   In step S111, the “visible image” and the “near infrared image” are averaged for each pixel to generate a composite image (referred to as “composite image 3”).

ステップS112では、「合成画像3」を距離算出回路に送出する。   In step S112, “composite image 3” is sent to the distance calculation circuit.

以上の処理により、距離演算回路C2は、2つの撮像装置Aからそれぞれ送出された2つの合成画像3を用いてパターンマッチングを行い、視差情報および距離情報を算出することができる。   Through the above processing, the distance calculation circuit C2 can perform pattern matching using the two composite images 3 respectively transmitted from the two imaging devices A, and calculate parallax information and distance information.

なお、上記の合成方法は一例であり、本開示は上記の合成方法に限定されない。   Note that the above synthesis method is an example, and the present disclosure is not limited to the above synthesis method.

次に、距離演算回路C2による視差演算方法の一例を説明する。距離演算回路C2は、まず、比較する2つの合成画像の一方における所定の画像ブロック(基準画像)と、他方における所定の画像ブロック(参照画像)との間に生じる画像のズレをパターンマッチングにより抽出する。パターンマッチングの相関度は、例えば基準画像と参照画像との間の各画素の輝度の差分(絶対値)の総和である評価関数SAD(Sum of Absolute Difference)によって求めることができる。ここで、演算ブロックサイズをm×n画素とすると、SADは(数1)によって求めることができる。

Figure 2015194388
Next, an example of a parallax calculation method by the distance calculation circuit C2 will be described. The distance calculation circuit C2 first extracts an image shift generated between a predetermined image block (reference image) in one of the two composite images to be compared and a predetermined image block (reference image) in the other by pattern matching. To do. The correlation degree of pattern matching can be obtained, for example, by an evaluation function SAD (Sum of Absolute Difference) that is a sum of luminance differences (absolute values) of pixels between the base image and the reference image. Here, if the calculation block size is m × n pixels, SAD can be obtained by (Equation 1).
Figure 2015194388

(数1)において、x、yは撮像面の座標であり、I0、I1はそれぞれ括弧内で示した座標における基準画像の輝度値と参照画像の輝度値である。図12はSAD演算を説明するための図である。SAD演算では、基準画像の基準ブロック領域に対して参照画像の探索ブロック領域の位置を図12のように基線方向にdxだけずらしながら演算し、SADが極小値となるdxが視差Pxとなる。SADは任意の座標で演算できるので、撮像視野内の全領域の視差を抽出することができる。視野の特定の被写体の視差を抽出する場合には、領域を限定すればよい。距離演算回路C2は、例えば、被写体の所定領域に対応する領域の視差Pxを抽出する。   In (Equation 1), x and y are the coordinates of the imaging surface, and I0 and I1 are the luminance value of the standard image and the luminance value of the reference image, respectively, at the coordinates shown in parentheses. FIG. 12 is a diagram for explaining the SAD calculation. In the SAD calculation, the position of the search block area of the reference image is shifted by dx in the baseline direction as shown in FIG. 12 with respect to the base block area of the base image, and dx at which the SAD becomes the minimum value becomes the parallax Px. Since SAD can be calculated with arbitrary coordinates, the parallax of the entire region within the imaging field of view can be extracted. When extracting the parallax of a specific subject in the field of view, the region may be limited. For example, the distance calculation circuit C2 extracts the parallax Px of the area corresponding to the predetermined area of the subject.

なお、ここではSADを評価関数として用いたが、SSD(Sum of Squared Difference)などの他の評価関数を用いて視差を計算してもよい。   Although SAD is used as the evaluation function here, the parallax may be calculated using another evaluation function such as SSD (Sum of Squared Difference).

距離演算回路C2は、このようにして求めた視差情報から、三角測量の原理に基づく演算を行うことにより、測距装置から対象物までの距離を示す情報を生成する。これにより、昼夜を問わず、対象物の距離情報を得ることができるため、前方監視が可能な車載用の測距装置を実現することができる。   The distance calculation circuit C2 generates information indicating the distance from the distance measuring device to the object by performing a calculation based on the principle of triangulation from the parallax information thus obtained. Thereby, since the distance information of an object can be obtained regardless of day and night, a vehicle-mounted distance measuring device capable of forward monitoring can be realized.

なお、本実施の形態では、実施の形態1における撮像装置Aを2台用いたが、代わりに実施の形態2における撮像装置Aを2台用いてもよい。また、実施の形態1における撮像装置Aにおける第1から第3の光学領域D1〜D3のいずれかをNDフィルタに置換した構成を採用してもよい。以下、これらの構成における信号処理部Cによる合成処理の例を説明する。   In the present embodiment, two imaging devices A in the first embodiment are used, but two imaging devices A in the second embodiment may be used instead. Further, a configuration in which any one of the first to third optical regions D1 to D3 in the imaging apparatus A according to Embodiment 1 is replaced with an ND filter may be employed. Hereinafter, an example of synthesis processing by the signal processing unit C in these configurations will be described.

<例1>
まず、第1から第3の光学領域D1〜D3が、可視光を透過させる領域(例えば近赤外カットフィルタ)、可視光を所定の割合で減衰させて透過させる領域(例えば透過率25%のNDフィルタ)、および特定の偏光軸の方向に振動する光を透過させる領域(例えば偏光フィルタ)の組み合わせからなる場合の例を説明する。以下の説明において、NDフィルタを透過した光による画像を「NDフィルタ画像」と称する。この例では、信号処理回路Cは、晴天時と雨天時とで異なる処理を実行する。
<Example 1>
First, the first to third optical regions D1 to D3 are regions that transmit visible light (for example, a near-infrared cut filter), regions that transmit visible light after being attenuated at a predetermined rate (for example, a transmittance of 25%) An example in the case of a combination of an ND filter) and a region that transmits light oscillating in the direction of a specific polarization axis (for example, a polarization filter) will be described. In the following description, an image by light transmitted through the ND filter is referred to as an “ND filter image”. In this example, the signal processing circuit C executes different processing in fine weather and rainy weather.

晴天時には、信号処理回路Cは、「可視画像」と「NDフィルタ画像」とをHDR合成することによって生成した画像(「合成画像4」と呼ぶ。)を距離演算回路C2に送出する。これにより、距離演算回路C2は、2つの撮像装置から送出された2つの合成画像4を用いて視差情報および距離情報を生成することができる。   In fine weather, the signal processing circuit C sends an image (referred to as “composited image 4”) generated by HDR combining the “visible image” and the “ND filter image” to the distance calculation circuit C2. Thereby, the distance calculation circuit C2 can generate parallax information and distance information using the two composite images 4 sent from the two imaging devices.

雨天時には、信号処理回路Cは、まず、偏光画像を偏光フィルタの透過率で除算することによって「ゲイン調整した偏光画像」を生成する。次に、「可視画像」と「ゲイン調整した偏光画像」とを画素ごとに比較し、輝度値の低い方をその画素の輝度値とする「合成画像5」を生成して距離演算回路C2に送出する。これにより、距離演算回路C2は、2つの撮像装置から送出された2つの合成画像5を用いて視差情報および距離情報を生成することができる。   In the rain, the signal processing circuit C first generates a “gain-adjusted polarization image” by dividing the polarization image by the transmittance of the polarization filter. Next, the “visible image” and the “gain-adjusted polarization image” are compared for each pixel, and a “synthesized image 5” having the lower luminance value as the luminance value of the pixel is generated to the distance calculation circuit C2. Send it out. Thereby, the distance calculation circuit C2 can generate parallax information and distance information using the two composite images 5 sent from the two imaging devices.

ここで、撮影時の天候が晴天であるか雨天であるかは、例えば、ワイパーのスイッチがオンであるかオフであるかに基づいて決定できる。あるいは、画像の特性に基づいて天候を判断してもよい。例えば、「可視画像」と「ゲイン調整した偏光画像」との差分に基づいて路面が濡れていると推定される場合には雨天であると判定してもよい。   Here, whether the weather during shooting is clear or rainy can be determined based on, for example, whether the wiper switch is on or off. Alternatively, the weather may be determined based on the characteristics of the image. For example, if it is estimated that the road surface is wet based on the difference between the “visible image” and the “gain-adjusted polarized image”, it may be determined that it is raining.

<例2>
次に、実施の形態2のように、4つの光学領域D4が、可視光を透過させる領域(例えば近赤外カットフィルタ)、赤光および近赤外光を透過させる領域(例えば分光フィルタ)、可視光を所定の割合で減衰させて透過させる領域(例えば透過率25%のNDフィルタ)、および特定の偏光軸の方向に振動する光を透過させる領域(例えば偏光フィルタ)の組み合わせからなる場合の例を説明する。この例では、信号処理回路Cは、天候が晴天であるか雨天であるか、および昼間であるか夜間であるかに応じて異なる処理を実行する。
<Example 2>
Next, as in the second embodiment, the four optical regions D4 are regions that transmit visible light (for example, near-infrared cut filters), regions that transmit red light and near-infrared light (for example, spectral filters), In the case of a combination of a region where visible light is attenuated and transmitted at a predetermined ratio (for example, an ND filter having a transmittance of 25%) and a region which transmits light oscillating in the direction of a specific polarization axis (for example, a polarizing filter) An example will be described. In this example, the signal processing circuit C executes different processing depending on whether the weather is sunny or rainy and whether it is daytime or nighttime.

雨天時の夜間には、信号処理回路Cは、前述の「合成画像5」と「近赤外画像」とを画素ごとに加算平均することによって「合成画像6」を生成し、距離演算回路C2に送出する。これにより、距離演算回路C2は、2つの撮像装置から送出された「合成画像6」を用いて視差情報および距離情報を生成することができる。   In the rainy night, the signal processing circuit C generates a “composite image 6” by averaging the above-mentioned “composite image 5” and “near-infrared image” for each pixel, and the distance calculation circuit C2 To send. Thereby, the distance calculation circuit C2 can generate the parallax information and the distance information using the “composite image 6” sent from the two imaging devices.

雨天時の昼間には、信号処理回路Cは、前述の「合成画像5」を生成して距離演算回路C2に送出する。これにより、距離演算回路C2は、2つの撮像装置から送出された「合成画像5」を用いて視差情報および距離情報を生成することができる。   During the rainy daytime, the signal processing circuit C generates the above-mentioned “composite image 5” and sends it to the distance calculation circuit C2. Thereby, the distance calculation circuit C2 can generate the parallax information and the distance information using the “composite image 5” sent from the two imaging devices.

晴天時の昼間には、信号処理回路Cは、前述の「合成画像4」を生成して距離演算回路C2に送出する。これにより、距離演算回路C2は、2つの撮像装置から送出された「合成画像4」を用いて視差情報および距離情報を生成することができる。   During the daytime in fine weather, the signal processing circuit C generates the above-mentioned “composite image 4” and sends it to the distance calculation circuit C2. Thereby, the distance calculation circuit C2 can generate the parallax information and the distance information using the “composite image 4” sent from the two imaging devices.

晴天時の夜間には、信号処理回路Cは、前述の「合成画像3」を生成して距離演算回路C2に送出する。これにより、距離演算回路C2は、2つの撮像装置から送出された「合成画像3」を用いて視差情報および距離情報を生成することができる。   At night during fine weather, the signal processing circuit C generates the above-mentioned “composite image 3” and sends it to the distance calculation circuit C2. Thereby, the distance calculation circuit C2 can generate the parallax information and the distance information using the “composite image 3” sent from the two imaging devices.

なお、撮影時の天候が晴天であるか雨天であるか、および昼間であるか夜間であるかは、上述したいずれかの方法で判定できる。   Note that whether the weather at the time of shooting is sunny or rainy, and whether it is daytime or nighttime can be determined by any of the methods described above.

(他の実施の形態)
以上、実施の形態1から3を説明した。しかし、本開示の技術はこれらの実施の形態に限らず、各種の変形を施したり、異なる実施の形態を組み合わせて新たな実施の形態としてもよい。以下、他の実施の形態を例示する。
(Other embodiments)
The first to third embodiments have been described above. However, the technology of the present disclosure is not limited to these embodiments, and various modifications may be made, or different embodiments may be combined to form new embodiments. Hereinafter, other embodiments will be exemplified.

図13は、レンチキュラレンズと撮像素子Nとを一体化した例を示す図である。図13(a)および(b)は、レンチキュラレンズKおよび撮像素子Nをそれぞれ拡大して示す図であり、1つの光学領域を通過した光線のみ図示している。本実施の形態では、レンチキュラレンズMd1が、撮像素子Nの撮像面Ni上に形成されている。撮像面Niには、実施の形態1等と同様、画素Pが行列状に配置されている。これら複数の画素Pのうち、光学領域の分割数に応じた行数の画素群に対して1つのレンチキュラレンズMd1のシリンドリカルレンズが対応している。   FIG. 13 is a diagram illustrating an example in which the lenticular lens and the image sensor N are integrated. FIGS. 13A and 13B are views showing the lenticular lens K and the image sensor N in an enlarged manner, and show only light rays that have passed through one optical region. In the present embodiment, the lenticular lens Md1 is formed on the imaging surface Ni of the imaging element N. Pixels P are arranged in a matrix on the imaging surface Ni, as in the first embodiment. Among these pixels P, a cylindrical lens of one lenticular lens Md1 corresponds to a pixel group having the number of rows corresponding to the number of divisions of the optical region.

図13(b)に示す構成では、画素Pを覆うようにレンチキュラレンズMd2(または、マイクロレンズ)が形成され、レンチキュラレンズMd2(または、マイクロレンズ)の表面上に低屈折率層Wを介してレンチキュラレンズMd1が積層されている。図13(b)に示す構成では、図13(a)の構成よりも集光効率を高めることができる。レンチキュラレンズMd2を用いる場合には、画素群の1行ごとに1つのレンチキュラレンズMd2のシリンドリカルレンズが対応して配置される。また、マイクロレンズを用いる場合、1つのマイクロレンズに対して、1つの画素が対応するように配置される。   In the configuration shown in FIG. 13B, the lenticular lens Md2 (or microlens) is formed so as to cover the pixel P, and the low refractive index layer W is interposed on the surface of the lenticular lens Md2 (or microlens). A lenticular lens Md1 is stacked. In the configuration shown in FIG. 13B, the light collection efficiency can be increased as compared with the configuration in FIG. When the lenticular lens Md2 is used, a cylindrical lens of one lenticular lens Md2 is arranged corresponding to each row of the pixel group. In the case of using a microlens, one pixel is arranged to correspond to one microlens.

実施の形態1のようにレンチキュラレンズKが撮像素子Nと分離していると、レンチキュラレンズKと撮像素子Nとの位置合せが難しくなるが、本実施の形態のように、レンチキュラレンズMd1を撮像素子N上に形成する構成にすることにより、ウエハプロセスによって位置合せが可能になるため、位置合せが容易となり、位置合せ精度を向上させることができる。   When the lenticular lens K is separated from the image sensor N as in the first embodiment, it is difficult to align the lenticular lens K and the image sensor N. However, as in the present embodiment, the lenticular lens Md1 is imaged. With the structure formed on the element N, alignment can be performed by a wafer process. Therefore, alignment can be facilitated and alignment accuracy can be improved.

また、本実施の形態において、撮像素子Nの各行の画素上に設けられるレンチキュラレンズMd2または各画素上に設けられるマイクロレンズの代わりに、他の形状の光学素子を撮像素子に設けてもよい。例えば、特開2008−10773号公報に開示されているような、屈折率の異なる材料の分布によって光を集光させる屈折率分布素子を用いてもよい。特開2008−10773号公報の開示内容全体を本願明細書に援用する。このような構造を有する回折光学素子は、例えば半導体フォトリソグラフィ技術を用いて製造することができる。従来のレンズ面を有するマイクロレンズは、例えば、樹脂を熱変形させて製造するため、撮像素子の複数の画素状に設けられる複数のマイクロレンズ間で、レンズ面の曲面を異ならせることは困難であった。これに対し、回折光学素子を用いる場合、撮像素子の複数の画素間で、上述の光学部材の寸法を異ならせることにより、光学特性を変えることができる。よって、光学系LやレンチキュラレンズKによって、斜めから光線が撮像素子Nの画素に入射する場合でも、効率よく画素に光を集光させることができる。   In the present embodiment, instead of the lenticular lens Md2 provided on the pixels in each row of the image sensor N or the microlens provided on each pixel, an optical element having another shape may be provided in the image sensor. For example, you may use the refractive index distribution element which condenses light by distribution of the material from which refractive index differs as disclosed by Unexamined-Japanese-Patent No. 2008-10773. The entire disclosure of JP 2008-10773 is incorporated herein by reference. The diffractive optical element having such a structure can be manufactured using, for example, a semiconductor photolithography technique. For example, since a conventional microlens having a lens surface is manufactured by thermally deforming a resin, it is difficult to make the curved surfaces of the lens surfaces different between a plurality of microlenses provided in a plurality of pixel shapes of an image sensor. there were. On the other hand, when a diffractive optical element is used, the optical characteristics can be changed by making the dimensions of the above-mentioned optical member different between a plurality of pixels of the imaging element. Therefore, even when a light beam is incident on the pixel of the image sensor N from an oblique direction by the optical system L or the lenticular lens K, the light can be efficiently collected on the pixel.

上記の各実施の形態におけるレンチキュラレンズの代わりにマイクロレンズアレイをアレイ状光学素子として用いてもよい。図14は、そのような構成例を示す図である。   Instead of the lenticular lens in each of the above embodiments, a microlens array may be used as an arrayed optical element. FIG. 14 shows an example of such a configuration.

図14(a)に示す例では、光学素子L1pは、第1の光学領域D1、第2の光学領域D2、第3の光学領域D3、第4の光学領域D4を備える。第1の光学領域D1、第2の光学領域D2、第3の光学領域D3、第4の光学領域D4は、光軸Vを通り、水平方向H(撮像素子の撮像面Niにおけるy方向)および水平方向に垂直な方向にそれぞれ平行な境界線で区切られる4つの領域である。この例における第1から第4の光学領域D1〜D4は、実施の形態2における対応する領域と同一である。   In the example shown in FIG. 14A, the optical element L1p includes a first optical region D1, a second optical region D2, a third optical region D3, and a fourth optical region D4. The first optical region D1, the second optical region D2, the third optical region D3, and the fourth optical region D4 pass through the optical axis V and are in the horizontal direction H (y direction on the imaging surface Ni of the imaging device) and These are four regions separated by border lines parallel to the direction perpendicular to the horizontal direction. The first to fourth optical regions D1 to D4 in this example are the same as the corresponding regions in the second embodiment.

図14(b)は、マイクロレンズアレイK’の斜視図である。マイクロレンズアレイK’はx方向およびy方向に配列された複数のマイクロレンズM2を含む。それぞれのマイクロレンズM2の断面(x方向およびy方向に垂直なそれぞれの断面)は曲面形状であり、撮像素子N側に突出している。各マイクロレンズM2は、撮像素子Nの撮像面Niにおいてx方向およびy方向に配列された複数の画素のうち、x方向およびy方向に複数配列された画素に対応して配置される。   FIG. 14B is a perspective view of the microlens array K ′. The microlens array K ′ includes a plurality of microlenses M2 arranged in the x direction and the y direction. The cross section of each microlens M2 (each cross section perpendicular to the x direction and the y direction) has a curved surface shape and protrudes toward the image sensor N side. Each microlens M2 is arranged corresponding to a plurality of pixels arranged in the x direction and the y direction among a plurality of pixels arranged in the x direction and the y direction on the imaging surface Ni of the imaging element N.

図15(a)は、本構成例における撮像面Ni上の画素配列を示す図である。図15(a)に示すように、撮像面Niに配列されている複数の画素は、画素P1、P2、P3、およびP4を含む。マイクロレンズアレイK’の各マイクロレンズM2は、第1の光学領域D1を通過した光を画素P1に入射させ、第2の光学領域D2を通過した光を画素P2に入射させ、第3の光学領域D3を通過した光を画素P3に入射させ、第4の光学領域D4を通過した光を画素P4に入射させる。   FIG. 15A is a diagram illustrating a pixel array on the imaging surface Ni in the present configuration example. As shown in FIG. 15A, the plurality of pixels arranged on the imaging surface Ni includes pixels P1, P2, P3, and P4. Each microlens M2 of the microlens array K ′ causes the light that has passed through the first optical region D1 to be incident on the pixel P1, and the light that has passed through the second optical region D2 is incident on the pixel P2. The light that has passed through the region D3 is incident on the pixel P3, and the light that has passed through the fourth optical region D4 is incident on the pixel P4.

したがって、第1の光学領域D1、第2の光学領域D2、第3の光学領域D3、第4の光学領域D4のそれぞれを透過した光は、画素P1〜P4で検出される。これにより、実施の形態2と同様の信号処理が可能である。   Accordingly, the light transmitted through each of the first optical region D1, the second optical region D2, the third optical region D3, and the fourth optical region D4 is detected by the pixels P1 to P4. Thereby, signal processing similar to that of the second embodiment is possible.

なお、この構成例では、実施の形態2の光学領域の組み合わせを用いたが、実施の形態1の光学領域の組み合わせを用いてもよい。その場合、第1から第3の光学領域のいずれかと同一の特性を有する光学領域を上記の光学領域D4の代わりに配置してもよい。   In this configuration example, the combination of the optical regions of the second embodiment is used, but the combination of the optical regions of the first embodiment may be used. In that case, an optical region having the same characteristics as any of the first to third optical regions may be arranged instead of the optical region D4.

図15(b)は、別の構成例における撮像面Ni上の画素配列を示す図である。図15(b)に示すように、撮像面Niに配列されている複数の画素は、x方向およびy方向に2個ずつ配列される4つの画素を1組とした画素群をそれぞれ含む複数の画素P1、複数の画素P2、複数の画素P3、複数の画素P4を含む。このとき、図14に示す第1から第4の光学領域D1、D2、D3、およびD4には、それぞれ近赤外の帯域の光を透過させるフィルタ、可視光の帯域の光を透過させるフィルタ、特定の偏光軸(透過軸)の方向に電場が振動する光を透過させる偏光フィルタ、および透過率が12.5%のNDフィルタが配置されている。   FIG. 15B is a diagram illustrating a pixel array on the imaging surface Ni in another configuration example. As shown in FIG. 15B, the plurality of pixels arranged on the imaging surface Ni includes a plurality of pixel groups each including a group of four pixels arranged in two in the x direction and in the y direction. It includes a pixel P1, a plurality of pixels P2, a plurality of pixels P3, and a plurality of pixels P4. At this time, in each of the first to fourth optical regions D1, D2, D3, and D4 shown in FIG. 14, a filter that transmits light in the near-infrared band, a filter that transmits light in the visible light band, A polarizing filter that transmits light whose electric field vibrates in a direction of a specific polarization axis (transmission axis) and an ND filter with a transmittance of 12.5% are arranged.

複数の画素P1は分光フィルタが備えられていない4つの画素で構成され、複数の画素P2、P3、およびP4には、赤色の帯域の光を主に透過する分光フィルタが備えられた画素Rが1つ、緑色の帯域の光を主に透過する分光フィルタが備えられた画素Gが2つ、青色の帯域の光を主に透過する分光フィルタが備えられた画素Bが1つの合計4つの画素で構成されている。   The plurality of pixels P1 includes four pixels that are not provided with a spectral filter, and the plurality of pixels P2, P3, and P4 include a pixel R that includes a spectral filter that mainly transmits red band light. A total of four pixels, one with two pixels G provided with a spectral filter that mainly transmits light in the green band and one pixel B provided with a spectral filter that mainly transmits light in the blue band It consists of

マイクロレンズアレイK’の各マイクロレンズM2は、第1の光学領域D1を通過した光を対応する単位領域(図において実線で囲まれた16画素を含む領域)内の画素P1の画素群に入射させ、第2の光学領域D2を通過した光を対応する単位領域内の複数の画素P2の画素群に入射させ、第3の光学領域D3を通過した光を対応する単位領域内の複数の画素P3の画素群に入射させ、第4の光学領域D4を通過した光を対応する単位領域内の複数の画素P4の画素群に入射させる。   Each microlens M2 of the microlens array K ′ enters the light passing through the first optical region D1 into the pixel group of the pixel P1 in the corresponding unit region (a region including 16 pixels surrounded by a solid line in the drawing). The light that has passed through the second optical region D2 is incident on the pixel group of the plurality of pixels P2 in the corresponding unit region, and the light that has passed through the third optical region D3 is the plurality of pixels in the corresponding unit region. The light is incident on the pixel group P3 and the light that has passed through the fourth optical region D4 is incident on the pixel group of the plurality of pixels P4 in the corresponding unit region.

したがって、第1の光学領域D1、第2の光学領域D2、第3の光学領域D3、第4の光学領域D4のそれぞれを透過した光は、画素P1〜P4で検出される。   Accordingly, the light transmitted through each of the first optical region D1, the second optical region D2, the third optical region D3, and the fourth optical region D4 is detected by the pixels P1 to P4.

なお、この構成例の複数の画素P2において、分光フィルタが備えられていない画素4つで構成したが、近赤外の帯域の光を透過する分光フィルタが備えられた画素4つで構成してもよい。   The plurality of pixels P2 in this configuration example are configured with four pixels that are not provided with a spectral filter, but are configured with four pixels that are provided with a spectral filter that transmits light in the near-infrared band. Also good.

以上のような構成により、近赤外線の強度情報を有する第1の画像情報と、可視光の強度情報を有する第2の画像情報と、特定の偏光軸(透過軸)の方向に振動する偏光の強度情報を有する第3の画像情報と、露光量が第2の画像情報に対して12.5%の第4の画像情報を同時に取得することができる。ここで、画素群P2、P3、およびP4にはRGBのカラーフィルタが備えられているため、第2、第3、および第4の画像情報にはそれぞれカラー情報が含まれる。従って、これらの画像情報を用いた合成画像をカラー化することができ、標識などの情報を認識できるだけでなく、動画を記憶する装置を付加すれば、カラー画像を記録するドライブレコーダとして利用することもできる。   With the configuration described above, the first image information having near-infrared intensity information, the second image information having visible light intensity information, and the polarized light that vibrates in the direction of a specific polarization axis (transmission axis). The third image information having the intensity information and the fourth image information whose exposure amount is 12.5% with respect to the second image information can be acquired simultaneously. Here, since the pixel groups P2, P3, and P4 are provided with RGB color filters, the second, third, and fourth image information each include color information. Therefore, it is possible to colorize a composite image using these image information, and not only can recognize information such as signs, but also can be used as a drive recorder for recording color images if a device for storing moving images is added. You can also.

また、実施の形態1および2において画素P2、P3、P4のそれぞれにカラーフィルタを備えた構成とすれば、本構成と同様の効果を得ることができる。   Further, in the first and second embodiments, if each of the pixels P2, P3, and P4 is provided with a color filter, the same effect as this configuration can be obtained.

本願に開示された撮像装置は、デジタルスチルカメラ、デジタルビデオカメラ、車載カメラ、監視カメラ、肌診断カメラ、および内視鏡カメラ、カプセル内視鏡等の撮像装置として利用できる。また、マイクロスコープや電子ミラーなどの撮像システムに応用することができる。   The imaging device disclosed in the present application can be used as an imaging device such as a digital still camera, a digital video camera, an in-vehicle camera, a surveillance camera, a skin diagnostic camera, an endoscope camera, and a capsule endoscope. Further, it can be applied to an imaging system such as a microscope and an electronic mirror.

A 撮像装置
L レンズ光学系
L1 光学素子
L2 レンズ
D1〜D4 光学領域
S 絞り
K レンチキュラレンズ
Li 照明装置
N 撮像素子
Ni 撮像面
M1、Md1 シリンドリカルレンズ
Md2 画素上のレンチキュラレンズ(もしくはマイクロレンズ)
Ms 画素上のマイクロレンズ
P1〜P4 撮像素子上の画素
C 信号処理部
C2 距離演算回路
Ve 車両
A Imaging device L Lens optical system L1 Optical element L2 Lens D1 to D4 Optical region S Aperture K Lenticular lens Li Lighting device N Imaging device Ni Imaging surface M1, Md1 Cylindrical lens Md2 Lenticular lens (or microlens) on pixel
Ms Micro lens on pixel P1 to P4 Pixel on image sensor C Signal processing unit C2 Distance calculation circuit Ve Vehicle

Claims (11)

第1の光学領域、第2の光学領域、および第3の光学領域を有するレンズ光学系と、
前記レンズ光学系を通過した光を受けるように配置された複数の第1の画素、複数の第2の画素、および複数の第3の画素を有する撮像素子と、
前記レンズ光学系と前記撮像素子との間に配置されたアレイ状光学素子と、
を備え、
前記第1から第3の光学領域は、可視光を透過させる領域、赤光および近赤外線を透過させる領域、特定の偏光軸の方向に振動する光を透過させる領域、および可視光を所定の割合で減衰させて透過させる領域の4つの領域から選択された3つの領域であり、
前記アレイ状光学素子は、前記第1の光学領域を透過した光を前記複数の第1の画素に入射させ、前記第2の光学領域を透過した光を前記複数の第2の画素に入射させ、前記第3の光学領域を透過した光を前記複数の第3の画素に入射させるように構成されている、
撮像装置。
A lens optical system having a first optical region, a second optical region, and a third optical region;
An imaging device having a plurality of first pixels, a plurality of second pixels, and a plurality of third pixels arranged to receive the light that has passed through the lens optical system;
An array-like optical element disposed between the lens optical system and the imaging element;
With
The first to third optical regions are a region that transmits visible light, a region that transmits red light and near infrared light, a region that transmits light that vibrates in the direction of a specific polarization axis, and a predetermined ratio of visible light. Are three regions selected from four regions that are attenuated and transmitted by
The arrayed optical element causes light transmitted through the first optical region to enter the plurality of first pixels, and allows light transmitted through the second optical region to enter the plurality of second pixels. The light transmitted through the third optical region is configured to enter the plurality of third pixels.
Imaging device.
前記第1から第3の光学領域は、前記レンズ光学系の光軸方向に垂直な第1の方向に配列されており、
前記アレイ状光学素子は、前記第1の方向に複数のシリンドリカルレンズが配列されたレンチキュラレンズである、
請求項1に記載の撮像装置。
The first to third optical regions are arranged in a first direction perpendicular to the optical axis direction of the lens optical system,
The arrayed optical element is a lenticular lens in which a plurality of cylindrical lenses are arranged in the first direction.
The imaging device according to claim 1.
前記第1の光学領域は、赤光および近赤外線を透過させるように構成され、
前記第2の光学領域は、可視光を透過させるように構成され、
前記第3の光学領域は、特定の偏光軸の方向に振動する光を透過させるように構成されている、
請求項1または2に記載の撮像装置。
The first optical region is configured to transmit red light and near infrared light;
The second optical region is configured to transmit visible light;
The third optical region is configured to transmit light that vibrates in the direction of a specific polarization axis.
The imaging device according to claim 1 or 2.
前記レンズ光学系は、可視光を所定の割合で減衰させて透過させる第4の光学領域をさらに有し、
前記撮像素子は、複数の第4の画素をさらに有し、
前記アレイ状光学素子は、さらに、前記第4の光学領域を透過した光を前記複数の第4の画素に入射させるように構成されている、
請求項3に記載の撮像装置。
The lens optical system further includes a fourth optical region that attenuates and transmits visible light at a predetermined rate,
The imaging device further includes a plurality of fourth pixels,
The arrayed optical element is further configured to make light transmitted through the fourth optical region incident on the plurality of fourth pixels.
The imaging device according to claim 3.
前記第1から第4の光学領域は、前記レンズ光学系の光軸方向に垂直な第1の方向に配列されており、
前記アレイ状光学素子は、前記第1の方向に複数のシリンドリカルレンズが配列されたレンチキュラレンズである、
請求項4に記載の撮像装置。
The first to fourth optical regions are arranged in a first direction perpendicular to the optical axis direction of the lens optical system,
The arrayed optical element is a lenticular lens in which a plurality of cylindrical lenses are arranged in the first direction.
The imaging device according to claim 4.
前記アレイ状光学素子と前記撮像素子とが一体化されている、請求項1から5のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the arrayed optical element and the imaging element are integrated. 各々が請求項1から6のいずれかに記載の撮像装置である2つの撮像装置と、
前記2つの撮像装置から出力された信号に基づいて、被写体の距離情報を生成する距離演算回路と、
を備える測距装置。
Two imaging devices each being an imaging device according to any one of claims 1 to 6,
A distance calculation circuit that generates distance information of a subject based on signals output from the two imaging devices;
Ranging device comprising.
前記2つの撮像装置の各々は、前記複数の第1の画素、前記複数の第2の画素、および前記複数の第3の画素から出力された信号に基づく合成画像を生成して出力し、
前記距離演算回路は、前記2つの撮像装置から出力された2つの画像間でパターンマッチングを行うことにより、前記距離情報を生成する、
請求項7に記載の測距装置。
Each of the two imaging devices generates and outputs a composite image based on signals output from the plurality of first pixels, the plurality of second pixels, and the plurality of third pixels,
The distance calculation circuit generates the distance information by performing pattern matching between two images output from the two imaging devices.
The distance measuring device according to claim 7.
前記2つの撮像装置の各々は、請求項4または5に記載の撮像装置であり、前記複数の第1の画素、前記複数の第2の画素、前記複数の第3の画素、および前記複数の第4の画素から出力された信号に基づく合成画像を生成して出力し、
前記距離演算回路は、前記2つの撮像装置から出力された2つの画像間でパターンマッチングを行うことにより、前記距離情報を生成する、
請求項8に記載の測距装置。
Each of the two image pickup devices is the image pickup device according to claim 4 or 5, wherein the plurality of first pixels, the plurality of second pixels, the plurality of third pixels, and the plurality of the plurality of image pickup devices. Generating and outputting a composite image based on the signal output from the fourth pixel;
The distance calculation circuit generates the distance information by performing pattern matching between two images output from the two imaging devices.
The distance measuring device according to claim 8.
請求項1から6のいずれかに記載の撮像装置であって、前記レンズ光学系が赤光および近赤外線を透過させるように構成された光学領域を有する撮像装置と、
近赤外線を出射する照明装置と、
を備える撮像システム。
The imaging apparatus according to any one of claims 1 to 6, wherein the lens optical system includes an optical region configured to transmit red light and near-infrared light,
A lighting device that emits near infrared rays;
An imaging system comprising:
請求項1から6のいずれかに記載の撮像装置、請求項7から9のいずれかに記載の測距装置、および請求項10に記載の撮像システムの少なくとも1つを備える車両。   A vehicle comprising at least one of the imaging device according to any one of claims 1 to 6, the distance measuring device according to any one of claims 7 to 9, and the imaging system according to claim 10.
JP2014072235A 2014-03-31 2014-03-31 Imaging device and imaging system Pending JP2015194388A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014072235A JP2015194388A (en) 2014-03-31 2014-03-31 Imaging device and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014072235A JP2015194388A (en) 2014-03-31 2014-03-31 Imaging device and imaging system

Publications (1)

Publication Number Publication Date
JP2015194388A true JP2015194388A (en) 2015-11-05

Family

ID=54433554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014072235A Pending JP2015194388A (en) 2014-03-31 2014-03-31 Imaging device and imaging system

Country Status (1)

Country Link
JP (1) JP2015194388A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020176842A (en) * 2019-04-15 2020-10-29 大塚電子株式会社 Optical unit, optical measurement device, and optical measurement method
CN113225485A (en) * 2021-03-19 2021-08-06 浙江大华技术股份有限公司 Image acquisition assembly, fusion method, electronic device and storage medium
WO2024203005A1 (en) * 2023-03-29 2024-10-03 ソニーグループ株式会社 Image processing apparatus and polarization sensor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020176842A (en) * 2019-04-15 2020-10-29 大塚電子株式会社 Optical unit, optical measurement device, and optical measurement method
JP7219463B2 (en) 2019-04-15 2023-02-08 大塚電子株式会社 Optical unit, optical measuring device and optical measuring method
CN113225485A (en) * 2021-03-19 2021-08-06 浙江大华技术股份有限公司 Image acquisition assembly, fusion method, electronic device and storage medium
WO2024203005A1 (en) * 2023-03-29 2024-10-03 ソニーグループ株式会社 Image processing apparatus and polarization sensor

Similar Documents

Publication Publication Date Title
US10377322B2 (en) In-vehicle camera and vehicle control system
CN104512411B (en) Vehicle control system and imaging sensor
US10564267B2 (en) High dynamic range imaging of environment with a high intensity reflecting/transmitting source
JP6260006B2 (en) IMAGING DEVICE, IMAGING SYSTEM USING THE SAME, ELECTRONIC MIRROR SYSTEM, AND RANGING DEVICE
US9944293B2 (en) Object detection apparatus, moving body device control system and program thereof
US7863568B2 (en) Photosensitive sensor in the automotive field
US20180027191A2 (en) System for controlling pixel array sensor with independently controlled sub pixels
CN104618665B (en) Multiple imager vehicle optical sensor system
JP5839253B2 (en) Object detection device and in-vehicle device control device including the same
JP2015194388A (en) Imaging device and imaging system
JP2015195489A (en) Collision preventing system, collision preventing method and computer program
JP2013095315A (en) Inside rear view mirror device with built-in imaging device, and vehicle equipped with the same
US10440249B2 (en) Vehicle vision system camera with semi-reflective and semi-transmissive element
JP5590457B2 (en) IMAGING DEVICE, OBJECT DETECTION DEVICE HAVING THE SAME, AND ON-VEHICLE DEVICE CONTROL DEVICE
JP7484904B2 (en) Image pickup device, signal processing device, signal processing method, program, and image pickup device
JP6536946B2 (en) Imaging device, imaging method, program, and mobile device control system
JP7316340B2 (en) Solid-state imaging device and electronic equipment
WO2013035320A1 (en) Observation device
JP6489155B2 (en) Image processing apparatus and camera
JP2014222146A (en) Observation device
JP6149376B2 (en) Image processing apparatus and in-vehicle camera unit
JP2016051963A (en) Imaging device and polarizing filter member