JP6579859B2 - Imaging apparatus, image processing apparatus, image processing method, and program - Google Patents
Imaging apparatus, image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6579859B2 JP6579859B2 JP2015158674A JP2015158674A JP6579859B2 JP 6579859 B2 JP6579859 B2 JP 6579859B2 JP 2015158674 A JP2015158674 A JP 2015158674A JP 2015158674 A JP2015158674 A JP 2015158674A JP 6579859 B2 JP6579859 B2 JP 6579859B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- pixel array
- photoelectric conversion
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 74
- 238000003672 processing method Methods 0.000 title claims description 22
- 230000003287 optical effect Effects 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 210000001747 pupil Anatomy 0.000 claims description 15
- 238000000034 method Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 13
- 239000003086 colorant Substances 0.000 claims description 4
- 238000005070 sampling Methods 0.000 description 38
- 238000010586 diagram Methods 0.000 description 24
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 14
- 230000005484 gravity Effects 0.000 description 9
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Landscapes
- Color Television Image Signal Generators (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Description
本発明は、撮像装置、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an imaging device, an image processing device, an image processing method, and a program.
ベイヤー(Bayer)配列等のカラーフィルタが配置された単板式センサを用いた撮像装置では、撮像時に画素毎に生成できる色信号が異なり、カラーフィルタの配列に起因した折り返し(歪)が発生し、画質が損なわれる場合がある。また、撮影レンズの射出瞳を複数の領域に瞳分割し、分割された瞳領域に応じた複数の視差画像を同時に撮影することができる撮像装置が提案されている。例えば、特許文献1は、1画素毎に、1つのマイクロレンズと複数の光電変換部(以下、副画素と称する)を備え、副画素には、RGBのいずれかのカラーフィルタが配置された2次元撮像素子を用いた撮像装置を提案している。 In an imaging apparatus using a single-plate sensor in which color filters such as a Bayer array are arranged, color signals that can be generated for each pixel at the time of imaging differ, and aliasing (distortion) due to the arrangement of the color filters occurs. Image quality may be impaired. In addition, there has been proposed an imaging apparatus that can divide the exit pupil of the photographing lens into a plurality of regions and simultaneously photograph a plurality of parallax images corresponding to the divided pupil regions. For example, Patent Document 1 includes one microlens and a plurality of photoelectric conversion units (hereinafter referred to as subpixels) for each pixel, and any one of RGB color filters is arranged in the subpixel. An imaging apparatus using a two-dimensional imaging element has been proposed.
しかしながら、特許文献1には、1画素において、副画素の信号間で視差による位置ずれが発生する場合、副画素を用いて色信号を生成する際に、色ずれや、補間による解像感の低下が発生するという問題がある。 However, in Patent Document 1, in the case where a positional shift due to parallax occurs between sub-pixel signals in one pixel, when generating a color signal using the sub-pixel, color misalignment or a resolution feeling due to interpolation is detected. There is a problem that a decrease occurs.
本発明は、高画質な画像信号を生成することが可能な画像処理装置、画像処理方法、プログラムおよび撮像装置を提供することを例示的な目的とする。 An object of the present invention is to provide an image processing apparatus, an image processing method, a program, and an imaging apparatus that can generate a high-quality image signal.
本発明の撮像装置は、複数の画素からなる画素アレイと、画素アレイ上に規則的に配列された複数の色のカラーフィルタと、を有し、各画素は、1つのマイクロレンズと被写体像を光電変換する複数の光電変換部を備えた撮像素子と、出力画像を生成するための複数の画像生成位置のそれぞれにおいて、前記画像生成位置に対応する前記画素アレイ上の位置から所定範囲内にある光電変換部の信号を、前記画像生成位置に対応する前記画素アレイ上の位置から各光電変換部までの距離に応じた重みによって加重加算することで、前記カラーフィルタに対応する色情報を設定する画像処理手段と、を有することを特徴とする。 The imaging device of the present invention has a pixel array composed of a plurality of pixels, and a plurality of color filters regularly arranged on the pixel array, and each pixel captures one microlens and a subject image. an imaging device having a plurality of photoelectric conversion unit for photoelectrically converting, in each of the plurality of image generation position for generating the output image, within a predetermined range from the position on the pixel array corresponding to the image generation position Color information corresponding to the color filter is set by weighted addition of a signal from a certain photoelectric conversion unit with a weight corresponding to the distance from the position on the pixel array corresponding to the image generation position to each photoelectric conversion unit image processing means for, characterized that you have a.
本発明によれば、高画質な画像信号を生成することが可能な画像処理装置、画像処理方法、プログラムおよび撮像装置を提供することができる。 According to the present invention, it is possible to provide an image processing device, an image processing method, a program, and an imaging device that can generate a high-quality image signal.
図1は、本発明の実施形態に係る撮像装置の構成の一例を示すブロック図である。撮像装置100は、一眼レフカメラやノンレフレックスカメラ(ミラーレスカメラ)におけるカメラ本体でもよいし、レンズ一体型でもよい。撮像装置100は、デジタルスチルカメラ、デジタルビデオカメラ、テレビカメラなどであってもよい。 FIG. 1 is a block diagram illustrating an example of the configuration of an imaging apparatus according to an embodiment of the present invention. The imaging apparatus 100 may be a camera body in a single-lens reflex camera or a non-reflex camera (mirrorless camera), or may be a lens-integrated type. The imaging apparatus 100 may be a digital still camera, a digital video camera, a television camera, or the like.
図1において、撮像装置100は、結像光学系101、撮像素子102、カメラ信号処理回路103、フレームメモリ104、結像光学系101の駆動制御手段105、表示部106、記録部107、操作系108、システム制御手段109を有する。カメラ信号処理回路103、フレームメモリ104、表示部106、記録部107、操作系108は、バスライン110を介して相互に接続されている。 In FIG. 1, an imaging apparatus 100 includes an imaging optical system 101, an imaging element 102, a camera signal processing circuit 103, a frame memory 104, a drive control means 105 for the imaging optical system 101, a display unit 106, a recording unit 107, and an operation system. 108 and system control means 109. The camera signal processing circuit 103, the frame memory 104, the display unit 106, the recording unit 107, and the operation system 108 are connected to each other via a bus line 110.
結像光学系101は、被写体像を形成する。即ち、結像光学系101は、フォーカスレンズ、ズームレンズ、絞り、手振れ補正レンズ等の光学素子を含み、被写体からの入射光(像光)を取り込んで撮像素子102の撮像面上に結像する。また、結像光学系101の上記光学素子は、駆動制御手段105からの制御信号に基づき、駆動制御される。駆動制御手段105は、システム制御手段109によって制御される。なお、フォーカスレンズは、光軸方向に移動されて焦点調節を行う。焦点調節においては、撮像素子102を光軸方向に移動させてもよい。フォーカスレンズや撮像素子102の駆動手段は、DCモータ、ステッピングモータ、ボイスコイルモータなどのアクチュエータにより構成することができる。駆動制御手段105は、駆動手段の駆動を制御する。 The imaging optical system 101 forms a subject image. That is, the imaging optical system 101 includes optical elements such as a focus lens, a zoom lens, a diaphragm, and a camera shake correction lens, and takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging element 102. . The optical element of the imaging optical system 101 is driven and controlled based on a control signal from the drive control means 105. The drive control unit 105 is controlled by the system control unit 109. The focus lens is moved in the optical axis direction to adjust the focus. In focus adjustment, the image sensor 102 may be moved in the optical axis direction. The driving means for the focus lens and the image sensor 102 can be constituted by an actuator such as a DC motor, a stepping motor, or a voice coil motor. The drive control means 105 controls the drive of the drive means.
撮像素子102は、2次元CMOSフォトセンサーと周辺回路からなる撮像素子であり、結像光学系の結像面に配置される。撮像素子102は、結像光学系101によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。このように、撮像素子102は、結像光学系101が形成した被写体像を光電変換するが、その詳細な構造については後述する。 The image sensor 102 is an image sensor composed of a two-dimensional CMOS photosensor and a peripheral circuit, and is disposed on the image forming surface of the image forming optical system. The imaging element 102 converts the amount of incident light imaged on the imaging surface by the imaging optical system 101 into an electrical signal in units of pixels and outputs it as a pixel signal. As described above, the image sensor 102 photoelectrically converts the subject image formed by the imaging optical system 101, and the detailed structure thereof will be described later.
カメラ信号処理回路103は、撮像素子102から出力される、例えば、1フレーム分の画像信号をフレームメモリ104に一時的に保存し、保存した画像信号に対して各種の信号処理(ホワイトバランス、ガンマ補正、デモザイク処理など)を行う。カメラ信号処理回路103は、デジタルシグナルプロセッサ(DSP)から構成されてもよい。デモザイク処理は、一般には、撮像素子から得られる信号に対して、欠けている色情報(輝度情報、画素値情報)を補間することによって、各画素に、カラーフィルタに設定された複数の色の全てについて色情報を設定する色補間処理をいう。 The camera signal processing circuit 103 temporarily stores, for example, an image signal for one frame output from the image sensor 102 in the frame memory 104, and performs various signal processing (white balance, gamma) on the stored image signal. Correction, demosaic processing, etc.). The camera signal processing circuit 103 may be composed of a digital signal processor (DSP). In general, demosaic processing interpolates missing color information (luminance information, pixel value information) with respect to a signal obtained from an image sensor, so that each pixel has a plurality of colors set in a color filter. Color interpolation processing for setting color information for all.
本実施形態の画像処理方法(信号処理方法)は、撮像装置100の内部で行われてもよいし、専用の画像処理装置(信号処理装置)や本実施形態の画像処理方法のプログラムをインストールしたパーソナルコンピュータなど、撮像装置100の外部で行われてもよい。このような画像処理装置、画像処理方法およびプログラムも本発明の一側面を構成する。その際、画像処理方法の各ステップはコンピュータがソフトウェアによって実行してもよいし、専用のハードウェアが実行してもよい。 The image processing method (signal processing method) of this embodiment may be performed inside the imaging apparatus 100, or a dedicated image processing device (signal processing device) or a program of the image processing method of this embodiment is installed. It may be performed outside the imaging apparatus 100 such as a personal computer. Such an image processing apparatus, an image processing method, and a program also constitute one aspect of the present invention. At this time, each step of the image processing method may be executed by software by a computer or by dedicated hardware.
表示部106は、液晶表示部等のパネル型表示部からなり、撮像素子102で撮像された動画または静止画を表示する。本発明の画像処理方法は、表示部106が、画像処理手段によって処理された画像を逐次表示するライブビュー画像を生成する際に適用されてもよい。記録部107は、撮像素子102で撮像された動画または静止画を、SDカード等の記録媒体に記録する。 The display unit 106 includes a panel type display unit such as a liquid crystal display unit, and displays a moving image or a still image captured by the image sensor 102. The image processing method of the present invention may be applied when the display unit 106 generates a live view image that sequentially displays images processed by the image processing unit. The recording unit 107 records a moving image or a still image captured by the image sensor 102 on a recording medium such as an SD card.
操作系108は、ユーザによる操作に従って、様々な操作指令を発する、ボタン、ダイヤル、レバー、タッチパネルなどを含む。操作系108は、フォーカス選択スイッチを含む。かかるフォーカス選択スイッチ(フォーカス選択手段)は、マニュアルフォーカス(MF)モード、オートフォーカス(自動焦点調節、AF)モード、デフォーカスモードを選択することができる。MFモードでは、ユーザが不図示のフォーカスリングを操作してフォーカスレンズを移動させ、手動で焦点調節を行う。AFモードでは、位相差検出方式やコントラスト検出方式などを利用して焦点検出を行い、自動でフォーカスレンズを合焦位置に移動させて焦点調節を行う。デフォーカスモードでは、合焦位置から所定量だけデフォーカスさせた位置にフォーカスレンズを自動的に移動させる。デフォーカス状態において、後述する本実施形態の効果を得ることができるが、製造誤差などからAFモードでもフォーカスレンズは焦点位置に完全に一致しない場合が多く、後述する本実施形態の効果を得られる場合がある。 The operation system 108 includes buttons, dials, levers, touch panels, and the like that issue various operation commands in accordance with user operations. The operation system 108 includes a focus selection switch. Such a focus selection switch (focus selection means) can select a manual focus (MF) mode, an autofocus (automatic focus adjustment, AF) mode, and a defocus mode. In the MF mode, the user operates a focus ring (not shown) to move the focus lens, and manually performs focus adjustment. In the AF mode, focus detection is performed using a phase difference detection method, a contrast detection method, or the like, and the focus lens is automatically moved to the in-focus position to perform focus adjustment. In the defocus mode, the focus lens is automatically moved to a position defocused by a predetermined amount from the in-focus position. In the defocus state, the effect of the present embodiment described later can be obtained. However, the focus lens often does not completely coincide with the focal position even in the AF mode due to a manufacturing error or the like, and the effect of the present embodiment described later can be obtained. There is a case.
システム制御手段109は、撮像装置100内の各部の動作を制御する制御手段である。システム制御手段109は、画像全体(画面全体)に対するカメラ信号処理回路103の処理を制御してもよい。 The system control unit 109 is a control unit that controls the operation of each unit in the imaging apparatus 100. The system control unit 109 may control processing of the camera signal processing circuit 103 for the entire image (entire screen).
次に、撮像素子102の構成と、瞳分割した画像の取得処理について説明する。撮像素子102は、複数の画素からなる画素アレイと、画素アレイ上に規則的に配列された複数の色のカラーフィルタと、複数のマイクロレンズを有する。各画素は、結像光学系101の異なる瞳領域を通過した光束をそれぞれ受光して結像光学系101が結像する被写体像を光電変換する複数の光電変換部としての副画素を備えている。 Next, the configuration of the image sensor 102 and the process for acquiring the pupil-divided image will be described. The image sensor 102 includes a pixel array including a plurality of pixels, a plurality of color filters regularly arranged on the pixel array, and a plurality of microlenses. Each pixel includes a plurality of sub-pixels as photoelectric conversion units that receive light beams that have passed through different pupil regions of the imaging optical system 101 and photoelectrically convert a subject image formed by the imaging optical system 101. .
図2は、撮像素子102の画素アレイの一部を示したものである。図2(A)は、撮像素子102の撮像面を上から見た模式図であり、複数の画素200、201、202、203は、それぞれ、出力画像の1画素分に相当する同色成分の信号を生成する。画素は、水平方向、垂直方向に、それぞれΔXの、サンプリング周期で、画像信号を出力するものとする。ΔXは、副画素の間隔(ΔX/2)よりも大きい間隔である。300、302は、対応する画素の中心位置を表している。 FIG. 2 shows a part of the pixel array of the image sensor 102. FIG. 2A is a schematic diagram of the imaging surface of the imaging element 102 as viewed from above. A plurality of pixels 200, 201, 202, and 203 are signals of the same color component corresponding to one pixel of the output image. Is generated. The pixel outputs an image signal in the horizontal direction and the vertical direction at a sampling period of ΔX. ΔX is an interval larger than the subpixel interval (ΔX / 2). Reference numerals 300 and 302 denote the center positions of the corresponding pixels.
画素200、201、202、203には、それぞれ1つのマイクロレンズが配置されており、図2は、マイクロレンズを丸で示している。各画素は、水平方向と垂直方向にそれぞれ2つずつ、合計4つの副画素を有する。このような構成で、副画素毎に撮像された信号を読み出すことにより、図3の実線で示す結像光学系101の射出瞳を分割した複数の領域(破線で示す)瞳領域A、B、C、Dに応じた視差画像を同時に撮影することができる。副画素には、R、G、Bのいずれかのカラーフィルタが配置され、共通のマイクロレンズに対応づけられた副画素には、同色のカラーフィルタが配置される。例えば、図2(B)に示すベイヤー配列のカラーフィルタが配置されている。 Each of the pixels 200, 201, 202, and 203 is provided with one microlens, and FIG. 2 shows the microlens as a circle. Each pixel has a total of four subpixels, two in the horizontal direction and two in the vertical direction. With such a configuration, by reading out signals picked up for each sub-pixel, a plurality of regions (shown by broken lines) pupil regions A, B, which are obtained by dividing the exit pupil of the imaging optical system 101 shown by solid lines in FIG. The parallax images corresponding to C and D can be taken simultaneously. One of the R, G, and B color filters is disposed in the sub-pixel, and the same color filter is disposed in the sub-pixel associated with the common microlens. For example, a Bayer array color filter shown in FIG. 2B is arranged.
次に、図4を参照して、撮像時に副画素でサンプリングされる被写体像のサンプリング位置について説明する。図4(A)、(B)は、撮像素子102の撮像面30に、分割された瞳領域を通る光束400(実線)、401(破線)が入射される様子を示した模式図であり、光束400、401は、それぞれ、瞳領域A、Dを通る光束を示している。 Next, with reference to FIG. 4, the sampling position of the subject image sampled by the sub-pixel at the time of imaging will be described. 4A and 4B are schematic diagrams illustrating a state in which light beams 400 (solid lines) and 401 (broken lines) passing through the divided pupil regions are incident on the imaging surface 30 of the imaging element 102. Light beams 400 and 401 indicate light beams that pass through pupil regions A and D, respectively.
ここで、被写体からの光が撮像素子102の撮像面30に結像する場合、図4(A)に示すように、分割された瞳領域を通り、撮像素子102に入射された光束400、401は撮像面30の一点に集まる。従って、図4(C)に示すように、撮像素子102で取得される、分割された瞳領域A、B、C、Dに対応した副画素の重心は一致する。なお、図4(A)と(C)の方向Eは対応し、図4(B)と(D)の方向Eは対応している。図2(B)に示す画素200内の副画素Ra、Rb、Rc、Rdが光束を受光する位置は、図4(A)において画素200の中心位置300に一致している。図2(B)に示す画素203内の副画素Ba、Bb、Bc、Bdが光束を受光する位置は、図4(A)において画素203の中心位置302に一致している。このように、副画素が画像を生成する位置を「サンプリング位置」または「重心位置」と呼ぶ場合がある。 Here, when the light from the subject forms an image on the imaging surface 30 of the image sensor 102, as shown in FIG. 4A, the light beams 400 and 401 that enter the image sensor 102 through the divided pupil regions. Gather at one point on the imaging surface 30. Therefore, as shown in FIG. 4C, the centroids of the sub-pixels corresponding to the divided pupil regions A, B, C, and D acquired by the image sensor 102 coincide. In addition, the direction E of FIG. 4 (A) and (C) respond | corresponds, and the direction E of FIG. 4 (B) and (D) corresponds. The positions at which the sub-pixels Ra, Rb, Rc, and Rd in the pixel 200 shown in FIG. 2B receive the light beam coincide with the center position 300 of the pixel 200 in FIG. The positions at which the sub-pixels Ba, Bb, Bc, and Bd in the pixel 203 shown in FIG. 2B receive the light beam coincide with the center position 302 of the pixel 203 in FIG. As described above, the position where the sub-pixel generates an image may be referred to as a “sampling position” or a “centroid position”.
しかし、実際は、結像光学系101の制御誤差等により、合焦位置からずれた位置で撮像される場合が多い。この場合、分割された瞳領域を通り、撮像素子102に入射された光束は、図4(B)に示すように、一点に集まらない。 In practice, however, the image is often taken at a position deviated from the in-focus position due to a control error of the imaging optical system 101 or the like. In this case, the light beams that have passed through the divided pupil regions and are incident on the image sensor 102 do not converge at one point, as shown in FIG.
この場合、図4(D)に示すように、副画素の重心位置は、画素の重心位置からずれている。例えば、副画素Ra、Rb、Rc、Rdが光束を受光する位置311〜314は、画素の中心位置300から、垂直、水平方向にそれぞれΔX/2以内のずれ量を持っている。以下、副画素の重心位置と画素の中心位置とのずれ量を「位相差」と呼ぶ場合がある。 In this case, as shown in FIG. 4D, the position of the center of gravity of the sub-pixel is shifted from the position of the center of gravity of the pixel. For example, the positions 311 to 314 where the sub-pixels Ra, Rb, Rc, and Rd receive the light flux have deviation amounts within ΔX / 2 from the center position 300 of the pixel in the vertical and horizontal directions, respectively. Hereinafter, the amount of deviation between the center-of-gravity position of the sub-pixel and the center position of the pixel may be referred to as “phase difference”.
以上より、瞳分割して被写体像を取得する場合、撮像時に完全に合焦していない場合には、副画素を個別に読み出すことで、画素間隔ΔXよりも細かい間隔(例えば、ΔX/4)で被写体像をサンプリングすることが可能になる。カメラ信号処理回路103は、副画素によってオーバーサンプリングされた信号を用いて、画素の中心と異なる位置にRGBの全ての色信号を生成(設定)する。 As described above, when the subject image is acquired by dividing the pupil, and when the image is not completely focused at the time of imaging, the sub-pixels are individually read out to obtain an interval smaller than the pixel interval ΔX (for example, ΔX / 4). It becomes possible to sample a subject image. The camera signal processing circuit 103 generates (sets) all the RGB color signals at a position different from the center of the pixel, using the signal oversampled by the sub-pixel.
図5は、カメラ信号処理回路103が有する色信号生成処理手段(デモザイク処理手段)1030の構成を示すブロック図である。色信号生成処理手段1030は、画素アレイに複数の画像生成位置を設定し、各画像生成位置に対して、複数の画素の中から使用される副画素を選択し、選択された副画素からの信号に基づいて全ての色情報を設定する。画像生成位置は、出力画像を生成するために画素アレイに設定される位置であり、以下、「出力画像のサンプリング位置」と呼ぶ場合もある。従来、出力画像のサンプリング位置は各画素の中心位置であった。 FIG. 5 is a block diagram showing a configuration of color signal generation processing means (demosaic processing means) 1030 included in the camera signal processing circuit 103. The color signal generation processing unit 1030 sets a plurality of image generation positions in the pixel array, selects a sub-pixel to be used from among the plurality of pixels for each image generation position, and selects from the selected sub-pixel. All color information is set based on the signal. The image generation position is a position set in the pixel array in order to generate an output image, and may be hereinafter referred to as “output image sampling position”. Conventionally, the sampling position of the output image is the center position of each pixel.
なお、本発明が画像処理装置に適用される場合には、画像処理装置は、上記複数の画像生成位置を設定する手段と、上記副画素を選択する手段と、上記選択された副画素からの信号に基づいて全ての色情報を設定する手段と、を有する。また、本発明が画像処理方法に適用される場合には、画像処理方法は、上記複数の画像生成位置を設定するステップと、上記副画素を選択するステップと、上記選択された副画素からの信号に基づいて全ての色情報を設定するステップと、を有する。 When the present invention is applied to an image processing apparatus, the image processing apparatus includes a unit for setting the plurality of image generation positions, a unit for selecting the sub-pixel, and a unit from the selected sub-pixel. And means for setting all color information based on the signal. When the present invention is applied to an image processing method, the image processing method includes the steps of setting the plurality of image generation positions, selecting the subpixels, and selecting from the selected subpixels. Setting all color information based on the signal.
色信号生成処理手段1030は、内部にR信号補間処理手段1031、B信号補間処理手段1032、G信号補間処理手段1033を有する。 The color signal generation processing unit 1030 includes an R signal interpolation processing unit 1031, a B signal interpolation processing unit 1032, and a G signal interpolation processing unit 1033 inside.
図6は、撮像素子102から出力される副画素のサンプリング位置と、副画素を用いて、色信号生成処理手段1030が生成する、出力画像のサンプリング位置を示す模式図である。例えば、図6の左上隅の画素250には、4つの副画素251〜254が含まれ、副画素251〜254の重心位置は261〜264である。 FIG. 6 is a schematic diagram illustrating a sampling position of a sub-pixel output from the image sensor 102 and a sampling position of an output image generated by the color signal generation processing unit 1030 using the sub-pixel. For example, the pixel 250 in the upper left corner of FIG. 6 includes four subpixels 251 to 254, and the gravity center positions of the subpixels 251 to 254 are 261 to 264.
図6において、黒丸で示したサンプリング位置が、撮像素子102から出力される副画素のサンプリング位置であり、白丸で示したサンプリング位置が、出力画像のサンプリング位置である。副画素には、それぞれ、R、G、Bいずれかのカラーフィルタが配置されているため、その位置に応じて、取得できる色信号が異なる。白丸の位置には、R信号補間処理手段1031、B信号補間処理手段1032、G信号補間処理手段1033によって、それぞれ、近傍の副画素の色情報を用いてRGBの色補間処理を行う。 In FIG. 6, a sampling position indicated by a black circle is a sampling position of a sub-pixel output from the image sensor 102, and a sampling position indicated by a white circle is a sampling position of an output image. Since any one of R, G, and B color filters is arranged in each sub-pixel, the color signal that can be acquired differs depending on the position. At the position of the white circle, RGB signal interpolation processing means 1031, B signal interpolation processing means 1032, and G signal interpolation processing means 1033 respectively perform RGB color interpolation processing using color information of neighboring subpixels.
ここで、出力画像のサンプリング位置(白丸の位置)P00、P01、P10、P11によって、近傍の副画素に配置されたカラーフィルタの配列が異なる。例えば、P00を中心とした4x4画素の副画素領域内のカラーフィルタの配列は、2x2を1つの単位としてみると、左上、右上、左下、右下の順で、R、G、G、Bとなる。P01を中心とした4x4画素の副画素領域内のカラーフィルタの配列は、2x2を1つの単位としてみると、左上、右上、左下、右下の順で、G、R、B、Gとなる。P10を中心とした4x4画素の副画素領域内のカラーフィルタの配列は、2x2を1つの単位としてみると、左上、右上、左下、右下の順で、G、B、R、Gとなる。P11を中心とした4x4画素の副画素領域内のカラーフィルタの配列は、2x2を1つの単位としてみると、左上、右上、左下、右下の順で、B、G、G、Rとなる。 Here, the arrangement of the color filters arranged in the neighboring subpixels differs depending on the sampling positions (white circle positions) P00, P01, P10, and P11 of the output image. For example, the arrangement of the color filters in the subpixel region of 4 × 4 pixels centered on P00 is 2 × 2 as one unit, and R, G, G, B in the order of upper left, upper right, lower left, and lower right. Become. The arrangement of the color filters in the 4 × 4 pixel sub-pixel region centered on P01 is G, R, B, and G in the order of upper left, upper right, lower left, and lower right when 2 × 2 is taken as one unit. The arrangement of the color filters in the 4 × 4 pixel sub-pixel region centered on P10 is G, B, R, and G in the order of upper left, upper right, lower left, and lower right when 2 × 2 is taken as one unit. The arrangement of the color filters in the 4 × 4 pixel sub-pixel region centered on P11 is B, G, G, and R in the order of upper left, upper right, lower left, and lower right when 2 × 2 is taken as one unit.
従って、色信号生成処理手段1030は、出力画像のサンプリング位置P00、P01、P10、P11に応じて、使用する副画素からの信号(色情報)と、サンプリング位置と副画素との距離に応じた重みと、に基づいて、色情報を設定する。 Therefore, the color signal generation processing unit 1030 corresponds to the signal (color information) from the subpixel to be used and the distance between the sampling position and the subpixel according to the sampling positions P00, P01, P10, and P11 of the output image. Color information is set based on the weight.
図7は、G信号補間処理手段1033が使用するGの副画素と出力画像のサンプリング位置を示す模式図である。 FIG. 7 is a schematic diagram showing the G subpixel used by the G signal interpolation processing unit 1033 and the sampling position of the output image.
図7(A)は、出力画像のサンプリング位置P00又はP11の場合の例を示している。例えば、位置600にG信号を生成する場合、Gの副画素601、602、603、604、605、606、607、608、609、610、612、613を参照し、位置600からの距離に応じた重みによって加重加算する。 FIG. 7A shows an example in the case of the output image sampling position P00 or P11. For example, when the G signal is generated at the position 600, the G subpixels 601, 602, 603, 604, 605, 606, 607, 608, 609, 610, 612, and 613 are referred to according to the distance from the position 600. The weighted addition is performed according to the weight.
図7(B)は、出力画像のサンプリング位置P01又はP10の場合の例を示している。例えば、位置620にG信号を生成する場合、Gの副画素621、622、623、624、625、626、627、628、629、630、631、632を参照し、位置620からの距離に応じた重みによって加重加算する。 FIG. 7B shows an example of the output image sampling position P01 or P10. For example, when the G signal is generated at the position 620, the G subpixels 621, 622, 623, 624, 625, 626, 627, 628, 629, 630, 631, and 632 are referred to, and depending on the distance from the position 620 The weighted addition is performed according to the weight.
図8は、R信号補間処理手段1031が使用するRの副画素と出力画像のサンプリング位置を示す模式図である。図8において、位置700、701、702、703は、それぞれ、出力画像のサンプリング位置P00、P01、P10、P11に対応している。位置700、701、702、703にR信号を生成する場合、Rの副画素710、711、712、713、714、715、716、717、718、719、720、721、722、723、724、725を参照する。そして、それぞれ、位置700、701、702、703からの距離に応じた重みによって加重加算する。 FIG. 8 is a schematic diagram showing the R subpixels used by the R signal interpolation processing means 1031 and the sampling position of the output image. In FIG. 8, positions 700, 701, 702, and 703 correspond to the sampling positions P00, P01, P10, and P11 of the output image, respectively. When R signals are generated at positions 700, 701, 702, and 703, R subpixels 710, 711, 712, 713, 714, 715, 716, 717, 718, 719, 720, 721, 722, 723, 724, 725 is referred to. Then, weighted addition is performed with weights corresponding to the distances from the positions 700, 701, 702, and 703, respectively.
図9は、B信号補間処理手段1032が使用するBの副画素と出力画像のサンプリング位置を示す模式図である。図9において、位置800、801、802、803は、それぞれ、出力画像のサンプリング位置P00、P01、P10、P11に対応している。位置800、801、802、803にB信号を生成する場合、Bの副画素810、811、812、813、814、815、816、817、818、819、820、821、822、823、824、825を参照する。そして、それぞれ、位置800、801、802、803からの距離に応じた重みによって加重加算する。 FIG. 9 is a schematic diagram showing the B subpixels used by the B signal interpolation processing means 1032 and the sampling position of the output image. In FIG. 9, positions 800, 801, 802, and 803 correspond to sampling positions P00, P01, P10, and P11 of the output image, respectively. When the B signal is generated at the positions 800, 801, 802, and 803, the B sub-pixels 810, 811, 812, 813, 814, 815, 816, 817, 818, 819, 820, 821, 822, 823, 824, See 825. Then, weighted addition is performed with weights corresponding to the distances from the positions 800, 801, 802, and 803, respectively.
このように、カメラ信号処理回路103は、Gに対するデモザイク処理において、一画素に含まれる一部の副画素(例えば、副画素601)から得られる色情報を用い、(例えば、副画素601が属する画素における)残りの副画素から得られる色情報を使用しない。また、カメラ信号処理回路103は、R、G、Bのそれぞれに対するデモザイク処理において、設定された出力画像のサンプリング位置から所定範囲内の副画素(例えば、副画素601〜613)を選択する。また、カメラ信号処理回路103は、選択手段によって選択された各副画素の色情報と、出力画像のサンプリング位置から選択された各副画素までの距離に応じた重みと、に基づいて、出力画像のサンプリング位置に色情報を設定する。 Thus, the camera signal processing circuit 103 uses color information obtained from a part of subpixels (for example, the subpixel 601) included in one pixel in the demosaic processing for G (for example, the subpixel 601 belongs). Do not use color information obtained from the remaining subpixels (in the pixel). The camera signal processing circuit 103 selects subpixels (for example, subpixels 601 to 613) within a predetermined range from the set sampling position of the output image in the demosaic processing for each of R, G, and B. The camera signal processing circuit 103 also outputs the output image based on the color information of each sub-pixel selected by the selection unit and the weight according to the distance from the sampling position of the output image to each selected sub-pixel. Set color information at the sampling position.
最後に、図10、図11を参照して、本実施例の撮像装置100の効果を述べる。通常、ベイヤー配列のカラーフィルタを備えた撮像素子では、図11(A)に示すように、Gは市松状、R、Bは、Gに対してそれぞれ1/4の画素密度で被写体像をサンプリングする。このとき、図4(B)に示すように、4つの副画素の重心位置は画素の中心位置にある。従って、図11(B)に示すように、撮像素子102の画素ピッチΔXから決まるナイキスト周波数fnの帯域内に、R、G、Bの折り返し成分が発生し、画質が損なわれる。図11(B)において、横軸は水平方向(H)の周波数、縦軸は垂直方向(V)の周波数を表している。白丸はG信号の折り返しが発生する位置を表しており、ハッチングされた丸はR信号とB信号の折り返しが発生する位置を表している。 Finally, with reference to FIGS. 10 and 11, effects of the image pickup apparatus 100 of the present embodiment will be described. In general, in an image sensor having a Bayer array color filter, G is a checkered pattern, and R and B are sampled at a pixel density of 1/4 with respect to G, as shown in FIG. To do. At this time, as shown in FIG. 4B, the gravity center positions of the four sub-pixels are in the center position of the pixel. Therefore, as shown in FIG. 11B, aliasing components of R, G, and B are generated in the band of the Nyquist frequency fn determined from the pixel pitch ΔX of the image sensor 102, and the image quality is impaired. In FIG. 11B, the horizontal axis represents the frequency in the horizontal direction (H), and the vertical axis represents the frequency in the vertical direction (V). White circles represent positions where G signal folding occurs, and hatched circles represent positions where R signal and B signal folding occur.
しかし、撮像装置100では、図10(A)に示すように、副画素によって被写体像をオーバーサンプリングする。即ち、図4(D)に示すように、副画素の重心位置の数は水平方向と垂直方向で倍になっている。従って、図10(B)に示すように、撮像素子102の画素ピッチΔXから決まるナイキスト周波数fnの帯域内のR、G、Bの折り返し成分を低減することが可能になり、高品質な映像信号を出力することができる。図10(B)の定義は図11(B)と同じである。 However, the imaging apparatus 100 oversamples the subject image with the sub-pixels as shown in FIG. That is, as shown in FIG. 4D, the number of the gravity center positions of the sub-pixels is doubled in the horizontal direction and the vertical direction. Therefore, as shown in FIG. 10B, it is possible to reduce the aliasing components of R, G, and B in the band of the Nyquist frequency fn determined from the pixel pitch ΔX of the image sensor 102, and a high-quality video signal Can be output. The definition in FIG. 10B is the same as that in FIG.
また、本実施例は、特定の色(G)については、一画素全体の色情報を用いないで、一画素に含まれる一部の副画素(1つの副画素でもよい)から得られる信号(画素値情報)を用い、残りの副画素から得られる信号(画素値情報)を使用しない。これにより、デモザイク処理において出力画像のサンプリング点から遠い副画素から得られる信号を使用しないので、出力画像の画質が向上する。なお、一部の副画素は、全ての副画素でなければ足りる。本実施例は、出力画像のサンプリング位置を各画素の中心からずらしているが、これは必須ではない。 In the present embodiment, for a specific color (G), a signal obtained from a part of subpixels (may be one subpixel) included in one pixel without using color information of the entire pixel ( Pixel value information) is used, and signals (pixel value information) obtained from the remaining subpixels are not used. As a result, the signal obtained from the sub-pixel far from the sampling point of the output image is not used in the demosaic process, and the image quality of the output image is improved. It should be noted that some of the subpixels need not be all of the subpixels. In this embodiment, the sampling position of the output image is shifted from the center of each pixel, but this is not essential.
実施例2の撮像装置の構成は、図1に示すものと同様であるが、カメラ信号処理回路103の構成が図5に示すものとは異なる。 The configuration of the imaging apparatus according to the second embodiment is the same as that illustrated in FIG. 1, but the configuration of the camera signal processing circuit 103 is different from that illustrated in FIG.
図12は、本実施例のカメラ信号処理回路103の構成を示すブロック図である。カメラ信号処理回路103は、色信号生成処理手段1030、相関演算手段1034及び制御手段1035を有するが、システム制御手段109が相関演算手段1034と制御手段1035を兼ねてもよい。また、相関演算手段1034と制御手段1035は一体であってもよい。制御手段1035は、相関演算手段1034の出力に基づいて、画像全体に対する色信号生成処理手段1030の処理を制御する。「画面全体に対して」とは、色信号生成処理手段1030が、出力画像のサンプリング点は画面全体で作成されることを意味する。本実施例は、撮像素子102で取得された、副画素画像間の位相差の絶対値に基づいて、色信号生成処理手段1030での処理を制御する点が、実施例1と異なる。 FIG. 12 is a block diagram showing the configuration of the camera signal processing circuit 103 of this embodiment. The camera signal processing circuit 103 includes the color signal generation processing unit 1030, the correlation calculation unit 1034, and the control unit 1035, but the system control unit 109 may serve as the correlation calculation unit 1034 and the control unit 1035. Further, the correlation calculation means 1034 and the control means 1035 may be integrated. The control unit 1035 controls the processing of the color signal generation processing unit 1030 for the entire image based on the output of the correlation calculation unit 1034. “With respect to the entire screen” means that the sampling point of the output image is generated by the color signal generation processing unit 1030 over the entire screen. The present embodiment is different from the first embodiment in that the processing in the color signal generation processing unit 1030 is controlled based on the absolute value of the phase difference between the sub-pixel images acquired by the image sensor 102.
撮像装置では、撮像素子102で副画素信号を取得する際、結像光学系101の制御誤差により、副画素信号のサンプリング位置が、図13に示すように、マイクロレンズを共有する副画素領域の中心に偏って撮像される場合がある。このような場合には、同色の副画素間の信号の相関が高いため、同色の副画素信号を加算して、画素間隔ΔXのベイヤー配列の画像信号を生成してから、デモザイク処理を行い、各画素位置にRGBの信号を生成する。一方、撮像素子102で副画素信号を取得する際に、副画素信号のサンプリング位置が図6のようになる場合には、実施例1に記載した方法で、画素間隔ΔXで、各画素位置のRGBの信号を生成する。 In the imaging apparatus, when the subpixel signal is acquired by the image sensor 102, the sampling position of the subpixel signal is set in the subpixel area sharing the microlens as shown in FIG. 13 due to the control error of the imaging optical system 101. In some cases, the image is taken with a bias toward the center. In such a case, since the correlation of the signals between the sub-pixels of the same color is high, the sub-pixel signals of the same color are added to generate an image signal of a Bayer array with a pixel interval ΔX, and then demosaic processing is performed. An RGB signal is generated at each pixel position. On the other hand, when the sub-pixel signal is acquired by the image sensor 102, if the sub-pixel signal sampling position is as shown in FIG. 6, the method described in the first embodiment is used to obtain each pixel position at the pixel interval ΔX. An RGB signal is generated.
図14は、本実施例のカメラ信号処理回路103が実行する画像処理方法(信号処理方法)を示すフローチャートであり、「S」はステップ(工程)を表す。図14に示すフローチャートは、コンピュータに各ステップを実行させるためのプログラムとして具現化が可能である。 FIG. 14 is a flowchart showing an image processing method (signal processing method) executed by the camera signal processing circuit 103 of this embodiment, and “S” represents a step (process). The flowchart shown in FIG. 14 can be embodied as a program for causing a computer to execute each step.
まず、S1400で、副画素画像を撮像素子102から読み出すことによって取得する。次に、S1401では、相関演算手段1034は、副画素画像間の位相差を求める。相関演算手段1034は、副画素画像毎に所定の周波数を検出するバンドパスフィルタ処理を行い、バンドパスフィルタの出力結果の差分が小さいほど相関が高い、すなわち、副画素画像間の位相差が小さいと判定する。このように、相関演算手段1034は、副画素の重心位置と対応する画素の中心位置とのずれ量に関する情報を取得する取得手段として機能する。もちろん、相関演算手段1034は、同一画素の2つの副画素の間の位相差の情報を取得してもよい。 First, in S1400, a subpixel image is acquired by reading from the image sensor 102. Next, in S1401, the correlation calculation unit 1034 obtains the phase difference between the sub-pixel images. The correlation calculation means 1034 performs a band-pass filter process for detecting a predetermined frequency for each sub-pixel image. The smaller the difference between the output results of the band-pass filters, the higher the correlation, that is, the smaller the phase difference between the sub-pixel images. Is determined. As described above, the correlation calculation unit 1034 functions as an acquisition unit that acquires information regarding the amount of deviation between the center of gravity position of the sub-pixel and the center position of the corresponding pixel. Of course, the correlation calculation means 1034 may acquire information on the phase difference between two sub-pixels of the same pixel.
次に、S1402では、制御手段1035は、相関演算手段1034が検出した位相差の絶対値が所定値よりも大きいかどうかを判定する。位相差の絶対値が所定値よりも大きい場合はS1403に進み、所定値以下の場合はS1404に進む。 In step S1402, the control unit 1035 determines whether the absolute value of the phase difference detected by the correlation calculation unit 1034 is greater than a predetermined value. When the absolute value of the phase difference is larger than the predetermined value, the process proceeds to S1403, and when it is equal to or smaller than the predetermined value, the process proceeds to S1404.
S1403では、実施例1と同様に、色信号生成処理手段1030は、副画素領域の重心から、水平、垂直方向に、それぞれ、ΔX/2画素シフトした位置に、ΔXの画素間隔で、R、G、Bの各色信号を生成する。即ち、制御手段1035は、色信号生成処理手段1030に、選択された副画素からの信号に基づいて全ての色情報を設定させる。 In step S1403, as in the first embodiment, the color signal generation processing unit 1030 performs R, R, with a pixel interval of ΔX at a position shifted by ΔX / 2 pixels in the horizontal and vertical directions from the center of gravity of the sub-pixel region. Each color signal of G and B is generated. That is, the control unit 1035 causes the color signal generation processing unit 1030 to set all color information based on the signal from the selected subpixel.
S1404では、色信号生成処理手段1030は、副画素領域の重心位置に、R、G、Bのいずれかの色信号を、ベイヤー配列となるよう生成する。その後、S1405において、ベイヤー配列されたR、G、Bの色信号をそれぞれ参照したデモザイク処理を行い、ΔXの画素間隔で、R、G、Bの各色信号を生成する。即ち、制御手段1035は、色信号生成処理手段1030に、複数の画像生成位置のそれぞれに対して、複数の画素の中から使用される画素を選択させ、選択された画素から得られる信号に基づいて全ての色情報を設定させる。この場合は、画素全体の色情報が使用され、画素の一部の副画素の色情報のみが使用されることはない。 In step S <b> 1404, the color signal generation processing unit 1030 generates one of R, G, and B color signals in a Bayer array at the center of gravity of the subpixel area. After that, in S1405, demosaic processing is performed by referring to the R, G, and B color signals arranged in the Bayer array, and R, G, and B color signals are generated at a pixel interval of ΔX. That is, the control unit 1035 causes the color signal generation processing unit 1030 to select a pixel to be used from among a plurality of pixels for each of a plurality of image generation positions, and based on a signal obtained from the selected pixel. To set all color information. In this case, the color information of the entire pixel is used, and only the color information of some subpixels of the pixel is not used.
以上、本実施例の撮像装置は、撮像素子102で取得された副画素画像間の位相差に応じて、色信号生成処理手段1030での処理方法を切り替える。これにより、副画素画像間の位相差が大きい場合には、副画素画像を参照して、被写体像をオーバーサンプリングすることにより、出力画像の各画素位置に、RGB全色の信号を生成し、高品質な映像信号を出力することができる。なお、風景を撮像する場合、一部が合焦し、残りが合焦しないことになり、出力画像には、位相差がS1402の条件を満たす領域と満たさない領域が含まれることになる。このような場合、S1402とS1403の間で、S1402の条件を満たす領域の出力画像全体に対する割合が閾値よりも大きいかどうかを判定し、閾値よりも大きければS1403に移行し、閾値以下であればS1404に移行してもよい。これは、実施例3にも当てはまる。 As described above, the imaging apparatus according to the present embodiment switches the processing method in the color signal generation processing unit 1030 according to the phase difference between the sub-pixel images acquired by the imaging element 102. Thereby, when the phase difference between the sub-pixel images is large, by referring to the sub-pixel image and over-sampling the subject image, a signal of all RGB colors is generated at each pixel position of the output image, A high-quality video signal can be output. When a landscape is imaged, a part is in focus and the rest is not in focus, and the output image includes a region where the phase difference satisfies the condition of S1402 and a region where the phase difference is not satisfied. In such a case, a determination is made between S1402 and S1403 as to whether the ratio of the area satisfying the condition of S1402 to the entire output image is greater than the threshold, and if greater than the threshold, the process proceeds to S1403. You may transfer to S1404. This is also true for Example 3.
次に、本発明の実施例3の撮像装置の概略構成は図1と同様であるが、カメラ信号処理回路103の構成が図5、図12に示すものとは異なる。 Next, the schematic configuration of the imaging apparatus according to the third embodiment of the present invention is the same as that shown in FIG. 1, but the configuration of the camera signal processing circuit 103 is different from that shown in FIGS.
図15は、本実施例のカメラ信号処理回路103の構成を示すブロック図である。カメラ信号処理回路103は、色信号生成処理手段1030、相関演算手段1034、制御手段1035、主被写体領域検出手段1036を有する。システム制御手段109が相関演算手段1034、制御手段1035及び主被写体領域検出手段1036を兼ねてもよい。また、相関演算手段1034、制御手段1035及び主被写体領域検出手段1036の2つ以上は一体的に構成されてもよい。主被写体領域検出手段1036は、顔認識手段などを利用することができる。制御手段1035は、相関演算手段1034と主被写体領域検出手段1036の出力に基づいて、画像全体に対する色信号生成処理手段1030の処理を制御する。「画面全体に対して」とは、色信号生成処理手段1030が、出力画像のサンプリング点は画面全体で作成されることを意味する。 FIG. 15 is a block diagram showing the configuration of the camera signal processing circuit 103 of this embodiment. The camera signal processing circuit 103 includes a color signal generation processing unit 1030, a correlation calculation unit 1034, a control unit 1035, and a main subject region detection unit 1036. The system control unit 109 may also serve as the correlation calculation unit 1034, the control unit 1035, and the main subject area detection unit 1036. Further, two or more of the correlation calculation means 1034, the control means 1035, and the main subject area detection means 1036 may be integrally configured. The main subject area detection means 1036 can use a face recognition means or the like. The control means 1035 controls the processing of the color signal generation processing means 1030 for the entire image based on the outputs of the correlation calculation means 1034 and the main subject area detection means 1036. “With respect to the entire screen” means that the sampling point of the output image is generated by the color signal generation processing unit 1030 over the entire screen.
制御手段1035は、主被写体領域の画質を向上するため、予め主被写体領域を検出し、主被写体領域が検出された場合には、主被写体領域が合焦位置からずれた位置で撮像されるように駆動手段を制御する。 The control means 1035 detects the main subject area in advance in order to improve the image quality of the main subject area. When the main subject area is detected, the main subject area is captured at a position shifted from the in-focus position. The driving means is controlled.
図16は、本実施例のカメラ信号処理回路103が実行する画像処理方法(信号処理方法)を示すフローチャートであり、「S」はステップ(工程)を表す。図16に示すフローチャートは、コンピュータに各ステップを実行させるためのプログラムとして具現化が可能である。 FIG. 16 is a flowchart showing an image processing method (signal processing method) executed by the camera signal processing circuit 103 of this embodiment, and “S” represents a step (step). The flowchart shown in FIG. 16 can be embodied as a program for causing a computer to execute each step.
まず、S1600において、入力画像の特徴解析を行い、主被写体領域を検出する。例えば、図17に示す入力画像において領域1700を主被写体領域、領域1701を背景領域と判定する。次に、S1601において、主被写体領域で副画素画像間の位相差が大きくなるように、結像光学系101を、駆動制御手段105を介して制御する。次に、S1602において、副画素からなる副画素画像を撮像素子102から読み出すことによって取得する。 First, in S1600, feature analysis of the input image is performed to detect a main subject area. For example, in the input image shown in FIG. 17, it is determined that the area 1700 is the main subject area and the area 1701 is the background area. In step S <b> 1601, the imaging optical system 101 is controlled via the drive control unit 105 so that the phase difference between the sub-pixel images is increased in the main subject area. In step S <b> 1602, a subpixel image including subpixels is acquired by reading from the image sensor 102.
次に、S1603において、相関演算手段1034では、副画素画像毎に所定の周波数を検出するバンドパスフィルタ処理を行い、バンドパスフィルタの出力結果の差分によって、副画素画像間の位相差を求める。 In step S1603, the correlation calculation unit 1034 performs a band pass filter process for detecting a predetermined frequency for each sub-pixel image, and obtains a phase difference between the sub-pixel images based on a difference between the output results of the band pass filters.
次に、S1604において、制御手段1035は、主被写体領域であるかどうかを判定する。主被写体領域であればS1606へ進み、主被写体領域でなければS1605に進む。S1605では、制御手段1035は、副画素画像間の位相差の絶対値が所定値よりも大きいかどうかを判定する。位相差の絶対値が所定値よりも大きい場合はS1606へ進み、所定値以下である場合はS1607へ進む。 Next, in step S1604, the control unit 1035 determines whether or not the main subject area. If it is the main subject area, the process proceeds to S1606, and if it is not the main subject area, the process proceeds to S1605. In step S1605, the control unit 1035 determines whether the absolute value of the phase difference between the sub-pixel images is larger than a predetermined value. If the absolute value of the phase difference is larger than the predetermined value, the process proceeds to S1606, and if it is equal to or smaller than the predetermined value, the process proceeds to S1607.
S1606において、色信号生成処理手段1030は、副画素領域の重心から、水平、垂直方向に、それぞれ、ΔX/2画素シフトした位置に、ΔXの画素間隔で、R、G、Bの各色信号を生成する。S1607において、色信号生成処理手段1030は、副画素領域の重心位置に、R、G、Bのいずれかの色信号を、ベイヤー配列となるよう生成する。その後、S1608において、ベイヤー配列されたR、G、Bの色信号をそれぞれ参照したデモザイク処理を行い、ΔXの画素間隔で、R,G,Bの各色信号を生成する。 In step S1606, the color signal generation processing unit 1030 outputs the R, G, and B color signals at ΔX pixel intervals at positions shifted by ΔX / 2 pixels in the horizontal and vertical directions from the center of gravity of the sub-pixel region. Generate. In step S <b> 1607, the color signal generation processing unit 1030 generates any one of R, G, and B color signals in a Bayer arrangement at the barycentric position of the sub-pixel region. Thereafter, in S1608, demosaic processing is performed with reference to each of the R, G, and B color signals arranged in the Bayer array, and R, G, and B color signals are generated at a pixel interval of ΔX.
本実施例の撮像装置によれば、主被写体領域の検出結果と、撮像素子102で取得された副画素画像間の位相差に応じて、入力画像の被写体領域毎に、色信号生成処理を切り替える。これにより、主被写体領域においては、副画素画像間の位相差が大きくなるように、撮像が行われる。副画素画像間の位相差が大きい場合には、副画素画像を参照して、被写体像をオーバーサンプリングすることにより、出力画像の各画素位置に、RGB全色の信号を生成し、高品質な映像信号を出力することができる。 According to the imaging apparatus of the present embodiment, the color signal generation processing is switched for each subject area of the input image according to the detection result of the main subject area and the phase difference between the sub-pixel images acquired by the image sensor 102. . Thereby, in the main subject region, imaging is performed so that the phase difference between the sub-pixel images becomes large. When the phase difference between the sub-pixel images is large, by oversampling the subject image with reference to the sub-pixel image, a signal of all RGB colors is generated at each pixel position of the output image, and high quality A video signal can be output.
また、本発明の副画素は被写体像を光電変換する機能を有するため、撮像面で位相差検出方式を行うための焦点検出用画素は含まない。このため、一画素に含まれる副画素よりも少ない数の副画素(即ち、一部の副画素)から得られる信号(画素値情報)を使用してデモザイク処理を行う本発明は、焦点検出用画素と撮像用画素を含む撮像素子に対しても適用可能である。 In addition, since the sub-pixel of the present invention has a function of photoelectrically converting a subject image, it does not include a focus detection pixel for performing a phase difference detection method on the imaging surface. Therefore, the present invention for performing demosaic processing using signals (pixel value information) obtained from a smaller number of subpixels (ie, some subpixels) than subpixels included in one pixel is used for focus detection. The present invention can also be applied to an image sensor including a pixel and an imaging pixel.
本発明は、デジタルカメラなどの撮像装置や画像処理装置等の用途に適用することができる。特に、分割された瞳領域に応じた複数の視差画像を同時に撮影し、画像信号を生成するための撮像装置に好適である。 The present invention can be applied to applications such as an imaging apparatus such as a digital camera and an image processing apparatus. In particular, the present invention is suitable for an imaging apparatus for simultaneously capturing a plurality of parallax images corresponding to divided pupil regions and generating an image signal.
100…撮像装置、101…結像光学系、103…カメラ信号処理回路(画像処理手段)、250…画素、251〜254…副画素(光電変換部)、P00、P01、P10、P11…出力画像のサンプリング位置(画像生成位置) DESCRIPTION OF SYMBOLS 100 ... Imaging device, 101 ... Imaging optical system, 103 ... Camera signal processing circuit (image processing means), 250 ... Pixel, 251-254 ... Subpixel (photoelectric conversion part), P00, P01, P10, P11 ... Output image Sampling position (image generation position)
Claims (10)
出力画像を生成するための複数の画像生成位置のそれぞれにおいて、前記画像生成位置に対応する前記画素アレイ上の位置から所定範囲内にある光電変換部の信号を、前記画像生成位置に対応する前記画素アレイ上の位置から各光電変換部までの距離に応じた重みによって加重加算することで、前記カラーフィルタに対応する色情報を設定する画像処理手段と、
を有することを特徴とする撮像装置。 A pixel array including a plurality of pixels; and a plurality of color filters regularly arranged on the pixel array, each pixel having a plurality of photoelectric conversions for photoelectric conversion of one microlens and a subject image An image sensor comprising a section;
In each of the plurality of image generation position for generating the output image, the signal of the photoelectric conversion unit from the position on the pixel array corresponding to the image generation position within a predetermined range, corresponding to the image generation position Image processing means for setting color information corresponding to the color filter by performing weighted addition with a weight according to the distance from the position on the pixel array to each photoelectric conversion unit ;
Imaging apparatus characterized that you have a.
前記撮像素子の各画素が備える前記複数の光電変換部は、結像光学系の異なる瞳領域を通過した光束をそれぞれ受光して前記結像光学系が結像する被写体像を光電変換するものであって、
前記制御手段は、
前記光電変換部が前記光束を受光する位置と対応する画素の中心位置とのずれ量に関する情報を取得し、
前記ずれ量の絶対値が所定値よりも大きい場合、前記画像処理手段に、前記画像生成位置に対応する前記画素アレイ上の位置から所定範囲内にある光電変換部の信号を、前記画像生成位置に対応する前記画素アレイ上の位置から各光電変換部までの距離に応じた重みによって加重加算することで、前記カラーフィルタに対応する色情報を設定させ、
前記ずれ量の絶対値が所定値以下である場合、前記画像処理手段に、前記複数の画像生成位置のそれぞれに対して、前記複数の画素の中から使用される画素を選択させ、選択された前記画素から得られる信号に基づいて前記カラーフィルタに対応する色情報を設定させることを特徴とする請求項1乃至3のうちいずれか1項に記載の撮像装置。 A control means to control the processing of the image processing unit for the whole images,
The plurality of photoelectric conversion units included in each pixel of the image pickup device receive light beams that have passed through different pupil regions of the imaging optical system, and photoelectrically convert a subject image formed by the imaging optical system. There,
The control means includes
Obtain information on the amount of deviation between the position where the photoelectric conversion unit receives the light beam and the center position of the corresponding pixel,
If the absolute value of the previous SL shift amount is greater than a predetermined value, the image processing unit, the signal of the photoelectric conversion unit from the position on the pixel array corresponding to the image generation position within a predetermined range, the image generation By performing weighted addition with a weight according to the distance from the position on the pixel array corresponding to the position to each photoelectric conversion unit, color information corresponding to the color filter is set,
If the absolute value of the previous SL deviation amount is equal to or less than a predetermined value, the image processing means, for each of the plurality of image generation position, to select the pixels used from among the plurality of pixels are selected 4. The imaging apparatus according to claim 1, wherein color information corresponding to the color filter is set based on a signal obtained from the pixel. 5.
合焦位置からずれた位置で撮像されるように前記駆動手段を制御する制御手段と、Control means for controlling the drive means so that an image is taken at a position shifted from the in-focus position;
を有することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。The imaging apparatus according to claim 1, wherein the imaging apparatus includes:
前記制御手段は、前記主被写体領域検出手段が前記主被写体領域を検出した場合に、前記主被写体領域が合焦位置からずれた位置で撮像されるように前記駆動手段を制御することを特徴とする請求項6に記載の撮像装置。 Has a main object area detecting means to detect a main object area,
The control means controls the driving means so that the main subject area is imaged at a position deviated from a focus position when the main subject area detection means detects the main subject area. The imaging device according to claim 6 .
出力画像を生成するための複数の画像生成位置のそれぞれにおいて、前記画像生成位置に対応する前記画素アレイ上の位置から所定範囲内にある光電変換部の信号を、前記画像生成位置に対応する前記画素アレイ上の位置から各光電変換部までの距離に応じた重みによって加重加算することで、前記カラーフィルタに対応する色情報を設定する手段と、
を有することを特徴とする画像処理装置。 It has a pixel array including a plurality of pixels, and a plurality of color filters which are regularly arranged on the pixel array, and each pixel has a plurality of photoelectric conversion for photoelectrically converting one microlens and the object image An image processing apparatus that processes a signal obtained from an image sensor including a unit,
In each of the plurality of image generation position for generating the output image, the signal of the photoelectric conversion unit from the position on the pixel array corresponding to the image generation position within a predetermined range, corresponding to the image generation position Means for setting color information corresponding to the color filter by weighted addition with a weight according to a distance from a position on the pixel array to each photoelectric conversion unit ;
The image processing apparatus according to claim that you have a.
出力画像を生成するための複数の画像生成位置のそれぞれにおいて、前記画像生成位置に対応する前記画素アレイ上の位置から所定範囲内にある光電変換部の信号を、前記画像生成位置に対応する前記画素アレイ上の位置から各光電変換部までの距離に応じた重みによって加重加算することで、前記カラーフィルタに対応する色情報を設定するステップと、
を有することを特徴とする画像処理方法。 A plurality of photoelectric conversions that have a pixel array composed of a plurality of pixels and a plurality of color filters regularly arranged on the pixel array, each pixel photoelectrically converting one microlens and a subject image An image processing method for processing a signal obtained from an image pickup device including a unit,
In each of the plurality of image generation position for generating the output image, the signal of the photoelectric conversion unit from the position on the pixel array corresponding to the image generation position within a predetermined range, corresponding to the image generation position by weighted addition by weight according to the distance to the photoelectric conversion portion from a position on the pixel array, and setting the color information corresponding to the color filter,
An image processing method characterized that you have a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015158674A JP6579859B2 (en) | 2015-08-11 | 2015-08-11 | Imaging apparatus, image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015158674A JP6579859B2 (en) | 2015-08-11 | 2015-08-11 | Imaging apparatus, image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017038254A JP2017038254A (en) | 2017-02-16 |
JP2017038254A5 JP2017038254A5 (en) | 2018-09-13 |
JP6579859B2 true JP6579859B2 (en) | 2019-09-25 |
Family
ID=58047705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015158674A Active JP6579859B2 (en) | 2015-08-11 | 2015-08-11 | Imaging apparatus, image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6579859B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5472584B2 (en) * | 2008-11-21 | 2014-04-16 | ソニー株式会社 | Imaging device |
JP5359465B2 (en) * | 2009-03-31 | 2013-12-04 | ソニー株式会社 | Solid-state imaging device, signal processing method for solid-state imaging device, and imaging device |
JP2012134810A (en) * | 2010-12-22 | 2012-07-12 | Nikon Corp | Photographing apparatus |
JP5818697B2 (en) * | 2012-01-13 | 2015-11-18 | キヤノン株式会社 | Image generation method, imaging device, display device, program, and storage medium |
JP6131545B2 (en) * | 2012-03-16 | 2017-05-24 | 株式会社ニコン | Image processing apparatus, imaging apparatus, and image processing program |
-
2015
- 2015-08-11 JP JP2015158674A patent/JP6579859B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017038254A (en) | 2017-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012039180A1 (en) | Image pickup device and image pickup apparatus | |
EP2750374A1 (en) | Imaging device | |
US8723991B2 (en) | Color imaging element, imaging device, and storage medium storing an imaging program | |
JP5470458B2 (en) | Imaging apparatus, image processing apparatus, and image processing method | |
KR20120127903A (en) | Image pickup device, digital photographing apparatus using the device, auto-focusing method, and computer-readable storage medium for performing the method | |
US8736743B2 (en) | Color imaging element, imaging device, and storage medium storing a control program for imaging device | |
CN107306335B (en) | Image pickup apparatus and control method thereof | |
US8723992B2 (en) | Color imaging element, imaging device, and storage medium storing an imaging program | |
JP2012049773A (en) | Imaging apparatus and method, and program | |
JP6442362B2 (en) | Image pickup apparatus and image pickup element control method | |
JP4823168B2 (en) | Imaging device | |
WO2013069445A1 (en) | Three-dimensional imaging device and image processing method | |
JP4823169B2 (en) | Imaging device | |
JP6190119B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP5607266B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM | |
JP2015148676A (en) | Imaging apparatus and method of controlling imaging apparatus | |
WO2020137217A1 (en) | Imaging element, imaging device, image data processing method, and program | |
EP2696585A1 (en) | Color image capturing element, image capturing device, and image capturing program | |
JP5998583B2 (en) | Imaging device | |
JP6579859B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP2016048282A (en) | Imaging apparatus | |
WO2019202984A1 (en) | Image capturing device, distance measuring method, distance measuring program, and recording medium | |
JP6541503B2 (en) | Image pickup apparatus, image processing apparatus, image processing method and program | |
JP2016071275A (en) | Image-capturing device and focus control program | |
JP7397626B2 (en) | Imaging device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180731 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190827 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6579859 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |