JP5843599B2 - Image processing apparatus, imaging apparatus, and method thereof - Google Patents
Image processing apparatus, imaging apparatus, and method thereof Download PDFInfo
- Publication number
- JP5843599B2 JP5843599B2 JP2011276966A JP2011276966A JP5843599B2 JP 5843599 B2 JP5843599 B2 JP 5843599B2 JP 2011276966 A JP2011276966 A JP 2011276966A JP 2011276966 A JP2011276966 A JP 2011276966A JP 5843599 B2 JP5843599 B2 JP 5843599B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- processing apparatus
- aperture
- spatial frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 96
- 238000012545 processing Methods 0.000 title claims description 60
- 238000000034 method Methods 0.000 title claims description 44
- 238000012937 correction Methods 0.000 claims description 28
- 238000001228 spectrum Methods 0.000 claims description 19
- 238000009499 grossing Methods 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 239000002131 composite material Substances 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 238000003672 processing method Methods 0.000 claims description 2
- 238000003702 image correction Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は画像処理装置および撮像装置並びにその方法に関し、より具体的には複数の画像を用いてダイナミックレンジの広い画像を生成するための画像処理装置および撮像装置並びにその方法に関する。 The present invention relates to an image processing apparatus, an imaging apparatus, and a method thereof, and more specifically to an image processing apparatus, an imaging apparatus, and a method thereof for generating an image with a wide dynamic range using a plurality of images.
デジタルカメラを用いて屋外で撮影する際など、撮影可能なダイナミックレンジよりも撮影シーンのダイナミックレンジが広い場合がある。このとき、撮影可能なダイナミックレンジを超える被写体についてはその階調情報を記録することができないため、撮影画像において白飛びや黒潰れが発生する。その結果、撮影シーンの印象と撮影画像の印象とが異なってしまう可能性がある。 When shooting outdoors using a digital camera, the dynamic range of the shooting scene may be wider than the dynamic range that can be shot. At this time, gradation information cannot be recorded for a subject that exceeds the dynamic range that can be photographed, and thus whiteout and blackout occur in the photographed image. As a result, the impression of the shooting scene and the impression of the shot image may be different.
従来、このような問題を解決するための技術の1つとして、ハイダイナミックレンジ(High Dynamic Range)画像生成技術(以後、HDR画像生成技術)が知られている。HDR画像生成技術は、露出の異なる複数枚の撮影画像を取得し、これらを合成することでよりダイナミックレンジの広い画像を生成するものである。ここで、撮影画像の露出を変える方法としては、デジタルカメラの露光時間を変化させて同一シーンを複数回撮影するものが広く知られている。また、他の方法として、絞りを変化させることで露出の異なる複数画像を取得する方法も知られている(例えば、特許文献1参照)。 Conventionally, a high dynamic range image generation technique (hereinafter, HDR image generation technique) is known as one of the techniques for solving such a problem. The HDR image generation technology generates a plurality of captured images with different exposures and combines them to generate an image with a wider dynamic range. Here, as a method of changing the exposure of a photographed image, a method of photographing the same scene a plurality of times by changing the exposure time of the digital camera is widely known. As another method, a method of acquiring a plurality of images with different exposures by changing the aperture is also known (see, for example, Patent Document 1).
しかし、上述した露光時間を変えて複数回撮影する方法では、撮影シーンに動きがある場合、撮影画像間において露出ごとに被写体の位置が微妙に異なって写り、ブレが生じる。また、絞りを変えて撮影する方法では、絞りの量に応じて被写界深度も変化するため、奥行きのあるシーンを撮影した場合に露出ごとに合焦範囲が変化して、異なるボケが生じる。そのため従来技術は、動きや奥行きのあるシーンを撮影した場合に、撮影画像を合成して得られるHDR画像が不自然な画像となるという課題があった。 However, in the above-described method of shooting a plurality of times while changing the exposure time, if there is a movement in the shooting scene, the position of the subject appears slightly different for each exposure between shot images, and blurring occurs. Also, in the method of shooting with changing the aperture, the depth of field also changes according to the amount of the aperture, so when shooting a scene with depth, the focus range changes for each exposure, resulting in different blurring. . Therefore, the conventional technique has a problem that when a scene with motion and depth is photographed, an HDR image obtained by synthesizing the photographed images becomes an unnatural image.
そこで本発明では、絞りを変えて撮影した露出の異なる複数枚の画像について、被写界深度が互いに同等となるように補正を実行してから合成することにより、より自然なHDR画像を生成することを目的とする。 Therefore, in the present invention, a plurality of images with different exposures shot with different apertures are combined after performing correction so that the depth of field is equal to each other, thereby generating a more natural HDR image. For the purpose.
本発明の画像処理装置は、被写体を第一の視点から第一の絞り値の絞りを介して撮像することにより得られる第一の画像と、前記被写体を、前記第一の視点とは異なる第二の視点から、前記第一の絞り値とは異なる第二の絞り値の絞りを介して撮像することにより得られる、前記第一の画像とは露出の異なる第二の画像とを取得する取得手段と、前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正手段と、少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成手段とを備えることを特徴とする。 The image processing apparatus according to the present invention provides a first image obtained by capturing an image of a subject from a first viewpoint through an aperture having a first aperture value, and the subject is different from the first viewpoint. Acquiring from a second viewpoint, a second image having a different exposure from the first image, obtained by imaging through a second aperture value different from the first aperture value. And a pixel value of at least one of the first image and the second image such that a difference between the blur condition of the first image and the blur condition of the second image is reduced. By combining the first image and the second image in which at least one pixel value has been corrected, and a correction means for correcting the image, the dynamic range is greater than that of the first image and the second image. A synthesis means for generating a wide composite image And features.
本発明の画像処理方法は、被写体を第一の視点から第一の絞り値の絞りを介して撮像することにより得られる第一の画像と、前記被写体を、前記第一の視点とは異なる第二の視点から、前記第一の絞り値とは異なる第二の絞り値の絞りを介して撮像することにより得られる、前記第一の画像とは露出の異なる第二の画像とを取得する取得工程と、前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正工程と、少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成工程とを備えることを特徴とする。 According to the image processing method of the present invention, a first image obtained by capturing an image of a subject from a first viewpoint through a first aperture value, and the subject different from the first viewpoint. Acquiring from a second viewpoint, a second image having a different exposure from the first image, obtained by imaging through a second aperture value different from the first aperture value. And a pixel value of at least one of the first image and the second image so that a difference between a blur condition of the first image and the blur condition of the second image is reduced. By combining the first image in which at least one pixel value is corrected and the second image, the dynamic range is greater than that of the first image and the second image. A synthesis process for generating a wide composite image And features.
本発明は、被写体に動きがあり、かつ奥行きのあるシーンにおいても、被写体ブレの少ない、ボケ味の自然なHDR画像の生成を可能とする。 The present invention makes it possible to generate a bokeh natural HDR image with less subject blur even in a scene where the subject is moving and deep.
[実施例1]
本実施例では、絞りの異なる複数の撮像部を用いて複数の視点位置から同一シーンを撮影し、露出の異なる複数枚の撮影画像を取得する。取得した複数枚の画像を用いて、撮影時の被写界深度が最も浅い画像を撮影した撮像部の撮影パラメータに基づき、各撮影画像をリフォーカスすることにより、被写体のボケが互いに同程度でボケの差異を減少させた露出の異なる複数の補正画像を生成する。最後に、これらの補正画像を合成してHDR画像を生成する。これにより、撮影画像間でのボケ方の差を補正した自然なHDR画像の生成を可能とする。
[Example 1]
In this embodiment, the same scene is photographed from a plurality of viewpoint positions using a plurality of imaging units having different apertures, and a plurality of photographed images having different exposures are acquired. Based on the shooting parameters of the imaging unit that captured the image with the shallowest depth of field at the time of shooting using the multiple images obtained, each subject image was defocused by refocusing. A plurality of corrected images having different exposures with reduced blur differences are generated. Finally, these corrected images are combined to generate an HDR image. As a result, it is possible to generate a natural HDR image in which the difference in blur between captured images is corrected.
まず、本実施例における画像処理装置のシステム構成例について、図1ないし図3を用いて説明する。図1は、複数の撮像部を備えた多眼方式による撮像装置の一例を示す図である。同図において、撮像装置100の筐体は、画像を取得する9個の撮像部101〜109からなるカメラアレイと、撮影ボタン110を備えている。撮影ボタン110が押下されると、撮像部101〜109が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換されて、複数の撮影画像(デジタルデータ)が同時に取得される。このような多眼方式の撮像装置により、同一の被写体を複数の位置から撮影した画像群を得ることができる。なお、ここでは撮像部の数を9個としたが撮像部の数は9個に限定されず、例えば図2に示すように3個とすることもできる。したがって、複数の撮像部を有するいずれの撮像装置にも本発明を適用することができる。また、複数の撮像部の配置は任意であり、放射状や直線状に配置してもよいし、まったくランダムに配置してもよい。
First, a system configuration example of the image processing apparatus according to the present embodiment will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a multi-lens imaging apparatus including a plurality of imaging units. In the figure, the housing of the
図3は、撮像装置100の内部構成を示すブロック図である。中央処理装置(CPU)201は、以下に述べる各部を統括的に制御する。RAM202は、CPU201の主メモリ、ワークエリア等として機能する。ROM203は、CPU201で実行される制御プラグラム等を格納している。バス213は、各種データの転送経路となる。例えば、撮像部101〜109によって取得されたデジタルデータは、このバス213を介して所定の処理部に送られる。ユーザの指示を受け取る操作部204は、ボタンやモードダイヤルなどが含まれるが、これに限られない。
FIG. 3 is a block diagram illustrating an internal configuration of the
表示部206は、撮影画像や文字の表示を行い、例えば液晶ディスプレイが用いられる。また、表示部206は、タッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部204の入力として扱うことも可能である。表示制御部205は、表示部206に表示される撮影画像や文字の表示制御を行う。
The
撮像部制御部207は、フォーカスを合わせる、シャッターを開く及び閉じる並びに絞りを調節するなどの、CPU201からの指示に基づいた撮像系の制御を行う。デジタル信号処理部208は、バス213を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部209は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部210は、PCやその他のメディア211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に接続するためのインターフェースである。画像処理部212は、撮像部101〜109で取得されたカラー画像群或いは、デジタル信号処理部208から出力されるカラー画像群から出力されるデジタル画像群を用いて画像処理を行う。
The imaging
次に、本実施例の画像処理装置における一連の処理の動作手順を、図4に示すフローチャートを参照して説明する。まずステップS301において、撮像部101〜109の絞りを異なる設定にして被写体を撮影することにより、露出の異なる複数の撮影画像を取得する(撮影画像取得処理)。ステップS302において、撮影時の被写界深度が最も浅い撮像部の撮影パラメータに基づき、各撮影画像をリフォーカスして複数の補正画像を生成する(画像補正処理)。ステップS303において、補正画像の画素値を合成して1枚のHDR画像を生成する(画像合成処理)。以下、各処理の詳細について説明する。なお本処理は、図4のフローチャートに示す手順を実行するよう記述されたコンピュータ実行可能なプログラムを、ROM203からRAM202上に読み込んだ後、CPU201によって、読み込んだプログラムを実行することにより行われる。
Next, an operation procedure of a series of processes in the image processing apparatus of the present embodiment will be described with reference to a flowchart shown in FIG. First, in step S301, a plurality of captured images with different exposures are acquired by capturing a subject with different aperture settings of the
<撮影画像取得の詳細処理>
通常のデジタルカメラにおいては、撮影準備状態においてレンズの種類、焦点距離、ピント距離、露光時間、絞り値などからなる撮影パラメータセットを1セット設定する。これに対し、本実施例で用いるような多眼方式の撮像装置では各撮像部が1セットずつ撮影パラメータを設定されるが、ここでは露出が異なるように絞り値を変えた撮影パラメータセットを複数作成する。作成された撮影パラメータセットは複数の撮像部101〜109に各々割り当てられ、割り当てられたパラメータセットに応じて露光を行うことで、露出の異なる複数の撮影画像を得る。以下、図5に示すフローチャートを用いて詳細な処理について説明する。
<Detailed processing for acquiring captured images>
In an ordinary digital camera, one set of shooting parameter sets including a lens type, a focal length, a focus distance, an exposure time, an aperture value, and the like is set in a shooting preparation state. On the other hand, in the multi-lens imaging device used in the present embodiment, each imaging unit sets a shooting parameter for each set. Here, a plurality of shooting parameter sets with different aperture values are set so that exposure is different. create. The created shooting parameter set is assigned to each of the plurality of
まず、撮影ボタン110が半押しされると本実施例の撮像装置100は撮影準備状態となり、ステップS401で通常のデジタルカメラと同様にして、例えば撮像部105における適正露出(EV=±0)の撮影パラメータセットP0を1セット決定する。以後、この撮影パラメータセットを基準撮影パラメータセットと呼ぶ。また、撮像部105の位置を基準視点位置Oと呼ぶ。
First, when the
次にステップS402で、基準撮影パラメータセットと、ROM203上のレンズ特性値データベースに格納されている情報を取得する。この取得した情報に基づき、絞り値を変化させて露出が−1段(EV=-1)および+1段(EV=+1)となる撮影パラメータセットP-1およびP+1を作成する。以後、P-1、P+1を変動撮影パラメータセットと呼ぶ。ここで、レンズ特性値データベースには、予め撮影パラメータセットと、露出、被写界深度および後述する画像補正処理で用いる仮想絞りフィルタとの対応関係が格納されているものとする。
In step S <b> 402, information stored in the reference imaging parameter set and the lens characteristic value database on the
撮影ボタン110が全押しされると、ステップS403で各撮影パラメータセットP0、P-1、P+1が撮像部101〜109に割り当てられ、撮像部が各々撮影パラメータセットに従って撮影動作を開始し、複数枚の撮影画像を得る。撮影パラメータセットの割り当ては、例えば、被写界深度が深い(つまり、絞りを閉じた)撮影パラメータセットほど、距離の離れた多くの撮像部に割り当たるように行うのが望ましい。例えば、図1に示す白丸、網掛け、黒丸で示した撮像部に、それぞれ撮影パラメータセットP-1、P0、P+1を割り当てる。すなわち、撮像部101、103、107及び109には撮影パラメータセットP-1が割り当てられる。同様に、撮像部102、104、106及び108には撮影パラメータセットP0が、撮像部105には撮影パラメータセットP+1が割り当てられる。このような割り当てにより、後の画像補正処理においてより高品質なリフォーカス画像を生成することが可能となるが、これに限られず撮像部とパラメータとはいずれの組合せとしても本実施例の効果を奏することはできる。
When the
以上の処理により得られる撮影画像の例を図8に示す。図8において、画像(a)〜(i)はそれぞれ撮像部101〜109から得られる撮像画像である。また、この際撮影されるシーンの状態を図9に示す。図9に示す被写体701は、被写体703の撮像装置100から遠ざかる方向に所定の距離をおいて配置され、焦点は被写体703に合っているものとする。ここで、撮像装置100から被写体703までの距離はL0とし、撮影パラメータセットP0、P-1およびP+1の被写界深度をそれぞれD0、D-1およびD+1とする。このように設定すると、図8に示すように、被写体701は、撮影パラメータセットP0、P-1が割り当てられた撮像部では被写界深度D0、D-1内にあるので合焦する。しかし、撮影パラメータセットP+1の撮像部の被写界深度D+1内にははいらない。そのため、EV=−1およびEV=±0の撮影画像、すなわち撮像部105以外の撮像部で撮影し得られた画像上では被写体701にピントが合って見えるが、EV=+1の画像、すなわち撮像部105で撮影し得られた画像上では被写体701にボケが生じる。
An example of a captured image obtained by the above processing is shown in FIG. In FIG. 8, images (a) to (i) are captured images obtained from the
<画像補正処理の詳細>
本実施例における画像補正処理について説明する。本実施例においては、同一の撮影パラメータセットを用いて得られた複数の撮影画像を変換して重みづけ加算することにより撮影画像のリフォーカスを行い、撮影位置・ピント距離・被写界深度が同一で、露出の異なる複数の補正画像を生成する。また、撮影画像を重みづけ加算する際の重み係数は、撮影時の被写界深度が最も浅い撮像部の撮影パラメータセットに基づいて決定する。以下、図6に示すフローチャートを用いて詳細な処理について説明する。
<Details of image correction processing>
An image correction process in this embodiment will be described. In this embodiment, a plurality of shot images obtained using the same shooting parameter set are converted and weighted and added to refocus the shot image, and the shooting position, the focus distance, and the depth of field are set. A plurality of corrected images that are the same and have different exposures are generated. Also, the weighting coefficient for weighted addition of captured images is determined based on the imaging parameter set of the imaging unit with the shallowest depth of field at the time of imaging. Hereinafter, detailed processing will be described with reference to the flowchart shown in FIG.
まずステップS501で、基準撮影パラメータセットP0および変動撮影パラメータセットP-1、P+1に基づき、後述するステップS502で用いる目標絞りフィルタを取得する。具体的には、まず撮影パラメータセットP0、P-1、P+1を用いてレンズ特性値データベースから対応する被写界深度D0、D-1、D+1を取得する。得られた被写界深度のうち最も浅い被写界深度Dmin(本例では、D+1)を求め、これに対応する仮想絞りフィルタを目標絞りフィルタとしてレンズ特性値データベースから取得する。なお、仮想絞りフィルタは、絞りに応じて定まるボケの大きさや形状を表すものであり、後述するステップS502の重みづけ加算に用いる重み係数が記述されたフィルタである。 First, in step S501, a target aperture filter used in step S502 to be described later is acquired based on the reference shooting parameter set P0 and the variable shooting parameter sets P-1 and P + 1. Specifically, first, the corresponding depth of field D0, D-1, and D + 1 is acquired from the lens characteristic value database using the imaging parameter sets P0, P-1, and P + 1. The shallowest depth of field Dmin (D + 1 in this example) is obtained from the obtained depth of field, and the virtual diaphragm filter corresponding to this is obtained from the lens characteristic value database as the target diaphragm filter. Note that the virtual aperture filter represents the size and shape of blur determined according to the aperture, and is a filter in which a weighting factor used for weighting addition in step S502 described later is described.
次にステップS502で、基準撮影パラメータセットP0中のピント距離L0、およびステップS501で取得した目標絞りフィルタを用いてリフォーカス処理を行い、EV=±0,−1,+1の撮影画像に対応する補正画像を生成する。以下、EV=±0の撮影画像を例にしてリフォーカス処理を具体的に説明する。ただし、リフォーカス処理については様々な手法が知られており、ピント位置および被写界深度を露出の異なる画像間で統一できるものであれば、実現方法を本実施例で説明する処理に限定するものではない。 Next, in step S502, refocus processing is performed using the focus distance L0 in the reference imaging parameter set P0 and the target aperture filter acquired in step S501, and the captured image of EV = ± 0, −1, +1 is handled. A corrected image is generated. Hereinafter, the refocus processing will be specifically described by taking a captured image of EV = ± 0 as an example. However, various methods are known for the refocus processing, and the implementation method is limited to the processing described in the present embodiment as long as the focus position and the depth of field can be unified between images with different exposures. It is not a thing.
まず、基準撮影パラメータセットP0を用いて得られた複数の撮影画像それぞれに関し、ピント面上の被写体について画像上での位置を一致させるシフト変形量を算出する。カメラアレイ平面上において基準視点位置Oに対する相対位置座標が( i, j )である撮像部から得られた撮影画像をI0 ,(i,j) とする。そうすると、ピント距離がL0である場合の撮影画像I0,(i,j)の水平シフト量Shiftu(i,j)および垂直シフト量Shiftv(i,j)は以下の式で求められる。 First, for each of a plurality of captured images obtained using the reference capturing parameter set P0, a shift deformation amount that matches the position of the subject on the focus surface on the image is calculated. A captured image obtained from an imaging unit whose relative position coordinates with respect to the reference viewpoint position O on the camera array plane is (i, j) is I0, (i, j). Then, the horizontal shift amount Shiftu (i, j) and the vertical shift amount Shiftv (i, j) of the captured image I0, (i, j) when the focus distance is L0 can be obtained by the following equations.
ここで、W、Hはそれぞれ撮影画像の水平方向および垂直方向の画像サイズ、θw、θhはそれぞれ撮像部の水平視野角および垂直視野角である。 Here, W and H are the horizontal and vertical image sizes of the captured image, respectively, and θw and θh are the horizontal viewing angle and the vertical viewing angle of the imaging unit, respectively.
次に、算出したシフト量Shiftu(i,j)、Shiftv(i,j)と、ステップS501で取得した目標絞りフィルタの重み係数α( i, j )を用い、次式に従い撮影画像I0 ,(i,j)の画素値を重みづけ加算して補正画像H0を生成する。ただし、( u, v )は画像平面上における水平、垂直座標であり、I0 ,(i,j) ( u, v )、H0 ( u, v )はそれぞれ撮影画像I0 ,(i,j) および補正画像H0の座標( u, v )における画素値である。 Next, using the calculated shift amounts Shiftu (i, j) and Shiftv (i, j) and the weighting coefficient α (i, j) of the target aperture filter acquired in step S501, the captured images I0, ( The corrected image H0 is generated by weighted addition of the pixel values i, j). Where (u, v) is the horizontal and vertical coordinates on the image plane, and I0, (i, j) (u, v) and H0 (u, v) are the captured images I0, (i, j) and It is a pixel value at the coordinates (u, v) of the corrected image H0.
以上で説明した処理により、EV=±0に対して撮影位置がO、ピント距離がL0、被写界深度がDminである補正画像H0が得られる。同様にして、撮影時に用いた変動撮影パラメータセットごとに、ステップS301で得た複数の撮影画像に対してリフォーカス処理を適用することにより、EV=-1,+1に対する補正画像H-1、H+1も生成する。 Through the processing described above, a corrected image H0 is obtained in which the shooting position is O, the focus distance is L0, and the depth of field is Dmin with respect to EV = ± 0. Similarly, by applying a refocus process to the plurality of captured images obtained in step S301 for each variable shooting parameter set used at the time of shooting, a corrected image H-1 for EV = -1, + 1, H + 1 is also generated.
以上の処理により得られる補正画像の例を図10ないし12に示す。これらの補正画像は、露出は異なるが被写体のボケが同程度である画像となる。なお、ステップS403において、被写界深度が最も浅い撮影パラメータセットを基準視点位置に存在する撮像部に割り当てた場合、その撮像部から得られる撮影画像についてはリフォーカス処理を省略してもよい。例えば、最も浅い被写界深度Dminが変動撮影パラメータセットP+1に対応する被写界深度D+1であり、撮像部105の撮影パラメータセットがP+1である場合がある。この場合には、撮像部105から得られるEV=+1の撮影画像I+1 ,(0,0) をそのまま補正画像H+1としてもよい。その場合、処理時間を短縮できるという効果を奏する。
Examples of corrected images obtained by the above processing are shown in FIGS. These corrected images are images with different exposures but the same degree of blurring of the subject. In step S403, when the imaging parameter set with the shallowest depth of field is assigned to the imaging unit existing at the reference viewpoint position, the refocus processing may be omitted for the captured image obtained from the imaging unit. For example, the shallowest depth of field Dmin may be the depth of field D + 1 corresponding to the variable shooting parameter set P + 1, and the shooting parameter set of the
一般にリフォーカス処理は、ボケた被写体像からピントの合った被写体像を生成するよりも、ピントの合った被写体像からボケた被写体像を生成する方が比較的簡単な処理で品質の良い画像を生成することができる。また、撮影画像上の被写体像に対して生成したいボケの程度が大きい場合、より多様な視点位置から撮影した画像を用いるほど、生成されるボケた被写体像の品質が向上する。したがって本実施例では、撮影画像のうち最も浅い被写界深度に他の撮影画像の被写界深度を揃え、さらに、ステップS403で説明したように撮影パラメータセットを割り当てる。これによって、より高品質な補正画像を生成することが可能となる。 In general, refocus processing is a relatively simple process of generating a high-quality image by generating a blurred subject image from a focused subject image rather than generating a focused subject image from a blurred subject image. Can be generated. Further, when the degree of blur to be generated with respect to the subject image on the captured image is large, the quality of the generated blurred subject image is improved as the images captured from various viewpoint positions are used. Therefore, in the present embodiment, the depth of field of the other photographed image is aligned with the shallowest depth of field of the photographed image, and the photographing parameter set is assigned as described in step S403. This makes it possible to generate a higher quality corrected image.
<画像合成の詳細処理>
補正画像からHDR画像を合成する際には、既知のHDR画像生成技術が利用可能である。例えば、次式に従い各補正画像H-1、H0、H+1の画素値に合成ゲインを乗じて足し合わせることで、1枚のHDR画像Gを生成する。なお、合成ゲインの値は各補正画像の露出に応じた値(例えば、γ−1=2.0、γ0=1.0、γ+1=0.5)とすればよい。得られるHDR画像Gの例を図13に示す。また、撮像部105で撮影パラメータセットP0 、P-1、P+1を用いて撮影した画像から補正せずに合成して得られるHDR画像の例を図14に示す。図14のHDR画像では、被写体702とその周辺の間でボケの不整合が生じる。これに対し、本実施例においてHDR合成に用いる補正画像は撮影画像間でのボケ方の差を補正した画像であるため、合成して得られるHDR画像はボケの不整合が生じない自然な画像となる。
<Detailed processing of image composition>
When synthesizing an HDR image from a corrected image, a known HDR image generation technique can be used. For example, one HDR image G is generated by multiplying the pixel values of the corrected images H-1, H0, and H + 1 by the composite gain and adding them according to the following equation. Note that the value of the composite gain may be a value corresponding to the exposure of each corrected image (for example, γ−1 = 2.0, γ0 = 1.0, γ + 1 = 0.5). An example of the obtained HDR image G is shown in FIG. Further, FIG. 14 shows an example of an HDR image obtained by synthesizing the image captured by the
以上説明したように、多眼カメラを用い同時に複数の露出の異なる画像を取得するとともに、深度の調整も行うことで、被写体に動きがあり、かつ奥行きのあるシーンにおいても、被写体ブレおよびボケ味の自然なHDR画像を得ることが可能となる。なお、本実施例では露出をEV=−1,±0,+1の3段階に変えて撮影する例について説明したが、露出の段階数が複数であれば、他の露出設定で撮影を行っても同様の効果を得ることができる。 As described above, by using a multi-lens camera to simultaneously acquire a plurality of images with different exposures and adjusting the depth, the subject is moving and the subject blurs and blurs even in a deep scene. It is possible to obtain a natural HDR image. In this embodiment, the example of shooting with the exposure changed to EV = −1, ± 0, +1 is described. However, if there are a plurality of exposure levels, shooting is performed with other exposure settings. The same effect can be obtained.
[実施例2]
実施例1では、露出ごとに撮影画像をリフォーカスすることによりボケ具合を整合させて補正画像を生成する例について説明した。本実施例においては、被写界深度の最も浅い撮影画像における空間周波数のスペクトルに基づき、他の撮影画像を平滑化することにより補正画像を生成する例について説明する。なお、撮影画像取得処理および画像合成処理については、実施例1と同一であるため説明を省略する。ただし、本実施例においては、図2に示す撮像装置を用いて露出ごとに各撮像部で3つの画像を取得し、これを合成して1枚の撮影画像を得るものとする。本実施例では、図2に示すような撮像装置を例に説明するが、撮像部の数や形態などについては、本技術分野で知られたいずれの撮像装置も使用することができ、その場合は以下の処理は適宜具体的な装置特性に合わせて変更することができる。さらに、撮像部間の距離はピント距離に対して十分短く、何れの撮像部で撮影した画像も基準視点位置Oから撮影した画像として見なせるものとする。以下、図7に示すフローチャートを用いて詳細な処理を説明する。
[Example 2]
In the first embodiment, an example has been described in which a corrected image is generated by refocusing a captured image for each exposure so that the degree of blur is matched. In the present embodiment, an example will be described in which a corrected image is generated by smoothing another captured image based on the spectrum of the spatial frequency in the captured image with the shallowest depth of field. Note that the captured image acquisition process and the image composition process are the same as those in the first embodiment, and thus description thereof is omitted. However, in this embodiment, it is assumed that three images are acquired by each imaging unit for each exposure using the imaging device shown in FIG. 2 and are combined to obtain a single captured image. In the present embodiment, an imaging apparatus as shown in FIG. 2 will be described as an example. However, for the number and form of imaging sections, any imaging apparatus known in the art can be used. The following processing can be appropriately changed according to specific device characteristics. Furthermore, the distance between the imaging units is sufficiently short with respect to the focus distance, and an image captured by any imaging unit can be regarded as an image captured from the reference viewpoint position O. Hereinafter, detailed processing will be described with reference to the flowchart shown in FIG.
まずステップS601において、基準撮影パラメータセットP0並びに変動撮影パラメータセットP-1及びP+1に基づき、撮影画像の中から基準深度画像を選択する。具体的には、撮影パラメータセットP0、P-1、P+1を用いてレンズ特性値データベースから対応する被写界深度D0、D-1、D+1を取得する。そして、得られた被写界深度が最も浅い撮影パラメータセットを特定し、それを用いて撮影した撮影画像を基準深度画像IDとして選択する。 First, in step S601, a reference depth image is selected from the captured images based on the reference shooting parameter set P0 and the variable shooting parameter sets P-1 and P + 1. Specifically, the corresponding depth of field D0, D-1, and D + 1 is acquired from the lens characteristic value database using the imaging parameter sets P0, P-1, and P + 1. Then, the obtained shooting parameter set with the shallowest depth of field is specified, and a shot image shot using the set is selected as a reference depth image ID.
次にステップS602で、基準深度画像IDおよび他の撮影画像(以後、補正対象画像)をN×N画素のブロック領域に分割する。そしてステップS603で、各補正対象画像の領域ごとに空間周波数スペクトルが基準深度画像IDと同等となるよう平滑化を行い、補正画像を得る。以下、ある1枚の補正対象画像Inの領域Rを平滑化する場合を例に、図15に示すフローチャートを用いて詳細を説明する。まず、ステップS1001で基準深度画像ID上の領域Rについて、フーリエ変換等を用いて空間周波数スペクトルを算出する。さらに、求めたスペクトルをそれぞれの直流成分で正規化し、正規化スペクトルfD(kx,ky)(kx,kyは空間周波数を表すインデックス)を得る。 In step S602, the reference depth image ID and other captured images (hereinafter referred to as correction target images) are divided into block regions of N × N pixels. In step S603, the correction is performed by performing smoothing so that the spatial frequency spectrum is equal to the reference depth image ID for each region of each correction target image. Hereinafter, the details will be described using the flowchart shown in FIG. 15 as an example of smoothing the region R of one correction target image In. First, in step S1001, a spatial frequency spectrum is calculated for the region R on the reference depth image ID using Fourier transform or the like. Further, the obtained spectrum is normalized with each DC component, and a normalized spectrum fD (kx, ky) (kx, ky is an index representing a spatial frequency) is obtained.
次にステップS1002で、補正対象画像In上の領域Rについて、ステップS1001と同様に空間周波数の正規化スペクトルfn(kx,ky)を得る。次にステップS1003で、正規化スペクトルfD(kx,ky)、fn(kx,ky)を用いて、領域Rにおける基準深度画像IDと補正対象画像Inの相違度Snを求める。ここで、相違度Snは2つの正規化空間周波数スペクトル間における違いの程度を表す評価値であり、例えば次式に従い算出する。このとき、相違度Snは基準深度画像と補正対象画像との間でボケの程度が異なるほど大きな値となる。 Next, in step S1002, a spatial frequency normalized spectrum fn (kx, ky) is obtained for the region R on the correction target image In as in step S1001. In step S1003, the difference Sn between the reference depth image ID and the correction target image In in the region R is obtained using the normalized spectra fD (kx, ky) and fn (kx, ky). Here, the degree of difference Sn is an evaluation value representing the degree of difference between the two normalized spatial frequency spectra, and is calculated according to the following equation, for example. At this time, the difference Sn becomes larger as the degree of blur differs between the reference depth image and the correction target image.
次にステップS1004で、相違度Snが予め定めた閾値Thより小さいか否かを判定する。Sn≦Thの場合には領域Rに関して基準深度画像と補正対象画像とはボケの程度が同等であると判断し、補正対象画像における領域Rの画素値を補正画像における領域Rの画素値として記憶した後、処理を終了する。また、Sn>Thの場合にはボケの程度が異なっていると判断し、ステップS1005へ進む。ステップS1005では、補正対象画像Inの領域Rに対してガウスフィルタ等を用いて平滑化処理を実行し、平滑化した補正対象画像を新たな補正対象画像としてステップS1002に戻る。 In step S1004, it is determined whether or not the difference Sn is smaller than a predetermined threshold value Th. When Sn ≦ Th, the reference depth image and the correction target image are determined to have the same degree of blur with respect to the region R, and the pixel value of the region R in the correction target image is stored as the pixel value of the region R in the correction image. After that, the process ends. If Sn> Th, it is determined that the degree of blur is different, and the process proceeds to step S1005. In step S1005, smoothing processing is performed on the region R of the correction target image In using a Gaussian filter or the like, and the process returns to step S1002 with the smoothed correction target image as a new correction target image.
以上のステップS1002〜S1005の処理を繰り返し行うことにより、補正画像における領域Rの画素値を得る。なお、上述の例ではステップS1004において相違度が閾値以下となるまで処理を繰り返し行うが、相違度が極小値に収束した場合に処理を終了するようにしてもよい。 By repeatedly performing the processes in steps S1002 to S1005, the pixel value of the region R in the corrected image is obtained. In the above-described example, the process is repeated until the dissimilarity is equal to or smaller than the threshold value in step S1004. However, the process may be terminated when the dissimilarity converges to a minimum value.
以上の処理により、撮像部の個数が少ない場合においても、撮影画像間でのボケ方の差を補正した補正画像を生成することが可能となる。なお、本実施例ではステップS602において基準深度画像を含む撮影画像をブロック領域に分割したが、分割方法はこれに限るものではない。例えば、基準深度画像のエッジに基づいて領域分割を行ってもよい。その場合、被写体の輪郭線が過剰に平滑化されたり、ブロック領域間の平滑化程度の差により補正画像にブロックノイズが生じたりすることを回避する効果を奏する。 With the above processing, it is possible to generate a corrected image in which the difference in blur between captured images is corrected even when the number of imaging units is small. In this embodiment, the captured image including the reference depth image is divided into block areas in step S602. However, the division method is not limited to this. For example, region division may be performed based on the edge of the reference depth image. In this case, there is an effect of avoiding that the contour line of the subject is excessively smoothed or block noise is generated in the corrected image due to a difference in the smoothing level between the block areas.
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. The present invention can also be realized by a plurality of processors cooperating to perform processing.
Claims (14)
前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正手段と、 The pixel value of at least one of the first image and the second image is corrected so that the difference between the blur condition of the first image and the blur condition of the second image is reduced. Correction means;
少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成手段とを備える Combining the first image with at least one pixel value corrected with the second image to generate a composite image having a wider dynamic range than the first image and the second image Means
ことを特徴とする画像処理装置。 An image processing apparatus.
前記合成手段は、前記補正手段により取得された前記複数の画像を合成することで、前記合成画像を生成する The synthesizing unit generates the synthesized image by synthesizing the plurality of images acquired by the correcting unit.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1.
前記取得手段は、前記第二の絞り値で前記被写体を撮像することにより得られた、前記第二の画像とは異なる第三の画像を更に取得し、 The acquisition means further acquires a third image different from the second image, obtained by imaging the subject with the second aperture value,
前記補正手段は、前記第二の画像と前記第三の画像とを合成することにより、前記第二の画像の被写界深度が浅くなるように前記第二の画像の画素値を補正し、 The correction means corrects the pixel value of the second image so that the depth of field of the second image becomes shallow by combining the second image and the third image,
前記合成手段は、前記第一の画像と、画素値が補正された前記第二の画像とを合成することで、前記合成画像を生成する The synthesizing unit generates the synthesized image by synthesizing the first image and the second image whose pixel value is corrected.
ことを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記重みづけ加算に用いる重み係数は、前記第一の絞り値に基づいて決定される A weighting factor used for the weighted addition is determined based on the first aperture value.
ことを特徴とする請求項3に記載の画像処理装置。The image processing apparatus according to claim 3.
前記補正手段は、前記第二の画像に平滑化処理を施すことで、前記第二の画像の被写界深度が浅くなるように前記第二の画像の画素値を補正することを特徴とする請求項1又は2に記載の画像処理装置。 The correction unit corrects the pixel value of the second image so that the depth of field of the second image becomes shallow by performing a smoothing process on the second image. The image processing apparatus according to claim 1.
ことを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5.
ことを特徴とする請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6.
ことを特徴とする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7.
ことを特徴とする請求項7または8に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the image processing apparatus is an image processing apparatus.
前記第一の画像を撮像する第一の撮像部と、 A first imaging unit that captures the first image;
前記第二の画像を撮像する第二の撮像部とを有する A second imaging unit that captures the second image.
ことを特徴とする撮像装置。 An imaging apparatus characterized by that.
前記第二の絞り値よりも大きな第三の絞り値の絞りを介して撮像する複数の第三の撮像部とを有し、 A plurality of third imaging units for imaging through an aperture having a third aperture value larger than the second aperture value;
前記複数の第三の撮像部間の距離は、前記複数の第二の撮像部間の距離よりも大きい The distance between the plurality of third imaging units is larger than the distance between the plurality of second imaging units.
ことを特徴とする請求項10に記載の撮像装置。 The imaging apparatus according to claim 10.
前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正工程と、 The pixel value of at least one of the first image and the second image is corrected so that the difference between the blur condition of the first image and the blur condition of the second image is reduced. A correction process;
少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成工程とを備える Combining the first image with at least one pixel value corrected with the second image to generate a composite image having a wider dynamic range than the first image and the second image Process
ことを特徴とする画像処理方法。 An image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011276966A JP5843599B2 (en) | 2011-12-19 | 2011-12-19 | Image processing apparatus, imaging apparatus, and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011276966A JP5843599B2 (en) | 2011-12-19 | 2011-12-19 | Image processing apparatus, imaging apparatus, and method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013128212A JP2013128212A (en) | 2013-06-27 |
JP2013128212A5 JP2013128212A5 (en) | 2015-02-19 |
JP5843599B2 true JP5843599B2 (en) | 2016-01-13 |
Family
ID=48778502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011276966A Active JP5843599B2 (en) | 2011-12-19 | 2011-12-19 | Image processing apparatus, imaging apparatus, and method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5843599B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10643316B2 (en) | 2017-10-31 | 2020-05-05 | Samsung Electronics Co., Ltd. | Image processing apparatus, method for processing image and computer-readable recording medium |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3009395B1 (en) * | 2013-07-31 | 2016-12-23 | Dxo Labs | DEVICE FOR SHOOTING WITH A PLURALITY OF CAMERA MODULES |
JP6347675B2 (en) * | 2014-06-06 | 2018-06-27 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, imaging method, and program |
CN106464815B (en) | 2014-11-21 | 2020-01-14 | 深圳市大疆创新科技有限公司 | System and method for fast adaptive blending for high dynamic range imaging |
CN109314776B (en) * | 2017-05-17 | 2021-02-26 | 深圳配天智能技术研究院有限公司 | Image processing method, image processing apparatus, and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4448844B2 (en) * | 2006-11-22 | 2010-04-14 | 富士フイルム株式会社 | Compound eye imaging device |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP2011229111A (en) * | 2010-03-29 | 2011-11-10 | Fujifilm Corp | Imaging apparatus |
JP5367640B2 (en) * | 2010-05-31 | 2013-12-11 | パナソニック株式会社 | Imaging apparatus and imaging method |
-
2011
- 2011-12-19 JP JP2011276966A patent/JP5843599B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10643316B2 (en) | 2017-10-31 | 2020-05-05 | Samsung Electronics Co., Ltd. | Image processing apparatus, method for processing image and computer-readable recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2013128212A (en) | 2013-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9444991B2 (en) | Robust layered light-field rendering | |
TWI602152B (en) | Image capturing device nd image processing method thereof | |
JP5709911B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
US8860816B2 (en) | Scene enhancements in off-center peripheral regions for nonlinear lens geometries | |
CN108462830B (en) | Image pickup apparatus and control method of image pickup apparatus | |
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP6308748B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
KR101643613B1 (en) | Digital image process apparatus, method for image processing and storage medium thereof | |
JP2010009417A (en) | Image processing apparatus, image processing method, program and recording medium | |
JP2010020758A (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
US9332195B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
WO2011099239A1 (en) | Imaging device and method, and image processing method for imaging device | |
WO2020029679A1 (en) | Control method and apparatus, imaging device, electronic device and readable storage medium | |
JP5843599B2 (en) | Image processing apparatus, imaging apparatus, and method thereof | |
JPWO2017169039A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2018195079A (en) | Image processing apparatus and image processing method | |
JP2013026844A (en) | Image generation method and device, program, recording medium, and electronic camera | |
JP6270413B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2017011327A (en) | Image processing apparatus, image processing method, and program | |
WO2019124289A1 (en) | Device, control method, and storage medium | |
JP2015046678A (en) | Image processing device, image processing method and imaging device | |
US8498494B2 (en) | Method and apparatus for processing a digital image signal, and a recording medium having recorded thereon a program for executing the method | |
JP5282533B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP2015109681A (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
US10334161B2 (en) | Image processing apparatus, image processing method, computer program and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5843599 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |