JP6274744B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6274744B2 JP6274744B2 JP2013097097A JP2013097097A JP6274744B2 JP 6274744 B2 JP6274744 B2 JP 6274744B2 JP 2013097097 A JP2013097097 A JP 2013097097A JP 2013097097 A JP2013097097 A JP 2013097097A JP 6274744 B2 JP6274744 B2 JP 6274744B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- resolution
- low
- alignment
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title claims 3
- 238000006243 chemical reaction Methods 0.000 claims description 56
- 238000003780 insertion Methods 0.000 claims description 24
- 230000037431 insertion Effects 0.000 claims description 24
- 230000009466 transformation Effects 0.000 claims description 21
- 230000004075 alteration Effects 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 description 90
- 238000012937 correction Methods 0.000 description 45
- 238000004364 calculation method Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 16
- 238000004886 process control Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
Description
本発明は、特に、複数枚の低解像度画像を用いて高解像度画像を作成するために用いて好適な画像処理装置および画像処理方法に関する。 The present invention is particularly directed to a suitable image processing apparatus and how be used to create a high-resolution image using the plurality of low-resolution images.
複数枚の低解像度画像を用いて1枚の高解像度画像を作成する技術として、複数枚超解像が一般に知られている。この複数枚超解像の技術は、デジタルカメラにおいて電子ズームの画質を上げるための用途などに用いられる。複数枚超解像の方法としては、ベイヤー配列の色フィルタを有する撮像素子により得られた低解像度画像を用いて高解像度画像と同じ解像度を有する画像を色成分毎に作成し、複数枚超解像の処理をそれぞれ行うことにより高解像度画像を作成する。 As a technique for creating a single high-resolution image using a plurality of low-resolution images, a multi-image super-resolution is generally known. This multiple-image super-resolution technique is used for applications such as improving the image quality of electronic zoom in a digital camera. As a method of super-resolution of multiple images, an image having the same resolution as a high-resolution image is created for each color component using a low-resolution image obtained by an image sensor having a Bayer array color filter, and multiple-image super-resolution is obtained. A high resolution image is created by processing each image.
ところが、図16に示すように、連続して撮影した低解像度画像を用いて高解像度画像を生成する場合、領域1605に該当する低解像度画像の領域1601〜1604は、光軸中心からの像高が全て異なっている。そのため、複数枚の低解像度画像の画素を挿入することにより高解像度画像を生成すると、各低解像度画像の倍率色収差や歪曲収差の影響により画質が劣化する問題があった。 However, as shown in FIG. 16, when a high resolution image is generated using low resolution images taken continuously, areas 1601 to 1604 of the low resolution image corresponding to the area 1605 are image heights from the center of the optical axis. Are all different. Therefore, when a high resolution image is generated by inserting a plurality of low resolution image pixels, there is a problem that the image quality deteriorates due to the influence of lateral chromatic aberration and distortion of each low resolution image.
また、高解像度画像の各画素は、隣接された画素同士でも挿入された時の光軸中心からの像高が異なるため、高解像度画像を生成した後に倍率色収差補正や歪曲収差補正を行うのは非常に困難である。一方、低解像度画像の段階で倍率色収差補正や歪曲収差補正を行うと、バイリニア補間などのフィルタリング手段を用いるため、低解像画像の周波数帯域が落ちてしまい、高解像度画像を生成するのに好ましくない。そこで、上記の対策として、特許文献1には、倍率色収差や歪曲収差などの光学特性に基づく座標変換を行った後にデモザイキング処理を行う方法が開示されている。
Also, each pixel of the high resolution image has a different image height from the center of the optical axis when adjacent pixels are inserted, so the magnification chromatic aberration correction and the distortion aberration correction are performed after the high resolution image is generated. It is very difficult. On the other hand, if lateral chromatic aberration correction and distortion correction are performed at the low-resolution image stage, a filtering means such as bilinear interpolation is used, so the frequency band of the low-resolution image drops, which is preferable for generating a high-resolution image. Absent. Therefore, as a countermeasure for the above,
しかしながら、特許文献1に開示された方法で高解像度画像を生成しても、デモザイキング処理により周波数帯域を落としてしまっているので、高解像度画像を生成するには好ましくない。
However, even if a high resolution image is generated by the method disclosed in
本発明は前述の問題点に鑑み、低解像度画像の周波数帯域を落とさないようにして、光学特性に基づく収差を補正した高解像度画像を生成できるようにすることを目的としている。 In view of the above-described problems, an object of the present invention is to generate a high-resolution image in which aberration based on optical characteristics is corrected without reducing the frequency band of a low-resolution image.
本発明に係る画像処理装置は、複数の低解像度画像を用いて高解像度画像を生成する画像処理装置であって、前記低解像度画像のそれぞれの座標に対し、各色成分の光学特性に基づく座標変換を行う座標変換手段と、前記複数の低解像度画像の間の位置ずれ量を検出する検出手段と、前記検出手段により検出された位置ずれ量に従って、前記座標変換手段により座標変換された低解像度画像の位置合わせを行う位置合わせ手段と、前記位置合わせ手段による位置合わせの結果に基づいて、前記低解像度画像の画素値を挿入することにより前記高解像度画像を生成する挿入手段とを備え、前記検出手段は、前記低解像度画像を縮小した後に、前記座標変換手段による座標変換が行われた位置合わせ用の画像を生成する生成手段をさらに備え、前記生成手段によって生成された位置合わせ用の画像を用いて位置ずれ量を検出することを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus that generates a high-resolution image using a plurality of low-resolution images, and for each coordinate of the low-resolution image, coordinate conversion based on optical characteristics of each color component A coordinate conversion means for performing the detection, a detection means for detecting a displacement amount between the plurality of low resolution images, and a low resolution image coordinate-converted by the coordinate conversion means according to the displacement amount detected by the detection means. And an alignment unit for generating the high-resolution image by inserting a pixel value of the low-resolution image based on a result of the alignment by the alignment unit, and the detection The means further includes generating means for generating an image for alignment after coordinate conversion by the coordinate conversion means after reducing the low-resolution image. And detecting the positional deviation amount by using the image for positioning generated by the generating means.
本発明によれば、低解像度画像の周波数帯域を落とさないようにして、光学特性に基づく収差を補正した高解像度画像を生成することができる。 According to the present invention, it is possible to generate a high-resolution image in which aberration based on optical characteristics is corrected without dropping the frequency band of the low-resolution image.
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。なお、本実施形態は、低解像度画像を複数枚用いて水平、垂直方向それぞれk倍に画素数を拡大した高解像度画像を生成し、高解像度化を実現する超解像処理について説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a super-resolution process for generating a high-resolution image using a plurality of low-resolution images and expanding the number of pixels in the horizontal and vertical directions by k times will be described.
図1は、本実施形態に係る画像処理装置100の内部構成例を示すブロック図である。
図1において、光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群、絞り調整装置、および、シャッター装置を備えている。この光学系101は、撮像素子102に到達する被写体像の倍率やピント位置、あるいは、光量を調整している。撮像素子102は、光学系101を通過した被写体の光束を光電変換して電気信号に変換するCCDやCMOSセンサー等の光電変換素子である。
FIG. 1 is a block diagram illustrating an internal configuration example of an
In FIG. 1, the optical system 101 includes a lens group including a zoom lens and a focus lens, a diaphragm adjusting device, and a shutter device. The optical system 101 adjusts the magnification, focus position, or light amount of the subject image that reaches the image sensor 102. The imaging element 102 is a photoelectric conversion element such as a CCD or a CMOS sensor that photoelectrically converts a light beam of a subject that has passed through the optical system 101 into an electric signal.
A/D変換部103は、入力されたアナログの映像信号をデジタル信号である画像データに変換する。画像処理部104は、ホワイトバランス、γ補正などの通常の信号処理を行う。さらに画像処理部104は超解像処理制御部111を備えており、入力された複数枚の画像データ(ベイヤー画像)を用いて超解像処理を行う。画像処理部104はA/D変換部103から出力された画像データのみでなく、記録部108から読み出した画像データに対しても同様の画像処理を行うことができる。システム制御部105は、本実施形態に係る画像処理装置100全体の動作を制御、統括する制御機能部である。また、システム制御部105は、画像処理部104で処理された画像データから得られる輝度値や操作部106から送信された指示に基づいて、光学系101や撮像素子102の駆動制御も行う。
The A / D converter 103 converts the input analog video signal into image data that is a digital signal. The image processing unit 104 performs normal signal processing such as white balance and γ correction. Furthermore, the image processing unit 104 includes a super-resolution processing control unit 111, and performs super-resolution processing using a plurality of input image data (Bayer images). The image processing unit 104 can perform similar image processing not only on the image data output from the A / D conversion unit 103 but also on the image data read from the recording unit 108. The system control unit 105 is a control function unit that controls and controls the overall operation of the
表示部107は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイで構成され、撮像素子102で生成された画像データや、記録部108から読み出した画像データに係る画像を表示する。記録部108は、画像データを記録媒体110に記録する機能を有している。記録媒体110は、例えば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体でもよく、さらに着脱可能であってもよい。バス109は、画像処理部104、システム制御部105、表示部107、および記録部108の間でデータをやり取りするために用いられる。
The display unit 107 includes a liquid crystal display or an organic EL (Electro Luminescence) display, and displays image data generated by the image sensor 102 and an image related to the image data read from the recording unit 108. The recording unit 108 has a function of recording image data on the
ここで、本実施形態の特徴部分である画像処理部104内の超解像処理制御部111の具体的な構成について説明する。図2は、超解像処理制御部111の具体的な構成例を示すブロック図である。
図2に示すように、本実施形態に係る超解像処理制御部111は、基準画像選択部201、ベイヤー分離部202、座標変換係数算出部203、メモリ部204、超解像処理部205、およびYUV変換部206を備えている。また、図3には、座標変換係数算出部203の具体的な構成例を示しており、図4には、超解像処理部205の具体的な構成例を示している。図3および図4に示す構成については後述する。以下、図2の各構成が行う処理について、図5のフローチャートを参照しながら説明する。
Here, a specific configuration of the super-resolution processing control unit 111 in the image processing unit 104 which is a characteristic part of the present embodiment will be described. FIG. 2 is a block diagram illustrating a specific configuration example of the super-resolution processing control unit 111.
As shown in FIG. 2, the super-resolution processing control unit 111 according to the present embodiment includes a reference image selection unit 201, a Bayer
図5は、本実施形態に係る超解像処理制御部111による超解像処理手順の一例を示すフローチャートである。
まず、ステップS501において、基準画像選択部201は、入力されたベイヤー画像を順番に複数枚取得する。そして、ステップS502において、複数枚入力されたベイヤー画像のうち、超解像処理を行う上で基準となるベイヤー画像を選択する。本実施形態では、入力された1枚目の画像を基準となる画像として選択する。以下、前記基準となるベイヤー画像を基準画像とし、それ以外のベイヤー画像を非基準画像とする。
FIG. 5 is a flowchart illustrating an example of a super-resolution processing procedure by the super-resolution processing control unit 111 according to the present embodiment.
First, in step S501, the reference image selection unit 201 acquires a plurality of input Bayer images in order. In step S502, a Bayer image serving as a reference for performing super-resolution processing is selected from a plurality of Bayer images input. In this embodiment, the input first image is selected as a reference image. Hereinafter, the reference Bayer image is a reference image, and the other Bayer images are non-reference images.
次に、ステップS503において、ベイヤー分離部202に基準画像を最初に出力し、次に複数の非基準画像を出力するように制御する。N枚の画像が入力された場合、1枚目に基準画像を出力し、次に2枚目からN枚目の非基準画像を出力する。
Next, in step S503, control is performed so that the reference image is first output to the Bayer
次に、ステップS504において、ベイヤー分離部202は、ステップS503で出力されたベイヤー画像を、R,G,Bの3枚のモザイク画像に分離し、それぞれ座標変換係数算出部203および超解像処理部205に出力する。ここで、図6を参照しながら、ベイヤー画像をモザイク画像に分離する処理について詳細に説明する。
Next, in step S504, the Bayer
図6(a)は、基準画像選択部201から出力された水平画像数W、垂直画素数Hのベイヤー画像の一例を示す図である。また、図6(b)は、図6(a)に示したベイヤー画像を、R,G,Bの各色成分に分離した3枚のモザイク画像の一例を示す図である。前記モザイク画像は、ベイヤー画像の画素値の情報を有する非欠落画素601と、ベイヤー画像の画素値の情報を持たず0の値が入力された欠落画素602とによって構成される。
FIG. 6A is a diagram illustrating an example of a Bayer image with the number of horizontal images W and the number of vertical pixels H output from the reference image selection unit 201. FIG. 6B is a diagram illustrating an example of three mosaic images obtained by separating the Bayer image illustrated in FIG. 6A into R, G, and B color components. The mosaic image includes
次に、ステップS505において、基準画像に対して非基準画像の位置合わせを行うために必要な座標変換係数を算出する。本実施形態では、Gのモザイク画像からデモザイク処理を行った画像に対して歪曲補正を行い、位置合わせ用のG画像を作成する。前記G画像を用いることにより、画像間の位置合わせを行うための射影変換係数を算出する。 Next, in step S505, a coordinate conversion coefficient necessary for aligning the non-reference image with the reference image is calculated. In the present embodiment, distortion correction is performed on an image that has been demosaiced from a G mosaic image to create a G image for alignment. By using the G image, a projective transformation coefficient for aligning the images is calculated.
図3は、図2の座標変換係数算出部203の具体的な構成例を示すブロック図である。
図3において、座標変換係数算出部203は、デモザイク処理部301、歪曲補正処理部302、および射影変換係数算出部303を備えている。以下、図3に示す各構成が行うステップS505の具体的な処理について、図7のフローチャートを参照しながら説明する。
FIG. 3 is a block diagram illustrating a specific configuration example of the coordinate conversion coefficient calculation unit 203 of FIG.
In FIG. 3, the coordinate conversion coefficient calculation unit 203 includes a demosaic processing unit 301, a distortion correction processing unit 302, and a projective conversion coefficient calculation unit 303. Hereinafter, specific processing of step S505 performed by each configuration illustrated in FIG. 3 will be described with reference to the flowchart of FIG.
図7は、図5のステップS505において、座標変換係数算出部203による具体的な処理手順の一例を示すフローチャートである。
まず、ステップS701において、デモザイク処理部301は、現在処理対象となっているGのモザイク画像を取得する。そして、ステップS702において、ステップS701で取得したGのモザイク画像に対し、デモザイク処理を行う。デモザイク処理の方法は線形補間や適応補間など公知の方法を用いる。
FIG. 7 is a flowchart showing an example of a specific processing procedure by the coordinate conversion coefficient calculation unit 203 in step S505 of FIG.
First, in step S <b> 701, the demosaic processing unit 301 acquires a G mosaic image currently being processed. In step S702, a demosaic process is performed on the G mosaic image acquired in step S701. As the demosaicing method, a known method such as linear interpolation or adaptive interpolation is used.
次に、ステップS703において、歪曲補正処理部302は、ステップS702でデモザイク処理を行ったGの画像に対し、歪曲補正処理を行う。歪曲補正の方法は、レンズ情報を用いた画像変形による補正など、公知の方法を用いる。そして、ステップS704において、ステップS703で歪曲補正を行ったGの画像が1枚目の画像か否かを判定する。この判定の結果、1枚目の画像、つまり基準画像である場合はステップS709に進み、1枚目の画像でなく非基準画像である場合はステップS705に進む。 In step S703, the distortion correction processing unit 302 performs distortion correction processing on the G image that has been demosaiced in step S702. As a distortion correction method, a known method such as correction by image deformation using lens information is used. In step S704, it is determined whether or not the G image subjected to distortion correction in step S703 is the first image. As a result of this determination, if the image is the first image, that is, the reference image, the process proceeds to step S709. If the image is not the first image but the non-reference image, the process proceeds to step S705.
ステップS709においては、射影変換係数算出部303は、ステップS703で歪曲補正を行ったGの画像を1枚目の位置合わせ用G画像としてメモリ部204に保存する。一方、ステップS705においては、射影変換係数算出部303は、ステップS703で歪曲補正を行ったGの画像を位置合わせ用G画像とし、前記位置合わせ用G画像とは別に1枚目の位置合わせ用G画像をメモリ部204から取得する。 In step S709, the projective transformation coefficient calculation unit 303 stores the G image subjected to distortion correction in step S703 in the memory unit 204 as the first alignment G image. On the other hand, in step S705, the projective transformation coefficient calculation unit 303 sets the G image subjected to distortion correction in step S703 as a G image for alignment, and separates the first alignment image from the G image for alignment. A G image is acquired from the memory unit 204.
次に、ステップS706において、射影変換係数算出部303は、ステップS705で揃えた2枚の位置合わせ用G画像を用いて画像間の位置ずれ量を検出する。このとき、1枚目の位置合わせ用G画像に対応する処理対象の位置合わせ用G画像の位置ずれ量を複数個所で検出する。位置ずれ量の検出方法については、パターンマッチングを用いた方法など公知の方法を用いる。そして、ステップS707において、射影変換係数算出部303は、ステップS706で検出した位置ずれ量から座標変換係数を算出する。本実施形態では、以下の式(1)に示す射影変換式の係数a0〜a7を座標変換係数として算出する。座標変換係数の算出方法については、最小二乗法などを用いた公知の方法を用いる。 Next, in step S706, the projective transformation coefficient calculation unit 303 detects the amount of misalignment between the images using the two alignment G images aligned in step S705. At this time, the amount of positional deviation of the alignment G image to be processed corresponding to the first alignment G image is detected at a plurality of locations. A known method such as a method using pattern matching is used as a method for detecting the amount of displacement. In step S707, the projection conversion coefficient calculation unit 303 calculates a coordinate conversion coefficient from the amount of positional deviation detected in step S706. In this embodiment, the coefficients a 0 to a 7 of the projective transformation equation shown in the following equation (1) are calculated as coordinate transformation factors. As a method for calculating the coordinate conversion coefficient, a known method using a least square method or the like is used.
次に、ステップS708において、ステップS707で算出した座標変換係数をメモリ部204に保存する。前記座標変換係数は後の超解像処理部205で使用する。 Next, in step S708, the coordinate conversion coefficient calculated in step S707 is stored in the memory unit 204. The coordinate conversion coefficient is used in the super-resolution processing unit 205 later.
図5の説明に戻り、次にステップS506において、超解像処理部205は、低解像度画像を用いて高解像度画像を作成する。この処理では、k倍の高解像度画像を生成するために、低解像度画像の対象となる画素が高解像度画像のどこの座標に対応しているか座標変換を行い、画素値を高解像度画像に挿入する処理を行う。本実施形態では、Gについては歪曲補正、画像間の位置合わせの座標変換を一度に行い、R,Bについては倍率色収差補正、歪曲補正、画像間の位置合わせの座標変換を一度に行う。 Returning to the description of FIG. 5, in step S506, the super-resolution processing unit 205 creates a high-resolution image using the low-resolution image. In this process, in order to generate a k-times high-resolution image, coordinate conversion is performed on which coordinates of the target pixel of the low-resolution image correspond to the high-resolution image, and the pixel value is inserted into the high-resolution image. Perform the process. In the present embodiment, for G, distortion correction and coordinate conversion for alignment between images are performed at once, and for R and B, magnification chromatic aberration correction, distortion correction, and coordinate conversion for alignment between images are performed at once.
図4は、図2の超解像処理部205の具体的な構成例を示すブロック図である。
図4においては、超解像処理部205は、倍率色収差座標補正部401、歪曲座標補正部402、位置合わせ用座標変換部403、画素挿入処理部404、および欠落補間処理部405を備えている。以下、図4に示す各構成が行うステップS506の具体的な処理について、図8のフローチャートを参照しながら説明する。
FIG. 4 is a block diagram illustrating a specific configuration example of the super-resolution processing unit 205 in FIG.
In FIG. 4, the super-resolution processing unit 205 includes a magnification chromatic aberration coordinate correction unit 401, a distortion coordinate correction unit 402, an alignment coordinate conversion unit 403, a pixel insertion processing unit 404, and a missing interpolation processing unit 405. . Hereinafter, specific processing of step S506 performed by each configuration illustrated in FIG. 4 will be described with reference to the flowchart of FIG.
図8は、図5のステップS506において、超解像処理部205による具体的な処理手順の一例を示すフローチャートである。
まず、ステップS801において、超解像処理部205は、座標毎に超解像処理を行うために、R,G,Bそれぞれ3枚のモザイク画像の座標R(x,y)、G(x,y)、B(x,y)を全て(0,0)に初期化する。
FIG. 8 is a flowchart illustrating an example of a specific processing procedure performed by the super-resolution processing unit 205 in step S506 of FIG.
First, in step S801, the super-resolution processing unit 205 performs coordinates R (x, y), G (x, X, R, G, B) in order to perform super-resolution processing for each coordinate. y) and B (x, y) are all initialized to (0, 0).
続いてステップS802において、倍率色収差座標補正部401は、座標R(x,y)、B(x,y)に対し、倍率色収差補正による座標補正を行う。本実施形態では、レンズ情報に基づいて座標補正を行う。ここでレンズ情報とは、光軸中心からの像高に基づいたGに対するRおよびBのずれ量に関する情報であり、倍率色収差補正によってRおよびBのみ座標補正を行うためにシステム制御部105が保持している情報である。以下、倍率色収差補正による座標補正後のRおよびBの座標をそれぞれR(xr,yr)、B(xb,yb)とする。 Subsequently, in step S802, the magnification chromatic aberration coordinate correction unit 401 performs coordinate correction by magnification chromatic aberration correction on the coordinates R (x, y) and B (x, y). In this embodiment, coordinate correction is performed based on lens information. Here, the lens information is information regarding the shift amount of R and B with respect to G based on the image height from the center of the optical axis, and is held by the system control unit 105 in order to correct only R and B by magnification chromatic aberration correction. Information. Hereinafter, the coordinates of R and B after the coordinate correction by the lateral chromatic aberration correction are R (x r , y r ) and B (x b , y b ), respectively.
次に、ステップS803において、歪曲座標補正部402は、座標R(xr,yr)、G(x,y)、B(xb,yb)に対し、歪曲収差補正による座標補正を行う。本実施形態では、前記座標補正は、ステップS802と同様にレンズ情報に基づいて行われる。ここで用いるレンズ情報は、光軸中心からの像高に基づいた各画素のずれ量に関する情報であり、歪曲収差補正によりR,G,B全ての座標補正を行うために用いられる。以下、歪曲収差補正により座標補正後のR,G,Bの座標をそれぞれR(xrd,yrd)、G(xd,yd)、B(xbd,ybd)とする。 Next, in step S803, the distortion coordinate correction unit 402 performs coordinate correction by distortion aberration correction on the coordinates R (x r , y r ), G (x, y), and B (x b , y b ). . In the present embodiment, the coordinate correction is performed based on lens information as in step S802. The lens information used here is information relating to the shift amount of each pixel based on the image height from the center of the optical axis, and is used to correct all the R, G, and B coordinates by correcting distortion. Hereinafter, the coordinates of R, G, and B after the coordinate correction by distortion aberration correction are R (x rd , y rd ), G (x d , y d ), and B (x bd , y bd ), respectively.
次に、ステップS804において、現在処理している画像が1枚目の画像(基準画像)であるか非基準画像であるかを判定する。この判定の結果、基準画像である場合はステップS805に進み、非基準画像である場合はステップS806に進む。 In step S804, it is determined whether the currently processed image is the first image (reference image) or a non-reference image. If it is determined that the image is a reference image, the process proceeds to step S805. If the image is a non-reference image, the process proceeds to step S806.
ステップS805においては、位置合わせ用座標変換部403は、基準画像に対して座標拡大処理を行う。具体的には、座標R(xrd,yrd)、G(xd,yd)、B(xbd,ybd)に対し、以下の式(2)を用いてx成分、y成分の座標をk倍に拡大する。
R(xrd,yrd)・k=R(xrd・k,yrd・k)
G(xd,yd)・k=G(xd・k,yd・k) ・・・(2)
B(xbd,ybd)・k=B(xbd・k,ybd・k)
In step S805, the alignment coordinate conversion unit 403 performs coordinate enlargement processing on the reference image. Specifically, for the coordinates R (x rd , y rd ), G (x d , y d ), and B (x bd , y bd ), the x component and y component are expressed using the following equation (2). Enlarge the coordinates by k times.
R (x rd , y rd ) · k = R (x rd · k, y rd · k)
G (x d , y d ) · k = G (x d · k, y d · k) (2)
B (x bd , y bd ) · k = B (x bd · k, y bd · k)
ここで、kは高解像度画像を生成するパラメータを表し、本実施形態では低解像度画像を水平方向にk倍、垂直方向にk倍だけ画素数を拡大した高解像度画像を生成する。以下、座標拡大後のR,G,Bの座標をそれぞれR(x´,y´)、G(x´,y´)、B(x´,y´)とする。 Here, k represents a parameter for generating a high-resolution image. In the present embodiment, a high-resolution image is generated by expanding the number of pixels by a factor of k in the horizontal direction and k times in the vertical direction. Hereinafter, the coordinates of R, G, and B after the coordinate enlargement are R (x ′, y ′), G (x ′, y ′), and B (x ′, y ′), respectively.
一方、ステップS806においては、位置合わせ用座標変換部403は、図7のステップS707で座標変換係数算出部203が算出した位置合わせ用の座標変換係数a0〜a7をメモリ部204から取得し、非基準画像に対して座標変換処理を行う。本実施形態では座標変換処理で射影変換式を用いるが、水平方向にk倍、垂直方向にk倍画素数を拡大した高解像度画像を生成するので、対応点はk倍に座標を拡大しなければならない。したがって、射影変換式は以下の式(3)に示すものを用いる。 On the other hand, in step S806, the alignment coordinate conversion unit 403 acquires the coordinate conversion coefficients a 0 to a 7 for alignment calculated by the coordinate conversion coefficient calculation unit 203 in step S707 of FIG. 7 from the memory unit 204. The coordinate conversion process is performed on the non-reference image. In this embodiment, the projective transformation formula is used in the coordinate transformation process. However, since the high-resolution image is generated by expanding the number of pixels by k times in the horizontal direction and k times in the vertical direction, the corresponding points must be enlarged by k times. I must. Therefore, the projective transformation formula shown in the following formula (3) is used.
ここで入力される座標(x,y)は、ステップS803で出力した座標R(xrd,yrd)、G(xd,yd)、B(xbd,ybd)である。また、座標変換後のR,G,Bの座標をそれぞれR(x´,y´)、G(x´,y´)、B(x´,y´)とする。 The coordinates (x, y) input here are the coordinates R (x rd , y rd ), G (x d , y d ), and B (x bd , y bd ) output in step S803. In addition, the coordinates of R, G, and B after the coordinate conversion are R (x ′, y ′), G (x ′, y ′), and B (x ′, y ′), respectively.
次に、ステップS807において、画素挿入処理部404は、座標補正、座標変換処理前の座標R(x,y)、G(x,y)、B(x,y)にそれぞれ対応するR,G,Bのモザイク画像の画素値Rpix、Gpix、Bpixをメモリ部204から取得する。そして、ステップS808において、画素挿入処理部404は、R,G,Bの座標R(x´,y´)、G(x´,y´)、B(x´,y´)と画素値Rpix、Gpix、Bpixとを用いてR,G,B毎に画素挿入処理を行う。 Next, in step S807, the pixel insertion processing unit 404 performs R, G corresponding to coordinates R (x, y), G (x, y), and B (x, y) before coordinate correction and coordinate conversion processing, respectively. , B pixel values R pix , G pix , B pix of the mosaic image are acquired from the memory unit 204. In step S808, the pixel insertion processing unit 404 determines the coordinates R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) of R, G, and B and the pixel value R. Pixel insertion processing is performed for each of R, G, and B using pix , G pix , and B pix .
以下、画素挿入処理について図9を参照しながら説明する。図9は、R画像における画素挿入処理を説明するための図である。
まず、図9(a)に示す超解像画像に対して、水平画素数W、垂直画素数Hの低解像画像を複数枚用いて画素挿入処理を行い、水平方向および垂直方向へ例えば2倍に画素数を拡大した高解像度画像を生成する。ここで、超解像画像は、水平画素数2W、垂直画素数2Hの画像であり、高解像度画像を生成するための土台となる画像である。図9(a)に示す超解像画像は全ての画素値に欠落画素であることを示す0の値が入っている。
Hereinafter, the pixel insertion process will be described with reference to FIG. FIG. 9 is a diagram for explaining pixel insertion processing in an R image.
First, with respect to the super-resolution image shown in FIG. 9A, pixel insertion processing is performed using a plurality of low-resolution images having the number of horizontal pixels W and the number of vertical pixels H, for example, 2 in the horizontal direction and the vertical direction. A high-resolution image in which the number of pixels is doubled is generated. Here, the super-resolution image is an image having a horizontal pixel number of 2 W and a vertical pixel number of 2 H, and is a base image for generating a high-resolution image. In the super-resolution image shown in FIG. 9A, all pixel values include a value of 0 indicating that the pixel is a missing pixel.
画素挿入処理とは、図9に示すように、低解像度画像の非欠落画素901の値を超解像画像の欠落画素902に挿入する処理のことを指す。画素挿入処理を複数枚の低解像度画像を用いて行うことにより図9(b)に示す高解像度画像を生成することができる。本実施形態の画素挿入処理では、1枚目の基準画像から超解像画像を生成し、2枚目以降の非基準画像により前記超解像画像の欠落画素を非欠落画素に置き換える処理を行う。
The pixel insertion process refers to a process of inserting the value of the
次に、ステップS808の画素挿入処理の詳細について、図10のフローチャートを参照しながら説明する。図10は、図8のステップS808において、画素挿入処理部404による具体的な処理手順の一例を示すフローチャートである。以下、Rの画素挿入処理について説明するが、G,Bについても処理は同様であるため、説明は省略する。
まず、ステップS1001において、座標R(x´,y´)に最も近い整数の座標である参照座標R0(x0,y0)を算出する。具体的には、以下の式(4)により参照座標を算出する。
Next, details of the pixel insertion processing in step S808 will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart illustrating an example of a specific processing procedure performed by the pixel insertion processing unit 404 in step S808 of FIG. Hereinafter, the R pixel insertion process will be described, but the process is the same for G and B, and the description thereof will be omitted.
First, in step S1001, reference coordinates R 0 (x 0 , y 0 ), which are integer coordinates closest to the coordinates R (x ′, y ′), are calculated. Specifically, the reference coordinates are calculated by the following equation (4).
次に、ステップS1002において、画素値Rpixの値が0以外の値であるか否かを判定する。この判定の結果、画素値Rpixの値が0でない場合は、画素値Rpixは非欠落画素であるため、ステップS1003に進む。一方、画素値Rpixの値が0である場合は、画素値Rpixは欠落画素であるため、ステップS1004に進む。 Next, in step S1002, it is determined whether or not the pixel value R pix is a value other than zero. If it is determined that the value of the pixel values R pix is not zero, since the pixel value R pix is non-missing pixel, the process proceeds to step S1003. On the other hand, when the value of the pixel value R pix is 0, the pixel value R pix is a missing pixel, and thus the process proceeds to step S1004.
ステップS1003においては、座標R(x´,y´)と参照座標R0(x0,y0)との間の距離d(R)を算出する。この処理で算出される距離d(R)は、後のステップS1008およびS1010の判定で用いられる。 In step S1003, a distance d (R) between the coordinate R (x ′, y ′) and the reference coordinate R 0 (x 0 , y 0 ) is calculated. The distance d (R) calculated in this process is used in subsequent determinations in steps S1008 and S1010.
ここで、図11を参照しながら距離d(R)について説明する。図11は、超解像画像Rに対する座標R(x´,y´)および参照座標R0(x0,y0)の位置を示す図である。座標R(x´,y´)の最近傍にある参照座標R0(x0,y0)は、超解像画像Rの画素の中心を示す座標であり、参照座標R0(x0,y0)に対し、座標R(x´,y´)がどれだけ近いか評価する指標として距離d(R)を算出する。そして、後述するが距離d(R)の値を用いて画素を挿入するかしないかを判定する。また、距離d(R)は、以下の式(5)により算出される。 Here, the distance d (R) will be described with reference to FIG. FIG. 11 is a diagram illustrating the positions of the coordinates R (x ′, y ′) and the reference coordinates R 0 (x 0 , y 0 ) with respect to the super-resolution image R. The reference coordinate R 0 (x 0 , y 0 ) that is closest to the coordinate R (x ′, y ′) is a coordinate that indicates the center of the pixel of the super-resolution image R, and the reference coordinate R 0 (x 0 , A distance d (R) is calculated as an index for evaluating how close the coordinates R (x ′, y ′) are to y 0 ). Then, as will be described later, it is determined whether or not to insert a pixel using the value of the distance d (R). The distance d (R) is calculated by the following equation (5).
一方、ステップS1004においては、画素値Rpixが0であることから欠落画素と判断されるため、例外処理として距離d(R)に表現できる最大の値を入力する。例えば8ビットまでしか距離d(R)が表現できない場合は値として255を入力する。 On the other hand, in step S1004, since the pixel value R pix is 0, it is determined that the pixel is a missing pixel. Therefore, the maximum value that can be expressed in the distance d (R) is input as an exception process. For example, when the distance d (R) can be expressed only up to 8 bits, 255 is input as a value.
次に、ステップS1005において、現在処理の対象としている画像が2枚目以降の非基準画像であるか、1枚目の基準画像であるかを判定する。この判定の結果、2枚目以降の非基準画像である場合はステップS1008に進み、1枚目の基準画像である場合はステップS1006に進む。 Next, in step S1005, it is determined whether the image currently being processed is the second or later non-reference image or the first reference image. As a result of this determination, if it is the second or subsequent non-reference image, the process proceeds to step S1008. If it is the first reference image, the process proceeds to step S1006.
ステップS1006においては、距離d(R)を参照座標R0(x0,y0)の距離d0(R)としてメモリ部204に保存する。ここで距離d0(R)は、2枚目以降の非基準画像で算出された距離d(R)の値との比較に用い、距離d(R)の値に応じて、随時距離d0(R)の値を更新する。そして、ステップS1007において、画素値Rpixを参照座標R0(x0,y0)の画素値Rpix0としてメモリ部204に保存する。まず、1枚目である基準画像のみにより画素値Rpix0を用いて超解像画像Rを新規に作成し、後述するステップS1012による2枚目以降の画素挿入処理によって超解像画像Rを更新していく。 In step S1006, the distance d (R) is stored in the memory unit 204 as the distance d 0 (R) of the reference coordinates R 0 (x 0 , y 0 ). Here, the distance d 0 (R) is used for comparison with the value of the distance d (R) calculated in the second and subsequent non-reference images, and the distance d 0 is determined as needed depending on the value of the distance d (R). Update the value of (R). In step S1007, the pixel value R pix is stored in the memory unit 204 as the pixel value R pix0 of the reference coordinate R 0 (x 0 , y 0 ). First, a super-resolution image R is newly created using only the first reference image using the pixel value R pix0 , and the super-resolution image R is updated by the second and subsequent pixel insertion processes in step S1012 described later. I will do it.
一方、ステップS1008においては、距離d(R)が、予め設定された閾値TH(R)未満であるか否かを判定する。この判定の結果、距離d(R)が閾値TH(R)未満である場合はステップS1009に進み、閾値TH(R)以上である場合は、現在処理の対象としている座標(x、y)の画素挿入処理を終了する。 On the other hand, in step S1008, it is determined whether the distance d (R) is less than a preset threshold value T H (R). The result of this determination, the distance d when (R) is less than the threshold T H (R) the process proceeds to step S1009, the threshold T H (R) it can be advantageously utilized, the coordinates that are currently targeted for processing (x, y ) Ends the pixel insertion process.
ステップS1009においては、参照座標R0(x0,y0)の距離として保存されている距離d0(R)をメモリ部204から読み出す。そして、ステップS1010において、距離d(R)の値が距離d0(R)よりも小さいか否かを判定する。この判定の結果、距離d0(R)よりも小さい場合はステップS1011に進み、距離d0(R)以上である場合は、現在処理の対象としている座標(x,y)の画素挿入処理を終了する。 In step S1009, the distance d 0 (R) stored as the distance of the reference coordinates R 0 (x 0 , y 0 ) is read from the memory unit 204. In step S1010, it is determined whether or not the value of the distance d (R) is smaller than the distance d 0 (R). As a result of the determination, if the distance d 0 (R) is smaller than the flow proceeds to step S1011, the distance d 0 when (R) or in which the coordinates are the object of the current process (x, y) the pixel insertion process finish.
ステップS1011においては、距離d0(R)の値を距離d(R)に更新してメモリ部204に保存する。そして、ステップS1012において、ステップS1011と同様に、距離d(R)に対応する画素値Rpixを画素値Rpix0として更新して、メモリ部204に保存する。メモリ部204に保存後、現在処理している座標(x,y)の画素挿入処理を終了する。 In step S1011, the value of the distance d 0 (R) is updated to the distance d (R) and stored in the memory unit 204. In step S1012, the pixel value R pix corresponding to the distance d (R) is updated as the pixel value R pix0 and stored in the memory unit 204, as in step S1011. After saving in the memory unit 204, the pixel insertion processing for the currently processed coordinates (x, y) is terminated.
図8の説明に戻り、ステップS809においては、現在処理の対象としている画像の全ての座標に対してステップS802からステップS808までの処理を行ったか否かを判定する。この判定の結果、全ての座標に対して処理を行ってない場合はステップS810に進み、全ての座標に対し処理を行っている場合はステップS811に進む。ステップS810においては、現在処理していた座標R(x,y)、G(x,y)、B(x,y)を次の座標に更新してステップS802に戻る。 Returning to the description of FIG. 8, in step S809, it is determined whether or not the processing from step S802 to step S808 has been performed on all coordinates of the image currently being processed. As a result of the determination, if all the coordinates are not processed, the process proceeds to step S810, and if all the coordinates are processed, the process proceeds to step S811. In step S810, the coordinates R (x, y), G (x, y), and B (x, y) currently processed are updated to the next coordinates, and the process returns to step S802.
一方、ステップS811においては、現在処理の対象としていた画像が最後のN枚目の画像か否かを判定する。この判定の結果、最後のN枚目の画像である場合はステップS812に進み、最後のN枚目の画像でない場合はステップS813に進む。 On the other hand, in step S811, it is determined whether or not the image currently being processed is the last Nth image. As a result of this determination, if it is the last Nth image, the process proceeds to step S812, and if it is not the last Nth image, the process proceeds to step S813.
ステップS812においては、欠落補間処理部405は、超解像画像R,G,Bの欠落補間処理を行う。欠落補間処理は、R,G,Bの超解像画像の中で未だに欠落画素であり値が0である画素に対し、周辺の非欠落画素から線形補間を行った画素値に置き換える処理である。ステップS812の処理後、R,G,Bの超解像画像の画素は全て非欠落画素で構成されることになる。本実施形態では欠落補間処理に線形補間を利用しているが、エッジの方向を加味した適応補間を利用してもよい。 In step S812, the missing interpolation processing unit 405 performs missing interpolation processing for the super-resolution images R, G, and B. The missing interpolation process is a process of replacing pixels that are still missing pixels and have a value of 0 in R, G, and B super-resolution images with pixel values that have undergone linear interpolation from surrounding non-missing pixels. . After the processing in step S812, all the pixels of the R, G, B super-resolution image are composed of non-missing pixels. In this embodiment, linear interpolation is used for the missing interpolation processing, but adaptive interpolation that considers the direction of the edge may be used.
また、欠落補間処理を行う前に、画像を占める欠落画素の割合を算出して、処理の制御を行ってもよい。図12は、入力された低解像度画像に対し水平方向、垂直方向共にk倍に画素数を拡大した超解像画像の一例を示す図である。図12において、白色で示した画素が非欠落画素であり、灰色部分が欠落画素である。図12に示すように、非欠落画素が超解像画像の全画素数に対して50%以上存在しないと、超解像の効果がエッジの方向を加味した適応補間が欠落画素に対して正確に処理できなくなり、超解像の効果が小さくなってしまう。そこで、以下の式(6)に示す割合を算出する。 In addition, before performing the missing interpolation process, the ratio of the missing pixels occupying the image may be calculated to control the process. FIG. 12 is a diagram illustrating an example of a super-resolution image in which the number of pixels is expanded k times in both the horizontal direction and the vertical direction with respect to the input low-resolution image. In FIG. 12, pixels shown in white are non-missing pixels, and gray portions are missing pixels. As shown in FIG. 12, if there are no non-missing pixels of 50% or more with respect to the total number of pixels of the super-resolution image, the super-resolution effect is accurately applied to the missing pixels with the edge direction taken into account. Therefore, the super-resolution effect is reduced. Therefore, the ratio shown in the following formula (6) is calculated.
ここで、W,Hは、それぞれ入力された低解像度画像の水平画素数、垂直画素数を表す。また、kは前記低解像度画像に対する超解像度画像の拡大率を表す。超解像画像R,G,B全てに対してこの割合を算出し、前記割合が1つでも所定値(例えば50%)以上である場合には、エラーとして出力して超解像処理を中止するか、ステップS801まで戻ってk/2倍の高解像度画像を生成する処理を行ってもよい。エラーとして出力する場合は、1枚目の基準画像のR,G,Bを水平方向および垂直方向にk倍拡大した画像を出力してもよい。 Here, W and H represent the number of horizontal pixels and the number of vertical pixels of the input low-resolution image, respectively. K represents the magnification of the super-resolution image with respect to the low-resolution image. This ratio is calculated for all of the super-resolution images R, G, and B. If even one of the ratios is a predetermined value (for example, 50%) or more, it is output as an error and the super-resolution processing is stopped. Or you may return to step S801 and perform the process which produces | generates a k / 2 times high resolution image. When outputting as an error, an image obtained by enlarging R, G, B of the first reference image k times in the horizontal direction and the vertical direction may be output.
ステップS813においては、R,G,Bの超解像画像をメモリ部204に保存して超解像処理を終了する。 In step S813, the R, G, and B super-resolution images are stored in the memory unit 204, and the super-resolution processing ends.
図5の説明に戻り、ステップS507においては、現在処理の対象としている画像がN枚目である最後の画像であるか否かを判定する。この判定の結果、現在処理の対象としている画像が最後の画像である場合はステップS509に進み、最後の画像でない場合はステップS508に進む。そしてステップS508においては、次の画像に更新し、ステップS504に戻る。 Returning to the description of FIG. 5, in step S <b> 507, it is determined whether or not the current image to be processed is the Nth last image. As a result of this determination, if the image currently being processed is the last image, the process proceeds to step S509. If not, the process proceeds to step S508. In step S508, the image is updated to the next image, and the process returns to step S504.
一方、ステップS509においては、YUV変換部206は、作成した超解像画像R,G,Bをメモリ部204から読み出し、高解像度のYUV画像を作成する。RGB信号からYUV信号へ変換する際には、公知の手法により以下の式(7)に従って変換する。そして、高解像度のYUV画像を出力信号として超解像処理を終了する。
Y=0.299R+0.587G+0.114B
U=−0.169R−0.331G+0.500B ・・・(7)
V=0.500R−0.419G−0.081B
On the other hand, in step S509, the YUV conversion unit 206 reads the created super-resolution images R, G, and B from the memory unit 204, and creates a high-resolution YUV image. When converting from an RGB signal to a YUV signal, conversion is performed according to the following equation (7) by a known method. Then, the super-resolution processing is terminated using the high-resolution YUV image as an output signal.
Y = 0.299R + 0.587G + 0.114B
U = −0.169R−0.331G + 0.500B (7)
V = 0.500R-0.419G-0.081B
以上のように本実施形態によれば、光学特性に係る倍率色収差補正および歪曲収差補正を座標に対してのみ行い、位置合わせをした後に、これらの補正前の低解像度画像の画素値を高解像度画像に挿入するようにした。これにより、低解像度画像の周波数帯域を落とすことなく、倍率色収差および歪曲収差を補正した高解像度画像を生成することができる。 As described above, according to the present embodiment, the lateral chromatic aberration correction and distortion correction related to the optical characteristics are performed only on the coordinates, and after alignment, the pixel values of the low-resolution image before these corrections are converted to the high resolution. Added to the image. As a result, it is possible to generate a high-resolution image in which the lateral chromatic aberration and distortion are corrected without reducing the frequency band of the low-resolution image.
(第2の実施形態)
次に、本発明の第2の実施形態について図面を参照しながら説明する。本実施形態においても、座標変換係数の算出方法が異なるが、ベイヤー配列の低解像度画像を複数枚用いて、水平方向、垂直方向それぞれk倍に画素数を拡大した高解像度画像を生成し、高解像度化を実現する。なお、第1の実施形態の構成との差異は、図2の座標変換係数算出部203内の構成のみであり、その他の構成については第1の実施形態と同様である。また、全体的な処理手順は図5と同様である。以下、第1の実施形態と異なる点についてのみ説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to the drawings. Also in this embodiment, the calculation method of the coordinate conversion coefficient is different, but using a plurality of Bayer array low-resolution images, a high-resolution image in which the number of pixels is expanded k times in each of the horizontal direction and the vertical direction is generated. Realize resolution. Note that the difference from the configuration of the first embodiment is only the configuration in the coordinate conversion coefficient calculation unit 203 of FIG. 2, and the other configurations are the same as those of the first embodiment. The overall processing procedure is the same as in FIG. Only differences from the first embodiment will be described below.
図13は、本実施形態に係る座標変換係数算出部203の具体的な構成例を示すブロック図である。
図13にいて、座標変換係数算出部203は、間引き処理部1301、歪曲補正処理部1302、および射影変換係数算出部1303を備えている。以下、図13に示す各構成が行うステップS505の具体的な処理について、図14のフローチャートを参照しながら説明する。
FIG. 13 is a block diagram illustrating a specific configuration example of the coordinate conversion coefficient calculation unit 203 according to the present embodiment.
In FIG. 13, the coordinate conversion coefficient calculation unit 203 includes a thinning processing unit 1301, a distortion
第1の実施形態では、Gのモザイク画像からデモザイク処理を行った画像に対し、歪曲補正を行い、位置合わせ用のG画像を作成した後、前記G画像を用いることにより、画像間の位置合わせを行うための座標変換係数を算出していた。これに対して本実施形態では、メモリ、処理時間を念頭に置き、デモザイク処理を行ったG画像よりも解像度の低いG画像を用いることにより、画像間の位置合わせを行うための座標変換係数を算出する。 In the first embodiment, distortion correction is performed on an image that has been demosaiced from a G mosaic image, a G image for alignment is created, and then the G image is used to align the images. The coordinate conversion coefficient for performing the calculation was calculated. On the other hand, in the present embodiment, with the memory and processing time in mind, a coordinate conversion coefficient for performing alignment between images is obtained by using a G image having a resolution lower than that of the G image subjected to demosaic processing. calculate.
図14は、図5のステップS505において、座標変換係数算出部203による具体的な処理手順の一例を示すフローチャートである。
まず、ステップS1401において、間引き処理部1301は、処理の対象となるGのモザイク画像をメモリ部204から取得する。そして、ステップS1402において、ステップS1401で取得したGのモザイク画像に対し、1/2の間引き処理を行う。
FIG. 14 is a flowchart illustrating an example of a specific processing procedure by the coordinate conversion coefficient calculation unit 203 in step S505 of FIG.
First, in step S <b> 1401, the thinning processing unit 1301 acquires a G mosaic image to be processed from the memory unit 204. In step S1402, 1/2 thinning processing is performed on the G mosaic image acquired in step S1401.
ここで、図15を参照しながら、1/2の間引き処理について説明する。図15(a)は、ステップS1401で取得した水平画素数W、垂直画素数HのGのモザイク画像の一例を示す図である。図15(a)に示すように、G1、G2と記載された画素がG画素である。このモザイク画像に対し、太線で囲まれたG1の画素のみ取得することにより、図15(b)に示すように、水平画素数W/2、垂直画素数H/2に縮小された間引き画像が生成される。なお、G1の位置の画素を取得して間引き画像を生成してもよく、G2の位置の画素を取得して間引き画像を生成してもよい。 Here, the half-thinning process will be described with reference to FIG. FIG. 15A is a diagram illustrating an example of a G mosaic image having the number of horizontal pixels W and the number of vertical pixels H acquired in step S1401. As shown in FIG. 15A, the pixels described as G1 and G2 are G pixels. By acquiring only G1 pixels surrounded by a thick line from this mosaic image, as shown in FIG. 15B, a thinned image reduced to a horizontal pixel number W / 2 and a vertical pixel number H / 2 is obtained. Generated. Note that the pixel at the position G1 may be acquired to generate a thinned image, or the pixel at the position G2 may be acquired to generate a thinned image.
次に、ステップS1403において、歪曲補正処理部1302は、ステップS1402で間引き処理を行ったGの画像に対し、歪曲補正処理を行う。歪曲補正の方法は、レンズ情報を用いた画像変形による補正など、公知の方法でよいが、水平画素数、垂直画素数共に1/2になっていることとステップS1401で取得したモザイク画像の画素位置を考慮しながら補正を行う。次のステップS1404およびS1405の処理は、それぞれ図7のステップS704およびS705の処理と同様である。
Next, in step S1403, the distortion
次のステップS1406においては、射影変換係数算出部1303は、ステップS1405で揃えた2枚の位置合わせ用G画像を用いて画像間の位置ずれ量を検出する。このとき、図7のステップS706と同様に1枚目の位置合わせ用G画像に対応する処理対象の位置合わせ用G画像の位置ずれ量を複数個所で検出する。位置ずれ量検出の方法は、SAD値によるパターンマッチングを行った後に、等角直線フィッティング、またはパラボラフィッティングを用いて、位置ずれ量を小数精度まで検出する。なお、上記の方法は例えば特許文献2等に開示されている。
In the next step S1406, the projective transformation coefficient calculation unit 1303 detects the amount of misalignment between the images using the two alignment G images aligned in step S1405. At this time, as in step S706 in FIG. 7, the amount of positional deviation of the alignment G image to be processed corresponding to the first alignment G image is detected at a plurality of locations. In the method of detecting the amount of misalignment, after performing pattern matching based on the SAD value, the amount of misalignment is detected to a decimal accuracy using equiangular straight line fitting or parabolic fitting. In addition, said method is disclosed by
次に、ステップS1407において、射影変換係数算出部1303は、ステップS1406で検出した位置ずれ量を等倍の解像度まで動きベクトルの拡大を行う。本実施形態では、1/2に間引いた位置合わせ用G画像を用いているので、動きベクトルのx成分、y成分を2倍に拡大する。そして、ステップS1408において、射影変換係数算出部1303は、ステップS1407で拡大した複数の動きベクトルを用いて位置合わせ用の座標変換係数を算出する。座標変換係数の算出方法については、図7のステップS707と同様である。なお、ステップS1409およびS1410の処理については、それぞれ図7のステップS708およびS709と同様である。 Next, in step S1407, the projective transformation coefficient calculation unit 1303 expands the motion vector to the resolution equal to the positional deviation amount detected in step S1406. In this embodiment, since the alignment G image thinned out to ½ is used, the x and y components of the motion vector are doubled. In step S1408, the projective transformation coefficient calculation unit 1303 calculates a coordinate transformation coefficient for alignment using the plurality of motion vectors expanded in step S1407. The calculation method of the coordinate conversion coefficient is the same as that in step S707 in FIG. Note that the processes in steps S1409 and S1410 are the same as steps S708 and S709 in FIG. 7, respectively.
以上のように本実施形態によれば、1/2の間引き処理を行って位置合わせ用G画像を生成した場合であっても、低解像度画像の周波数帯域を落とすことなく、倍率色収差および歪曲収差を補正した高解像度画像を生成することができる。 As described above, according to the present embodiment, even when the G image for alignment is generated by performing the half-thinning process, the chromatic aberration of magnification and distortion are not reduced without reducing the frequency band of the low-resolution image. Can be generated.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
401 倍率色収差座標補正部
402 歪曲座標補正部
403 位置合わせ用座標変換部
404 画像挿入処理部
401 Chromatic Aberration Coordinate Correction Unit 402 Distorted Coordinate Correction Unit 403 Position Coordinate Conversion Unit 404 Image Insertion Processing Unit
Claims (7)
前記低解像度画像のそれぞれの座標に対し、各色成分の光学特性に基づく座標変換を行う座標変換手段と、
前記複数の低解像度画像の間の位置ずれ量を検出する検出手段と、
前記検出手段により検出された位置ずれ量に従って、前記座標変換手段により座標変換された低解像度画像の位置合わせを行う位置合わせ手段と、
前記位置合わせ手段による位置合わせの結果に基づいて、前記低解像度画像の画素値を挿入することにより前記高解像度画像を生成する挿入手段とを備え、
前記検出手段は、前記低解像度画像を縮小した後に、前記座標変換手段による座標変換が行われた位置合わせ用の画像を生成する生成手段をさらに備え、
前記生成手段によって生成された位置合わせ用の画像を用いて位置ずれ量を検出することを特徴とする画像処理装置。 An image processing apparatus that generates a high-resolution image using a plurality of low-resolution images,
Coordinate conversion means for performing coordinate conversion based on the optical characteristics of each color component for each coordinate of the low resolution image,
Detecting means for detecting a displacement amount between the plurality of low-resolution images;
Alignment means for aligning the low-resolution image coordinate-transformed by the coordinate transformation means according to the amount of displacement detected by the detection means;
An insertion unit that generates the high-resolution image by inserting a pixel value of the low-resolution image based on a result of the alignment by the alignment unit ;
The detection means further includes a generation means for generating an image for alignment after coordinate conversion by the coordinate conversion means after reducing the low-resolution image,
An image processing apparatus for detecting a positional shift amount by using an alignment image generated by the generating means .
前記低解像度画像のそれぞれの座標に対し、各色成分の光学特性に基づく座標変換を行う座標変換工程と、
前記複数の低解像度画像の間の位置ずれ量を検出する検出工程と、
前記検出工程において検出された位置ずれ量に従って、前記座標変換工程において座標変換された低解像度画像の位置合わせを行う位置合わせ工程と、
前記位置合わせ工程における位置合わせの結果に基づいて、前記低解像度画像の画素値を挿入することにより前記高解像度画像を生成する挿入工程とを備え、
前記検出工程は、前記低解像度画像を縮小した後に、前記座標変換工程による座標変換が行われた位置合わせ用の画像を生成する生成工程をさらに備え、
前記生成工程において生成された位置合わせ用の画像を用いて位置ずれ量を検出することを特徴とする画像処理方法。 An image processing method for generating a high-resolution image using a plurality of low-resolution images,
A coordinate conversion step for performing coordinate conversion based on the optical characteristics of each color component for each coordinate of the low-resolution image;
A detection step of detecting a displacement amount between the plurality of low resolution images;
In accordance with the amount of displacement detected in the detection step, an alignment step for aligning the low resolution image coordinate-converted in the coordinate conversion step;
An insertion step of generating the high resolution image by inserting a pixel value of the low resolution image based on a result of the alignment in the alignment step ;
The detection step further includes a generation step of generating an image for alignment that has undergone coordinate transformation by the coordinate transformation step after reducing the low-resolution image,
An image processing method, comprising: detecting a positional deviation amount using an alignment image generated in the generation step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013097097A JP6274744B2 (en) | 2013-05-02 | 2013-05-02 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013097097A JP6274744B2 (en) | 2013-05-02 | 2013-05-02 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014219764A JP2014219764A (en) | 2014-11-20 |
JP6274744B2 true JP6274744B2 (en) | 2018-02-07 |
Family
ID=51938168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013097097A Expired - Fee Related JP6274744B2 (en) | 2013-05-02 | 2013-05-02 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6274744B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447602B (en) * | 2016-08-31 | 2020-04-03 | 浙江大华技术股份有限公司 | Image splicing method and device |
WO2018220681A1 (en) | 2017-05-29 | 2018-12-06 | オリンパス株式会社 | Image processing device, image processing method, and image processing program |
WO2021074944A1 (en) * | 2019-10-15 | 2021-04-22 | 株式会社日立ハイテク | Defect inspection method and defect inspection device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5523017B2 (en) * | 2009-08-20 | 2014-06-18 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2011205587A (en) * | 2010-03-26 | 2011-10-13 | Olympus Corp | Multiband stereo imaging apparatus |
JP5654867B2 (en) * | 2010-12-27 | 2015-01-14 | パナソニックIpマネジメント株式会社 | Video signal processing apparatus and video signal processing method |
JP2012185808A (en) * | 2011-02-17 | 2012-09-27 | Panasonic Corp | Image processing device, image processing method, computer program and imaging apparatus |
-
2013
- 2013-05-02 JP JP2013097097A patent/JP6274744B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014219764A (en) | 2014-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5438579B2 (en) | Image processing apparatus and control method thereof | |
JP5222472B2 (en) | Image processing apparatus, image restoration method, and program | |
JP4513906B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4657367B2 (en) | Image processing apparatus, imaging apparatus, and image distortion correction method | |
US8031232B2 (en) | Image pickup apparatus including a first image formation system and a second image formation system, method for capturing image, and method for designing image pickup apparatus | |
JP5006814B2 (en) | Imaging device | |
JP2005347813A (en) | Video conversion method and image converter, and multi-projection system | |
US11445109B2 (en) | Image processing device, image capturing device, image processing method, and storage medium | |
US8553097B2 (en) | Reducing blur based on a kernel estimation of an imaging device | |
JP6274744B2 (en) | Image processing apparatus and image processing method | |
JP2009157733A (en) | Image distortion correction method, image distortion correction device, and image forming apparatus | |
JP2015231052A (en) | Imaging device and method and program | |
JP2017045273A (en) | Image processing apparatus, image processing method, and program | |
JP2008003683A (en) | Image generation device and its method and recording medium | |
JP6648916B2 (en) | Imaging device | |
JP4998134B2 (en) | Image processing apparatus and image processing method | |
JP6415330B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2013126123A (en) | Image processing device, imaging apparatus, and image processing method | |
WO2015083502A1 (en) | Image processing device, method and program | |
CN112669355A (en) | Method and system for splicing and fusing focusing stack data based on RGB-D super-pixel segmentation | |
JP2020194400A (en) | Image processing apparatus, image processing method, and program | |
JP2006262382A (en) | Image processing apparatus | |
JP2018207254A (en) | Imaging apparatus, control method, program, and imaging system | |
JP5147577B2 (en) | Image processing apparatus and method | |
JP6091082B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6274744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |