JP2011147076A - Image processing apparatus, image capturing apparatus and program - Google Patents
Image processing apparatus, image capturing apparatus and program Download PDFInfo
- Publication number
- JP2011147076A JP2011147076A JP2010008251A JP2010008251A JP2011147076A JP 2011147076 A JP2011147076 A JP 2011147076A JP 2010008251 A JP2010008251 A JP 2010008251A JP 2010008251 A JP2010008251 A JP 2010008251A JP 2011147076 A JP2011147076 A JP 2011147076A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing apparatus
- captured image
- pixel
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置およびプログラムに関する。 The present invention relates to an image processing device, an imaging device, and a program.
従来から、画像の輝度値等から求まる被写体のコントラスト値を用いて、撮像装置で取得した画像の合焦評価を行う技術が公知である。 2. Description of the Related Art Conventionally, a technique for performing in-focus evaluation of an image acquired by an imaging device using a subject contrast value obtained from an image brightness value or the like is known.
一例として、特許文献1には、高輝度の点光源周りに生じる偽エッジの影響を抑制するために、輝度値を用いて画像内の飽和領域を抽出し、飽和領域以外でコントラスト値を求めて合焦判定を行う技術が開示されている。なお、特許文献1の例では、画像全体の輝度値から撮影シーンの分類を実行し、該分類結果に応じたモード(夜景モードや通常モード等)により合焦判定方法を変化させている。 As an example, in Patent Document 1, in order to suppress the influence of a false edge generated around a high-luminance point light source, a saturation region in an image is extracted using a luminance value, and a contrast value is obtained in a region other than the saturation region. A technique for performing in-focus determination is disclosed. In the example of Patent Document 1, the classification of the shooting scene is executed from the luminance value of the entire image, and the focus determination method is changed depending on the mode (night view mode, normal mode, etc.) according to the classification result.
ところで、上記の従来技術では、合焦判定全体での演算負荷が非常に大きくなり、精度の高い合焦判定を迅速に行うことが困難である点で改善の余地があった。 By the way, in the above-described conventional technology, there is room for improvement in that it is difficult to quickly perform highly accurate focus determination because the calculation load of the entire focus determination becomes very large.
そこで、本発明は、精度の高い合焦判定をより迅速に実行するための手段を提供することを目的とする。 Therefore, an object of the present invention is to provide means for more quickly executing a focus determination with high accuracy.
一の態様の画像処理装置は、カラーの撮影画像を取得する画像取得部と、第1特徴量取得部と、領域設定部と、第2特徴量取得部と、エッジ量検出部とを備える。第1特徴量取得部は、撮影画像の複数の色情報を用いて、撮影画像の各位置で第1特徴量をそれぞれ求める。領域設定部は、撮影画像での第1特徴量の分布を示す第1特徴量分布情報を用いて、撮影画像のうちでエッジ量を検出する検出領域を設定する。第2特徴量取得部は、撮影画像の複数の色情報を用いて、撮影画像の各位置で第1特徴量と異なる第2特徴量をそれぞれ求める。エッジ量検出部は、撮影画像での第2特徴量の分布を示す第2特徴量分布情報を用いて、検出領域内の各位置でエッジ量を検出する。 An image processing apparatus according to one aspect includes an image acquisition unit that acquires a color captured image, a first feature amount acquisition unit, a region setting unit, a second feature amount acquisition unit, and an edge amount detection unit. The first feature amount acquisition unit obtains a first feature amount at each position of the captured image using a plurality of pieces of color information of the captured image. The region setting unit sets a detection region for detecting an edge amount in the captured image, using the first feature amount distribution information indicating the distribution of the first feature amount in the captured image. The second feature quantity acquisition unit obtains a second feature quantity different from the first feature quantity at each position of the photographed image using a plurality of pieces of color information of the photographed image. The edge amount detection unit detects the edge amount at each position in the detection region using the second feature amount distribution information indicating the distribution of the second feature amount in the captured image.
上記の一の態様において、第2特徴量取得部は、撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最小の画素値から第2特徴量を求めてもよい。 In the above aspect, the second feature amount acquisition unit may obtain the second feature amount from the minimum pixel value among a plurality of pixel values corresponding to different color components at each position of the captured image. .
上記の一の態様において、第1特徴量取得部は、撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最大の画素値から第1特徴量を求めてもよい。 In the one aspect described above, the first feature quantity acquisition unit may obtain the first feature quantity from the maximum pixel value among a plurality of pixel values corresponding to different color components at each position of the captured image. .
上記の一の態様において、画像取得部は、各画素が単色の情報を有する色補間前の画像に対して画素加算処理を施し、各画素が複数色の情報を有する前記撮影画像を取得してもよい。 In the one aspect, the image acquisition unit performs pixel addition processing on an image before color interpolation in which each pixel has single color information, and acquires the captured image in which each pixel has information on multiple colors. Also good.
上記の一の態様の画像処理装置は、エッジ量検出部が検出したエッジ量に基づいて、撮影画像の合焦位置を求める合焦演算部をさらに備えていてもよい。 The image processing apparatus according to the one aspect may further include a focus calculation unit that obtains a focus position of the captured image based on the edge amount detected by the edge amount detection unit.
また、上記の画像処理装置を含む撮像装置や、コンピュータを上記の一の態様の画像処理装置として動作させるプログラムや、上記プログラムを記憶した記憶媒体や、上記の一の態様での画像処理装置の動作を方法のカテゴリで表現した態様も、本発明の具体的態様として有効である。 In addition, an imaging apparatus including the above-described image processing apparatus, a program that causes a computer to operate as the image processing apparatus according to the one aspect, a storage medium that stores the program, and an image processing apparatus according to the one aspect An aspect in which the operation is expressed by a method category is also effective as a specific aspect of the present invention.
本発明の一の態様では、複数の色情報に基づく第1特徴量を用いて撮影画像の検出領域を設定し、第1特徴量と異なる第2特徴量を用いて検出領域からエッジ量を検出することで、精度の高い合焦判定をより迅速に実行できる。 In one aspect of the present invention, a detection region of a captured image is set using a first feature amount based on a plurality of color information, and an edge amount is detected from the detection region using a second feature amount different from the first feature amount. By doing so, a highly accurate focus determination can be performed more quickly.
<一の実施態様の説明>
図1は、一の実施形態に係る画像処理装置の構成例を示すブロック図である。一の実施形態の画像処理装置は、画像処理プログラムがインストールされたパーソナルコンピュータである。この画像処理装置を構成するコンピュータは、画像処理プログラムの実行によって、電子カメラなどの撮像装置で生成された画像ファイルを読み込むとともに、この画像ファイルの撮影画像のピント評価処理を行う。
<Description of one embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment. The image processing apparatus according to one embodiment is a personal computer in which an image processing program is installed. A computer constituting the image processing apparatus reads an image file generated by an imaging apparatus such as an electronic camera by executing an image processing program, and performs a focus evaluation process on a captured image of the image file.
ここで、一の実施形態で処理対象となる画像ファイルは、例えばExif(Exchangeable image file format for digital still cameras)規格に準拠したファイル形式で生成される。そして、一の実施形態で処理対象となる画像ファイルには、撮像装置で撮影されたカラーの撮影画像と、この撮影画像に関する撮影情報(オートフォーカス(AF)による焦点検出エリアの位置情報など)とが対応付けされて記憶されている。 Here, the image file to be processed in one embodiment is generated in a file format conforming to, for example, the Exif (Exchangeable image file format for digital still cameras) standard. In the image file to be processed in one embodiment, a color photographed image photographed by the imaging device, photographing information related to the photographed image (position information of a focus detection area by autofocus (AF), and the like) Are stored in association with each other.
図1に示すコンピュータ11は、データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16、バス17を有している。データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16は、バス17を介して相互に接続されている。さらに、コンピュータ11には、入出力I/F16を介して、入力デバイス18(キーボード、ポインティングデバイスなど)とモニタ19とがそれぞれ接続されている。なお、入出力I/F16は、入力デバイス18からの各種入力を受け付けるとともに、モニタ19に対して表示用のデータを出力する。
A
データ読込部12は、上記の画像ファイルや、画像処理プログラムを外部から読み込むときに用いられる。例えば、データ読込部12は、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部の装置と通信を行う通信デバイス(USBインターフェース、LANモジュール、無線LANモジュールなど)で構成される。
The
記憶装置13は、例えば、ハードディスクや、不揮発性の半導体メモリなどの記憶媒体で構成される。この記憶装置13には、上記の画像処理プログラムと、プログラムの実行に必要となる各種のデータとが記録されている。なお、記憶装置13には、データ読込部12から読み込んだ画像ファイルを記憶しておくこともできる。
The
CPU14は、コンピュータ11の各部を統括的に制御するプロセッサである。このCPU14は、画像処理プログラムの実行によって、第1特徴量取得部21、領域設定部22、第2特徴量取得部23、エッジ量検出部24、合焦演算部25として機能する(なお、CPU14に含まれる各部の動作については後述する)。
The
メモリ15は、画像処理プログラムの演算結果などを一時的に記憶する。このメモリ15は、例えば揮発性のSDRAMなどで構成される。
The
次に、図2の流れ図を参照しつつ、一の実施形態におけるピント評価処理の動作例を説明する。なお、図2の処理は、ユーザによるプログラム実行指示に応じて、CPU14が画像処理プログラムを実行することで開始される。
Next, an operation example of the focus evaluation process in one embodiment will be described with reference to the flowchart of FIG. 2 is started when the
ステップS101:CPU14は、データ読込部12を介して処理対象の画像ファイルを外部から取得する。S101で取得された画像ファイルは、CPU14の制御によって、記憶装置13またはメモリ15に記録される。なお、処理対象の画像ファイルが予め記憶装置13に記憶されている場合には、CPU14はS101の処理を省略してもよい。
Step S101: The
ステップS102:CPU14は、必要に応じて、S101の画像ファイルに含まれる撮影画像を、各画素でそれぞれR(赤)、G(緑)、B(青)の色情報を有する画像に変換する。以下の処理では、S102の変換後の画像が処理対象となる。なお、撮影画像が予め各画素でRGBの色情報を有する場合には、CPU14はS102の処理を省略してもよい。
Step S102: The
S102において、撮影画像のデータがYCbCr形式である場合、CPU14は色空間の変換によりRGB形式の撮影画像のデータを生成する。また、各画素がRGBのいずれかの単色情報のみ有する色補間前のベイヤ配列構造の画像が入力された場合には、CPU14は色補間処理を実行する。これにより、各画素でRGB各色の情報を有する撮影画像を取得できる。
In S102, when the captured image data is in the YCbCr format, the
また、S102で上記のベイヤ配列構造の画像が入力された場合において、CPU14は、隣接する複数の画素を束ねて1画素とする画素加算処理を実行してもよい。これにより、元画像よりも低い解像度であって、かつ各画素でRGBの画素値を有する撮影画像を容易に取得できる。
In addition, when an image having the above-described Bayer array structure is input in S102, the
一例として、CPU14は、ベイヤ配列構造をもつ元画像の2×2画素の範囲から、変換後の撮影画像の1画素分のRGBの各画素値を生成する。このとき、元画像のR画素およびB画素の画素値は、変換後の撮影画像でそのままR、Bの画素値となる。また、変換後の撮影画像でのGの画素値は、元画像のGr画素およびGb画素の画素値を平均して求めればよい。
As an example, the
また、図3に処理対象の撮影画像の一例を示す。図3の画像は夜景を撮影したものであって、画面右端に街灯が存在するとともに、画面の上側には赤色や青色のイルミネーションで電飾された橋が写っている。また、図3の画像中央には色分けされた看板が写っており、図3の画像左側にはピントがぼけた被写体(木)が写っている。なお、図3の画像は、色分けされた看板に最もピントが合っているものとする。 FIG. 3 shows an example of a captured image to be processed. The image in FIG. 3 is a night view taken with a streetlight on the right edge of the screen and a bridge illuminated with red and blue illuminations on the top of the screen. Also, a color-coded signboard is shown in the center of the image in FIG. 3, and a subject (tree) that is out of focus is shown on the left side of the image in FIG. Note that the image in FIG. 3 is most focused on the color-coded signboard.
ステップS103:第1特徴量取得部21は、各画素のRGBの色情報を用いて、撮影画像の各画素でそれぞれ第1特徴量を求める。具体的には、第1特徴量取得部21は、撮影画像の各画素において、RGBの画素値のうちの最大値を第1特徴量とする。例えば、撮影画像の注目画素でRの画素値が最も高くなる場合は、その注目画素での第1特徴量はRの画素値となる。また、撮影画像の全体をみたときに、第1特徴量は画素ごとにそれぞれ異なる色から抽出されうる。
Step S103: The first feature
そして、第1特徴量取得部21は、撮影画像上の画素位置と第1特徴量との対応関係を示す第1特徴量分布マップを生成する。第1特徴量分布マップは撮影画像の各画素の第1特徴量をそれぞれ示すため、第1特徴量分布マップのサイズは、処理対象となった撮影画像の画像サイズと同じとなる。
Then, the first feature
ステップS104:領域設定部22は、第1特徴量分布マップ(S103)を用いて、撮影画像上でエッジ量を検出する検出領域を設定する。一例として、S104の領域設定部22は、以下の(a)−(c)の処理を実行する。
Step S104: The
(a)領域設定部22は、第1特徴量分布マップにおいて、第1特徴量の値が閾値以上となる飽和画素を抽出する。一例として、撮影画像での画素値の階調が8ビット(0−255)であるときに、上記の閾値は250程度の値に設定される。
(A) The
(b)領域設定部22は、撮影画像上で飽和画素から所定距離内にある画素を疑似飽和画素に設定する。一例として、領域設定部22は、飽和画素から半径5画素の範囲にある画素を疑似飽和画素に設定する。
(B) The
(c)領域設定部22は、撮影画像上で飽和画素および疑似飽和画素を除外した残りの画素領域を上記の検出領域とする。そして、領域設定部22は、撮影画像上での検出領域と、その他の非検出領域(飽和画素および疑似飽和画素)とを示す2値画像情報(有効エリアマップ)を生成する。
(C) The
なお、上記の有効エリアマップでは飽和画素の周囲に設定された疑似飽和画素が検出領域から除外されるので、ピント評価のときに輝点の周囲に生じる疑似輪郭の影響を抑制できる。 In the above effective area map, the pseudo saturated pixels set around the saturated pixels are excluded from the detection area, so that it is possible to suppress the influence of the pseudo contour generated around the bright spot during the focus evaluation.
また、図4に、図3の撮影画像に対応する有効エリアマップの例を示す。図3の撮影画像では、イルミネーションの点光源や街灯はいずれかの色成分の画素値が高くなり、それぞれ色が異なっていても第1特徴量での判定により飽和画素となる。よって、図4の有効エリアマップでは、イルミネーションの点光源や街灯の周囲を除外した領域が検出領域として設定される。 FIG. 4 shows an example of an effective area map corresponding to the captured image of FIG. In the captured image of FIG. 3, the pixel value of any one of the color components of the illumination point light source and the streetlight is high, and even if the colors are different from each other, the pixel becomes a saturated pixel by the determination with the first feature amount. Therefore, in the effective area map of FIG. 4, an area excluding the area around the illumination point light source and the streetlight is set as the detection area.
ステップS105:第2特徴量取得部23は、各画素のRGBの色情報を用いて、撮影画像の各画素でそれぞれ第2特徴量を求める。具体的には、第2特徴量取得部23は、撮影画像の各画素において、RGBの画素値のうちの最小値を第2特徴量とする。例えば、撮影画像の注目画素でBの画素値が最も小さくなる場合は、その注目画素での第2特徴量はBの画素値となる。また、撮影画像の全体をみたときに、第2特徴量は画素ごとにそれぞれ異なる色から抽出されうる。
Step S105: The second feature
そして、第2特徴量取得部23は、撮影画像上の画素位置と第2特徴量との対応関係を示す第2特徴量分布マップを生成する。第2特徴量分布マップは撮影画像の各画素の第2特徴量をそれぞれ示すため、第2特徴量分布マップのサイズは、処理対象となった撮影画像の画像サイズと同じとなる。
Then, the second feature
ステップS106:エッジ量検出部24は、第2特徴量分布マップ(S105)を用いて、撮影画像内の各画素位置でそれぞれエッジ量(撮影画像のエッジ成分を示す量)を検出する。そして、エッジ量検出部24は、撮影画像の各画素でのエッジ量を示すエッジ量マップを生成する。
Step S106: The edge
S106での処理の一例として、画像構造ベクトルを用いてエッジ量を検出する例を説明する。まず、エッジ量検出部24は、エッジ量を求める注目画素を中心として撮像画像内に所定の局所領域を設定する。次に、エッジ量検出部24は、局所領域に含まれる画素の第2特徴量の勾配から、主成分分析の手法を用いて注目画素の画像勾配ベクトルを求める。
As an example of the processing in S106, an example in which an edge amount is detected using an image structure vector will be described. First, the edge
ここで、撮影画像の局所領域内の各画素xiについて、画素値の勾配を Here, for each pixel x i in the local area of the captured image, the gradient of the pixel value is set.
の固有値問題を解くことで求めることができる。但し、上記の式(2)中の「C」は、局所領域内の各画素xiにおける画素値f(xi)を用いて下式(3)により定義される行列を示している。 Can be obtained by solving the eigenvalue problem. However, “C” in the above equation (2) indicates a matrix defined by the following equation (3) using the pixel value f (x i ) at each pixel x i in the local region.
なお、上記の式(3)の「Σ」は、いずれも局所領域に含まれる全画素の和を示している。 Note that “Σ” in Equation (3) above represents the sum of all the pixels included in the local region.
また、上記の行列Cは2行2列の行列であるので、上記の式(2)は2つの固有値と、2つの異なる単位固有ベクトルとをもつことが分かる。 Further, since the matrix C is a 2 × 2 matrix, the above equation (2) has two eigenvalues and two different unit eigenvectors.
エッジ量検出部24は、上記動作を各画素で行うことで、各画素で画像構造ベクトル情報を取得する。そして、エッジ量検出部24は、上記の画像構造ベクトル情報から各画素のエッジ量を求める。例えば、エッジ量検出部24は、画像構造ベクトルの強度を用いて各画素のエッジ量を求めてもよい。なお、上記の画像構造ベクトルは、局所領域内における画素値の勾配から主成分分析の手法を用いて求めるので、ピント評価のときに画像のノイズの影響を非常に小さくできる。
The edge
あるいは、エッジ量検出部24は、画像構造ベクトルの内積を用いて、上記のエッジ量を各画素で求めてもよい。画像内で合焦状態にある被写体については画像の構造の相関が高くなり、注目画素とその周囲の画素との画像構造ベクトルはそれぞれ同じ方向に向きやすくなる。一方、ピントが合っていない被写体については、画像がボケて構造の指向性が失われてしまい、合焦状態と比べると画像構造ベクトルの向きは不均一なものとなる。よって、隣接する注目画素間での画像構造ベクトルの方向の相関(画像構造ベクトルの内積の値)をみても、撮影画像のピント評価を行えることが分かる。
Alternatively, the edge
また、S106での処理の他の例として、エッジ量検出部24は、注目画素と周囲画素との間で第2特徴量の差分値の絶対値をそれぞれ求め、この絶対値の総和を注目画素でのエッジ量としてもよい。あるいは、S106での処理の他の例として、エッジ量検出部24は、注目画素と周囲画素との間で第2特徴量の差分値の絶対値をそれぞれ求め、この絶対値のうちの最大値を抽出して注目画素のエッジ量を求めてもよい。
As another example of the processing in S106, the edge
なお、図2の流れ図では、S103からS106の処理が直列的に行われるように表記したが、画像処理装置は、S103からS104の処理と、S105からS106の処理とを並列処理してもよい。 In the flowchart of FIG. 2, the processing from S <b> 103 to S <b> 106 is described as being performed in series, but the image processing apparatus may perform the processing from S <b> 103 to S <b> 104 and the processing from S <b> 105 to S <b> 106 in parallel. .
ここで、検出領域内の輝度差のある箇所でRGB画素値の最小値(第2特徴量)に注目すると、同じ色成分でも輝度差によって隣接画素の画素値の最小値には変化が生じる。よって、第2特徴量を用いることで、隣接画素の輝度差によるエッジを抽出できることが分かる。 Here, when attention is paid to the minimum value of the RGB pixel value (second feature amount) at a location where there is a luminance difference in the detection area, even in the same color component, the minimum value of the pixel value of the adjacent pixel changes due to the luminance difference. Therefore, it can be seen that by using the second feature amount, an edge due to a luminance difference between adjacent pixels can be extracted.
同様に、検出領域内の色差のある箇所で第2特徴量に注目すると、各画素の色が異なることから、隣接画素間で第2特徴量の値は全く異なる値となる。よって、第2特徴量を用いることで、輝度差は少ないが、色差をみるとエッジを検出できる被写体(例えば図3の看板の色境界など)についても、エッジを抽出できることが分かる。 Similarly, when attention is paid to the second feature amount in a portion having a color difference in the detection region, since the color of each pixel is different, the value of the second feature amount is completely different between adjacent pixels. Therefore, it can be seen that by using the second feature amount, the edge can be extracted also from a subject (for example, the color boundary of the signboard of FIG. 3) whose edge can be detected by looking at the color difference although the luminance difference is small.
ステップS107:CPU14は、有効エリアマップ(S104)とエッジ量マップ(S106)とを用いて、撮影画像の検出領域での各画素のエッジ量を抽出する。具体的には、CPU14は、エッジ量マップを有効エリアマップでマスクすることで、エッジ量マップのうちから検出領域の画素のデータを抽出する。
Step S107: The
ステップS108:合焦演算部25は、検出領域での各画素のエッジ量(S107)を用いて、上記の検出領域内で最もエッジ量の多い(すなわち最も合焦度が高い)画素位置を抽出する。
Step S108: The
ステップS109:合焦演算部25は、撮影画像のピント評価を実行する。一例として、合焦演算部25は、画像ファイルから焦点検出エリアの位置情報を取得する。そして、合焦演算部25は、撮影画像の焦点検出エリアの位置と、S108で求めた検出領域内での合焦位置との直線距離を求める。上記の直線距離がほぼ0とみなせる場合、処理対象の撮影画像は主要被写体にピントがあった状態と判断できる。一方、上記の直線距離が許容範囲よりも大きければ、処理対象の撮影画像は主要被写体にピントが合っていない状態と判断できる。
Step S109: The focusing
これにより、合焦演算部25は、S109で求めた直線距離の大きさを指標として、撮影画像の合焦状態を評価し、合焦状態の良好な画像を自動的に選別できる。なお、合焦演算部25は、S109で求めた直線距離の大きさの情報をユーザに提示するのみに留めてもよい。以上で、図2の流れ図の説明を終了する。
Thereby, the
以下、一の実施形態におけるピント評価処理の作用効果を述べる。 Hereinafter, the effect of the focus evaluation processing in one embodiment will be described.
一の実施形態での画像処理装置は、撮影画像の各画素でRGB画素値の最大値を第1特徴量とする(S103)。画像処理装置は、第1特徴量に基づいて、撮影画像内でいずれかの色成分で画素値が飽和している領域を検出する(S104)。そして、画像処理装置は、飽和画素とその周囲を除外した検出領域を対象として撮影画像のピント評価を実行する(S107−S109)。 The image processing apparatus according to one embodiment sets the maximum value of the RGB pixel value for each pixel of the captured image as the first feature amount (S103). Based on the first feature amount, the image processing apparatus detects a region in which the pixel value is saturated with any color component in the captured image (S104). Then, the image processing apparatus performs focus evaluation of the captured image with respect to the detection area excluding the saturated pixel and the periphery thereof (S107 to S109).
つまり、一の実施形態での画像処理装置は、輝度値での飽和はないが、色情報をみると画素値に飽和が生じている赤色や青色の点光源(例えば図3のイルミネーションなど)を、高輝度の被写体とともに合焦判定の対象から除外できる。これにより、一の実施形態では、撮影画像の輝度値のみに注目して合焦判定を行う場合と比べて、ボケた点光源による偽エッジを合焦点と誤判定するおそれが低減し、より精度の高い合焦判定を行うことが可能となる。 In other words, the image processing apparatus according to the embodiment does not saturate with the luminance value, but uses a red or blue point light source (for example, the illumination in FIG. 3) in which the pixel value is saturated when the color information is viewed. In addition, it can be excluded from the focus determination target together with the high-luminance subject. Thereby, in one embodiment, compared with the case where focus determination is performed by focusing only on the luminance value of the captured image, the possibility of falsely determining a false edge due to a blurred point light source as the in-focus is reduced and more accurate. It is possible to perform a high focus determination.
また、一の実施形態での画像処理装置は、撮影画像の各画素でRGB画素値の最小値を第2特徴量とする(S105)。そして、画像処理装置は、検出領域内を対象として、第2特徴量から求まるエッジ量により撮影画像のピント評価を実行する(S106−S109)。これにより、一の実施形態では、隣接画素の輝度差によるエッジと隣接画素の色差によるエッジとを第2特徴量でそれぞれ抽出することができる。 Further, the image processing apparatus according to the embodiment sets the minimum value of the RGB pixel value as the second feature amount in each pixel of the captured image (S105). Then, the image processing apparatus performs focus evaluation of the captured image based on the edge amount obtained from the second feature amount with respect to the detection region (S106 to S109). Thereby, in one embodiment, the edge by the brightness | luminance difference of an adjacent pixel and the edge by the color difference of an adjacent pixel can each be extracted with a 2nd feature-value.
さらに、一の実施形態での画像処理装置は、それぞれ複数の色情報を用いて設定された2種類のパラメータ(第1特徴量、第2特徴量)を適用して、検出領域の設定処理と、エッジ量を用いた合焦判定処理とを行う。これにより、一の実施形態での画像処理装置は、
例えば、輝度面での合焦判定処理が好適な画像と、色差面での合焦判定処理が好適な画像とをいずれも同一の処理で精度よく評価できる。
Further, the image processing apparatus according to the embodiment applies two types of parameters (first feature amount and second feature amount) set using a plurality of pieces of color information, and performs detection region setting processing. In-focus determination processing using the edge amount is performed. Thereby, the image processing apparatus in one embodiment
For example, it is possible to accurately evaluate an image suitable for focus determination processing on the luminance plane and an image suitable for focus determination processing on the color difference plane by the same processing.
また、従来技術のように、1種類のパラメータで合焦判定処理を行う場合、撮影シーンの解析結果に応じて、輝度面での合焦判定処理と色差面での合焦判定処理との切り替えや、判定結果の重み付けの変更などの処理が必要となる。一方、一の実施形態の画像処理装置は、多様な撮影画像に同一の処理で対応できるので、精度の高い合焦判定を迅速に行うことができる。 Further, as in the prior art, when performing the focus determination process with one type of parameter, switching between the focus determination process on the luminance plane and the focus determination process on the color difference plane according to the analysis result of the shooting scene In addition, processing such as changing the weighting of the determination result is required. On the other hand, the image processing apparatus of one embodiment can deal with various captured images with the same processing, and therefore can perform highly accurate focus determination quickly.
<他の実施態様の説明>
図5は、他の実施形態における電子カメラの構成例を示すブロック図である。電子カメラ31は、フォーカシングレンズ32と、レンズ駆動部33と、撮像素子34と、制御部35と、ROM36と、メインメモリ37と、モニタ38と、記録I/F39と、レリーズ釦40とを有している。ここで、レンズ駆動部33、撮像素子34、ROM36、メインメモリ37、モニタ38、記録I/F39およびレリーズ釦40は、それぞれ制御部35に接続されている。
<Description of other embodiments>
FIG. 5 is a block diagram illustrating a configuration example of an electronic camera according to another embodiment. The
フォーカシングレンズ32は、焦点調節を行うためのレンズである。このフォーカシングレンズ32のレンズ位置は、レンズ駆動部33によって光軸方向に調整される。
The focusing
撮像素子34は、フォーカシングレンズ32を含む撮像光学系によって結像される被写体の像を撮像し、カラーの撮影画像の画像信号を生成する。なお、撮像素子34から出力された画像信号は、A/D変換回路(不図示)を介して制御部35に入力される。
The
ここで、電子カメラ31の撮影モードにおいて、撮像素子34はレリーズ釦40の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子34は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ38での動画像表示や制御部35による各種の演算処理に使用される。
Here, in the photographing mode of the
制御部35は、電子カメラ31の動作を統括的に制御するプロセッサである。例えば、制御部35は、撮影画像のデータに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整、色変換処理など)を施す。
The
また、制御部35は、ROM36に格納されたプログラムの実行により、一の実施形態の画像処理装置における第1特徴量取得部21、領域設定部22、第2特徴量取得部23、エッジ量検出部24、合焦演算部25として機能する。
In addition, the
ROM36には、制御部35によって実行されるプログラムが記憶されている。なお、このプログラムによる撮影モードでの動作例については後述する。また、メインメモリ37は、制御部35による画像処理の前工程や後工程で画像のデータを一時的に記憶する。また、モニタ38は、制御部35の指示に応じて各種画像を表示する。
The
記録I/F39は、不揮発性の記憶媒体39aを接続するためのコネクタを有している。そして、記録I/F39は、コネクタに接続された記憶媒体39aに対してデータの書き込み/読み込みを実行する。上記の記憶媒体39aは、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図5では記憶媒体39aの一例としてメモリカードを図示する。
The recording I /
レリーズ釦40は、半押し操作による撮影前のAF動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザから受け付ける。
The
次に、図6の流れ図を参照しつつ、他の実施形態の電子カメラ31における撮影モードでの動作例を説明する。なお、図6の流れ図の処理は、制御部35の制御によって、ユーザの撮影モードの起動操作に応じて開始される。
Next, with reference to the flowchart of FIG. 6, an operation example in the shooting mode in the
ステップS201:制御部35は、撮像素子34を駆動させてスルー画像の撮像を開始する。その後、スルー画像は所定間隔ごとに逐次生成されることとなる。なお、撮像素子34から出力されたスルー画像のデータは、制御部35に入力される。
Step S201: The
また、撮影モードでの制御部35は、スルー画像から生成された表示用の画像(ビュー画像)をモニタ38に動画表示させる。したがって、ユーザは、モニタ38のビュー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。
Further, the
ステップS202:制御部35は、レリーズ釦40の半押し操作を受け付けたか否かを判定する。上記要件を満たす場合(YES側)にはS203に処理が移行する。一方、上記要件を満たさない場合(NO側)には、制御部35はレリーズ釦40の半押し操作を待機する。
Step S202: The
ステップS203:制御部35は、スルー画像を用いて合焦制御を実行する。
Step S203: The
一例として、制御部35は、フォーカシングレンズ32を移動させつつ、各々のレンズ位置でスルー画像を取得する。そして、制御部35は、各々のスルー画像を対象として上記の一の実施形態でのS101からS108の処理を実行する。また、制御部35は、至近優先や中央優先などのアルゴリズム(またはユーザのマニュアルでの指定)に基づいて撮影画面(スルー画像の撮影範囲)内に焦点検出エリアを設定する。そして、制御部35は、焦点検出エリアの被写体の合焦度が最も高くなるスルー画像のレンズ位置を用いて、フォーカシングレンズ32のAFを実行する。
As an example, the
ステップS204:制御部35は、レリーズ釦40の全押し操作を受け付けたか否かを判定する。上記要件を満たす場合(YES側)にはS206に処理が移行する。一方、上記要件を満たさない場合(NO側)にはS205に処理が移行する。
Step S204: The
ステップS205:制御部35は、レリーズ釦40の半押し操作が解除されたか否かを判定する。上記要件を満たす場合(YES側)には、制御部35はS202に戻って上記動作を繰り返す。一方、上記要件を満たさない場合(NO側)には、制御部35はS204に戻ってレリーズ釦40の全押し操作を待機する。
Step S205: The
ステップS206:制御部35は、レリーズ釦40の全押しに応じて、撮像素子34を駆動させて本画像の撮像処理を実行する。本画像のデータは、制御部35で所定の処理が施された後に記録I/F39を介して記憶媒体39aに記録される。以上で、図6の流れ図の説明を終了する。
Step S206: In response to the
他の実施形態の電子カメラ31は、一の実施形態とほぼ同様のアルゴリズムによって、AFを実行する。したがって、他の実施形態の電子カメラ31は、一の実施形態と同様に精度の高い合焦判定を迅速に実行できる。
The
<実施形態の補足事項>
(1)上記の各実施形態では、第1特徴量取得部21、領域設定部22、第2特徴量取得部23、エッジ量検出部24、合焦演算部25の機能をプログラムによってソフトウエア的に実現する例を説明したが、ASICを用いて上記の各部をハードウエア的に実現しても勿論かまわない。
<Supplementary items of the embodiment>
(1) In each of the embodiments described above, the functions of the first feature
(2)上記の各実施形態ではRGBの画素値を用いて第1特徴量および第2特徴量を求める例を説明したが、例えば補色系(例えば、マゼンタ、シアン、イエローを用いる系)の色情報を用いるようにしてもよい。 (2) In each of the above-described embodiments, an example in which the first feature value and the second feature value are obtained using RGB pixel values has been described. For example, a complementary color system (for example, a system using magenta, cyan, yellow) Information may be used.
(3)一の実施形態のS104の処理では、飽和画素を判定する閾値を8ビットで250とする例を説明したが、上記の閾値は適宜変更してもよい。また、一の実施形態のS104の処理において、撮影画像に応じて、疑似飽和画素とする範囲を適宜変更してもよい。 (3) In the processing of S104 of one embodiment, an example in which the threshold value for determining a saturated pixel is set to 250 with 8 bits has been described, but the above threshold value may be changed as appropriate. Moreover, in the process of S104 of one embodiment, the range of pseudo-saturated pixels may be changed as appropriate according to the captured image.
(4)一の実施形態のS102の処理では、ベイヤ配列構造の画像を2×2画素で1画素とするケースを説明したが、より多数の画素(4×4画素など)をまとめて1画素の情報を生成してもよい。 (4) In the processing of S102 of one embodiment, a case has been described in which an image with a Bayer array structure is 2 × 2 pixels and 1 pixel. However, a larger number of pixels (such as 4 × 4 pixels) are combined into 1 pixel. The information may be generated.
(5)上記の一の実施形態において、画像処理装置は、有効エリアマップで撮影画像内の検出エリアを予め特定した後にS106の処理を実行してもよい。また、上記の一の実施形態において、画像処理装置は、撮影画像のうちの焦点検出エリアの範囲を対象としてピント評価処理を実行してもよい。 (5) In the one embodiment described above, the image processing apparatus may execute the process of S106 after specifying the detection area in the captured image in advance with the effective area map. In the above-described one embodiment, the image processing apparatus may execute the focus evaluation process for the range of the focus detection area in the captured image.
(6)上記の他の実施形態では、撮影レンズを構成要素に含むコンパクト型の電子カメラでの構成例を説明した。しかし、本発明の撮像装置は、レンズ交換可能な一眼レフレックス型の電子カメラにも適用することが勿論可能である。また、本発明の撮像装置は、例えば、携帯電話などの電子機器に内蔵されるカメラモジュールに適用することも可能である。 (6) In the other embodiments described above, the configuration example of the compact electronic camera including the photographing lens as a component has been described. However, the imaging apparatus of the present invention can of course be applied to a single-lens reflex type electronic camera in which lenses can be exchanged. The imaging device of the present invention can also be applied to a camera module built in an electronic device such as a mobile phone.
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。 From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.
11…コンピュータ、12…データ読込部、13…記憶装置、14…CPU、15…メモリ、16…入出力I/F、17…バス、18…入力デバイス、19…モニタ、21…第1特徴量取得部、22…領域設定部、23…第2特徴量取得部、24…エッジ量検出部、25…合焦演算部、31…電子カメラ、32…フォーカシングレンズ、33…レンズ駆動部、34…撮像素子、35…制御部、36…ROM、37…メインメモリ、38…モニタ、39…記録I/F、39a…記憶媒体、40…レリーズ釦
DESCRIPTION OF
Claims (7)
前記撮影画像の複数の色情報を用いて、前記撮影画像の各位置で第1特徴量をそれぞれ求める第1特徴量取得部と、
前記撮影画像での前記第1特徴量の分布を示す第1特徴量分布情報を用いて、前記撮影画像のうちでエッジ量を検出する検出領域を設定する領域設定部と、
前記撮影画像の複数の色情報を用いて、前記撮影画像の各位置で前記第1特徴量と異なる第2特徴量をそれぞれ求める第2特徴量取得部と、
前記撮影画像での前記第2特徴量の分布を示す第2特徴量分布情報を用いて、前記検出領域内の各位置でエッジ量を検出するエッジ量検出部と、
を備える画像処理装置。 An image acquisition unit for acquiring a color photographed image;
A first feature amount acquisition unit that obtains a first feature amount at each position of the captured image using a plurality of color information of the captured image;
An area setting unit that sets a detection area for detecting an edge amount in the photographed image using first feature quantity distribution information indicating a distribution of the first feature quantity in the photographed image;
A second feature amount acquisition unit that obtains a second feature amount different from the first feature amount at each position of the captured image using a plurality of pieces of color information of the captured image;
An edge amount detection unit that detects an edge amount at each position in the detection region using second feature amount distribution information indicating the distribution of the second feature amount in the captured image;
An image processing apparatus comprising:
前記第2特徴量取得部は、前記撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最小の画素値から前記第2特徴量を求める画像処理装置。 The image processing apparatus according to claim 1.
The second feature quantity acquisition unit is an image processing apparatus that obtains the second feature quantity from a minimum pixel value among a plurality of pixel values each corresponding to a different color component at each position of the captured image.
前記第1特徴量取得部は、前記撮影画像の各位置で、各々が異なる色成分に対応する複数の画素値のうち最大の画素値から前記第1特徴量を求める画像処理装置。
画像処理装置。 The image processing apparatus according to claim 1 or 2,
The first feature quantity acquisition unit is an image processing apparatus that obtains the first feature quantity from a maximum pixel value among a plurality of pixel values corresponding to different color components at each position of the captured image.
Image processing device.
前記画像取得部は、各画素が単色の情報を有する色補間前の画像に対して画素加算処理を施し、各画素が複数色の情報を有する前記撮影画像を取得する画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The image acquisition unit is an image processing apparatus that performs pixel addition processing on an image before color interpolation in which each pixel has single-color information, and acquires the captured image in which each pixel has information on a plurality of colors.
前記エッジ量検出部が検出した前記エッジ量に基づいて、前記撮影画像の合焦位置を求める合焦演算部をさらに備える画像処理装置。 The image processing apparatus according to claim 1, wherein:
An image processing apparatus further comprising a focus calculation unit that obtains a focus position of the captured image based on the edge amount detected by the edge amount detection unit.
請求項5に記載の画像処理装置と、
前記画像処理装置の出力に基づいて、前記撮影レンズの合焦状態を制御する制御部と、を備える撮像装置。 An imaging unit that captures an image of the light flux that has passed through the taking lens;
An image processing apparatus according to claim 5;
An imaging apparatus comprising: a control unit that controls a focused state of the photographing lens based on an output of the image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008251A JP2011147076A (en) | 2010-01-18 | 2010-01-18 | Image processing apparatus, image capturing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008251A JP2011147076A (en) | 2010-01-18 | 2010-01-18 | Image processing apparatus, image capturing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011147076A true JP2011147076A (en) | 2011-07-28 |
Family
ID=44461502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010008251A Pending JP2011147076A (en) | 2010-01-18 | 2010-01-18 | Image processing apparatus, image capturing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011147076A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013160919A (en) * | 2012-02-06 | 2013-08-19 | Hitachi Ltd | Image signal processing device and image signal processing method |
JP2016126046A (en) * | 2014-12-26 | 2016-07-11 | オリンパス株式会社 | Focal point detecting device and focal point detecting method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013685A (en) * | 1998-06-18 | 2000-01-14 | Olympus Optical Co Ltd | Image pickup device |
JP2002182106A (en) * | 2000-12-18 | 2002-06-26 | Ricoh Co Ltd | Focusing control system for digital still video camera |
JP2007233222A (en) * | 2006-03-03 | 2007-09-13 | Matsushita Electric Ind Co Ltd | Focus detecting device for video camera |
JP2009089348A (en) * | 2007-09-11 | 2009-04-23 | Ricoh Co Ltd | Electronic apparatus, imaging device, and reproducing device |
-
2010
- 2010-01-18 JP JP2010008251A patent/JP2011147076A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013685A (en) * | 1998-06-18 | 2000-01-14 | Olympus Optical Co Ltd | Image pickup device |
JP2002182106A (en) * | 2000-12-18 | 2002-06-26 | Ricoh Co Ltd | Focusing control system for digital still video camera |
JP2007233222A (en) * | 2006-03-03 | 2007-09-13 | Matsushita Electric Ind Co Ltd | Focus detecting device for video camera |
JP2009089348A (en) * | 2007-09-11 | 2009-04-23 | Ricoh Co Ltd | Electronic apparatus, imaging device, and reproducing device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013160919A (en) * | 2012-02-06 | 2013-08-19 | Hitachi Ltd | Image signal processing device and image signal processing method |
JP2016126046A (en) * | 2014-12-26 | 2016-07-11 | オリンパス株式会社 | Focal point detecting device and focal point detecting method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004088149A (en) | Imaging system and image processing program | |
JP2013065005A (en) | Focus evaluation apparatus, imaging apparatus and program | |
JP5395650B2 (en) | Subject area extraction device and control method thereof, subject tracking device, and program | |
JP2007258925A (en) | Imaging apparatus, and method of acquiring image | |
KR20180138530A (en) | Detection apparatus, image processing apparatus, detection method, and image processing method | |
JP5509621B2 (en) | Image processing apparatus, camera, and program | |
JP2007258923A (en) | Image processing apparatus, image processing method, image processing program | |
JP2011147076A (en) | Image processing apparatus, image capturing apparatus and program | |
JP2019008830A (en) | Subject detection device, imaging device, and program | |
JP5146223B2 (en) | Program, camera, image processing apparatus, and image contour extraction method | |
JP5463688B2 (en) | Focus evaluation device, camera and program | |
JP2010091856A (en) | Program, camera, and method for calculating focusing degree of image | |
JP2018152095A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP4271648B2 (en) | Image composition apparatus, imaging means, and program | |
JP6776532B2 (en) | Image processing equipment, imaging equipment, electronic devices and image processing programs | |
JP6326841B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP2018152096A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6248662B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP6464553B2 (en) | Lens drive control device, electronic camera, and lens drive control program | |
JP5353141B2 (en) | Program, camera, image processing apparatus, and method of calculating degree of focus of image | |
JP6314281B1 (en) | Image processing method and foreground region acquisition method | |
JP7458723B2 (en) | Image processing device, imaging device, control method, and program | |
JP6508259B2 (en) | Imaging device and program | |
JP6318661B2 (en) | Subject detection device, imaging device, and image processing program | |
JP2013161286A (en) | Mask extraction program, image processing apparatus, and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131227 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140520 |