JP2014135589A - Image processing device, control method therefor, and control program - Google Patents
Image processing device, control method therefor, and control program Download PDFInfo
- Publication number
- JP2014135589A JP2014135589A JP2013001736A JP2013001736A JP2014135589A JP 2014135589 A JP2014135589 A JP 2014135589A JP 2013001736 A JP2013001736 A JP 2013001736A JP 2013001736 A JP2013001736 A JP 2013001736A JP 2014135589 A JP2014135589 A JP 2014135589A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- edge detection
- sensitivity
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 138
- 238000000034 method Methods 0.000 title claims description 25
- 230000035945 sensitivity Effects 0.000 claims abstract description 62
- 238000003708 edge detection Methods 0.000 claims abstract description 41
- 239000000284 extract Substances 0.000 claims abstract description 6
- 230000009467 reduction Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 21
- 230000002194 synthesizing effect Effects 0.000 claims 4
- 238000001514 detection method Methods 0.000 claims 2
- 238000000605 extraction Methods 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 23
- 230000015572 biosynthetic process Effects 0.000 description 19
- 238000003786 synthesis reaction Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 230000006837 decompression Effects 0.000 description 7
- 230000006854 communication Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、固体撮像素子を用いた撮像装置で用いられる画像処理装置、その制御方法、および制御プログラムに関する。 The present invention relates to an image processing apparatus used in an imaging apparatus using a solid-state imaging device, a control method thereof, and a control program.
一般に、デジタルカメラなどの撮像装置においては、主被写体を認識して、オートフォーカスのために当該主被写体を追尾することが行われている。さらに、撮像装置においては、画像から主被写体を抽出して当該主被写体を最適化する画像処理を施し、さらには、画像の背景をぼかすなどの特殊効果処理を行うことがある。 In general, in an imaging apparatus such as a digital camera, a main subject is recognized and the main subject is tracked for autofocus. Further, the imaging apparatus may perform image processing for extracting the main subject from the image and optimizing the main subject, and may perform special effect processing such as blurring the background of the image.
特に、画像において被写体と背景とを切り分ける際には、被写体抽出の精度の向上が要求されている。 In particular, when the subject and the background are separated from each other in the image, it is required to improve the accuracy of subject extraction.
ここで、画像において被写体を抽出する手法の1つとして、画像にハイパスフィルタ処理を施してエッジ情報を抽出する手法がある。 Here, as one of methods for extracting a subject in an image, there is a method for extracting edge information by performing high-pass filter processing on the image.
ところが、この手法では、ハイパスフィルタ処理に起因して、画像に重畳するランダムノイズとエッジとのの切り分けが難しい。特に、ノイズレベルが高くなる高感度撮影の際においてはエッジの抽出を困難となることがある。 However, with this method, it is difficult to distinguish between random noise superimposed on an image and an edge due to high-pass filter processing. In particular, it may be difficult to extract an edge during high-sensitivity imaging with a high noise level.
このため、撮影の結果得られた画像に重畳するノイズレベルを別に求めて、ハイパスフィルタ処理結果から得られるエッジ信号からノイズレベルを一律に減算してノイズの影響を排除するようにした撮像装置がある(特許文献1参照)。 For this reason, an image pickup apparatus that separately obtains a noise level to be superimposed on an image obtained as a result of photographing and uniformly subtracts the noise level from an edge signal obtained from a high-pass filter processing result to eliminate the influence of noise. Yes (see Patent Document 1).
ところが、特許文献1のように、ハイパスフィルタ処理の結果得られたエッジ信号からノイズレベルを一律に減算すると、当該ノイズレベルよりもそのレベルが低いエッジ成分を検出することができない。その結果、画像において被写体を精度よく抽出することができないことがある。
However, as in
従って、本発明の目的は、ハイパスフィルタ処理によって常に精度よく被写体を抽出することのできる画像処理装置、その制御方法、および制御プログラムを提供することにある。 Accordingly, an object of the present invention is to provide an image processing apparatus, a control method thereof, and a control program that can always accurately extract a subject by high-pass filter processing.
上記の目的を達成するため、本発明による画像処理装置は、被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置であって、前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理手段と、前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力する第1のエッジ検出手段と、を有することを特徴とする。 In order to achieve the above object, an image processing device according to the present invention is an image processing device that extracts a subject from an image obtained as a result of photographing the subject, and is used for photographing sensitivity at the time of photographing or in the image. A reduction processing unit that reduces the image to a reduced image according to a noise level; and a first edge detection unit that detects an edge of the subject in the reduced image and outputs an edge detection result. It is characterized by.
本発明による制御方法は、被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置の制御方法であって、前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、を有することを特徴とする。 A control method according to the present invention is a control method of an image processing apparatus that performs extraction processing on the subject in an image obtained as a result of photographing the subject, depending on the photographing sensitivity at the time of photographing or the noise level in the image. The image processing apparatus includes a reduction processing step for reducing the image to obtain a reduced image, and an edge detection step for detecting an edge of the subject in the reduced image and outputting an edge detection result.
本発明による制御プログラムは、被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、を実行させることを特徴とする。 The control program according to the present invention is a control program used in an image processing apparatus that extracts a subject in an image obtained as a result of photographing the subject, and the computer included in the image processing device performs photographing at the time of photographing. In accordance with sensitivity or a noise level in the image, a reduction processing step for reducing the image to obtain a reduced image, and an edge detection step for detecting an edge of the subject in the reduced image and outputting an edge detection result. It is made to perform.
本発明によれば、ノイズの影響を低減して、ハイパスフィルタ処理によって常に精度よく被写体を抽出することができる。 According to the present invention, it is possible to reduce the influence of noise and always extract a subject with high accuracy by high-pass filter processing.
以下、本発明の実施の形態による撮像装置について図面を参照して説明する。 Hereinafter, an imaging device according to an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of an example of an imaging apparatus including an image processing apparatus according to the first embodiment of the present invention.
図示の撮像装置100は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮影レンズユニット(以下単に撮影レンズと呼ぶ)10を有している。撮影レンズ10の後段には絞り機能を備えるシャッター12が配置されている。そして、シャッター12の後側には、光学像を電気信号に変換するCCD又はCMOS素子などの撮像素子14が配置されている。撮像素子14の出力であるアナログ信号はA/D変換器16によってデジタル信号(画像データ)に変換される。
The illustrated
なお、図示はしないが、撮影レンズ10の前面側にはバリアが配置されており、このバリアは撮影レンズ10、シャッター12、および撮像素子14などを覆って、その汚れおよび破損を防止するためのものである。
Although not shown, a barrier is disposed on the front side of the
タイミング発生回路18は撮像素子14、A/D変換器16、およびD/A変換器26にクロック信号又は制御信号を供給する。このタイミング発生回路18はメモリ制御回路22およびシステム制御回路50によって制御される。
The
なお、撮像素子18のリセットタイミングを制御することによる電子シャッターで撮像素子18の蓄積時間を制御すれば、当該電子シャッターによって動画撮影などを行うことができる。
Note that if the accumulation time of the
画像処理回路20はA/D変換器16の出力である画像データ、又はメモリ制御回路22から画像データを受けて、所定の画素補間および縮小などのリサイズ処理と色変換処理とを行う。
The
また、画像処理回路20は画像データからその一部領域を画像として切り出す切り出し処理および変倍処理を行って電子ズームを実行する。
In addition, the
画像処理回路20は撮像の結果得られた画像データを用いて所定の演算処理を行う。システム制御回路50は当該演算結果に基づいて露光制御部40および測距制御部42を制御して露光制御および測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理が行われる。
The
さらに、画像処理回路20は撮像の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
Further, the
メモリ制御回路22はA/D変換器16、タイミング発生回路18、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、および圧縮伸長回路32を制御する。A/D変換器16からの出力である画像データは、画像処理回路20およびメモリ制御回路22を介して、或いは直接メモリ制御回路22を介してメモリ30に書き込まれる。
The
メモリ30に書き込まれた表示用の画像データはメモリ制御回路22を介して画像表示部28に送られる。これにより、画像表示部28には画像データに応じた画像が表示される。
The display image data written in the
なお、画像表示部28(例えば、LCD)に撮像によって得られた画像を逐次表示すれば、電子ファインダ機能を実現することができる。 Note that an electronic finder function can be realized by sequentially displaying images obtained by imaging on the image display unit 28 (for example, LCD).
画像表示部28は、システム制御回路50の制御によってその表示をオン/オフすることが可能であり、表示をオフにした場合は、撮像装置100の電力消費を大幅に低減することができる。
The display of the
メモリ30には、撮影の結果得られた静止画像又は動画像が格納される。メモリ30は、所定枚数の静止画像又は所定時間の動画像を格納するための十分な記憶容量を有している。
The
このメモリ30を用いれば、複数枚の静止画像を連続して撮影する連写撮影又はパノラマ撮影の場合においても、高速に大量の画像を保存することができる。また、メモリ30はシステム制御回路50の作業領域としても用いられる。
By using this
圧縮伸張回路32は、適応離散コサイン変換(ADCT)などによって画像データを圧縮又は伸張する。圧縮伸張回路32は、例えば、シャッター12の動作をトリガとしてメモリ30に格納された画像データを読み込んで圧縮処理を行い、圧縮処理後の画像データをメモリ30に書き込む。
The compression /
また、圧縮伸張回路32は記録媒体200からメモリ30に読み込まれた圧縮処理後の画像データを読み込んで伸張処理を行って、伸張処理後の画像データをメモリ30に書き込む。圧縮伸張回路32によってメモリ30に書き込まれた画像データは、システム制御回路50においてファイル化されて、インタフェース90を介して記録媒体200に記録される。
The compression /
露光制御部40はシステム制御回路50の制御下でシャッター12の制御を行う。さらに、露光制御部40はフラッシュ48と連携してフラッシュ調光を行う。測距制御部42はシステム制御回路50の制御下で撮影レンズ10のフォーカシングを制御する。
The
前述のように、システム制御回路50は、画像処理回路20による演算結果に基づいて露光制御部40および測距制御部42を制御して、TTL方式の露光制御および測距制御を行う。
As described above, the
ズーム制御部44はシステム制御回路50の制御下で撮影レンズ10のズーミングを制御する。フラッシュ48はシステム制御回路50によって制御され、ピント合わせを行うためのAF補助光の投光を行うとともに、フラッシュ調光を行う。
The
システム制御回路50は撮像装置100全体の制御を司る。不揮発性メモリ31は、例えば、フラッシュROMであり、不揮発性メモリメモリ31にはシステム制御回路50の動作用の定数、変数、およびプログラムなどが記憶される。
A
また、不揮発性メモリ31には、カメラに係る情報を記憶する領域、ユーザ設定情報を記憶する領域が規定され、システム制御回路50はこれら情報および設定を起動の際に読み出して復元する。
The
モードダイアルスイッチ60は、電源86のオン又はオフの際に用いられる。さらに、モードダイアルスイッチ60は、例えば、システム制御回路50の動作モードをプログラムAEモードなどの自動露出モード、全自動モード、マニュアル露出モード、寝顔撮影モード、パノラマ撮影モード、再生モード、マルチ画面再生・消去モード、又はPC接続モードなどに切り替える際に用いられる。
The
シャッターボタン62が操作途中(半押し)であると、第1のシャッタースイッチSW1がオンとなって、第1のシャッタースイッチ信号SW1がシステム制御回路50に与えられる。
When the
これによって、システム制御回路50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などの撮影準備動作を開始示する。
Thus, the
シャッターボタン62が操作完了(全押し)されると、第2のシャッタースイッチSW2がオンとなって、第2のシャッタースイッチ信号SW2がシステム制御回路50に与えられる。
When the operation of the
これによって、システム制御回路50は撮像素子14の信号読み出しからメモリ30に画像データを書き込む露光処理、画像処理回路20およびメモリ制御回路22による演算を用いた現像処理、そして、メモリ30から画像データを読み出して圧縮伸長回路32で圧縮を行った後記録媒体200に画像データを書き込む記録処理などの一連の撮像処理を開始する。
As a result, the
表示切替スイッチ66の操作に応じて、システム制御回路50は画像表示部28における表示切替を行う。これによって、光学ファインダ104を用いて撮影を行う際には、画像表示部28に対する電力の供給が遮断されて省電力となる。
In response to the operation of the
操作部70は各種ボタン、タッチパネル、および回転式ダイアルなどを有している。各種ボタンとして、例えば、メニューボタン、セットボタン、マクロボタン、画像表示オン/オフボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、および日付/時間設定ボタンがある。
The
メニューボタンが操作されると、システム制御回路50は各種設定を行うためのメニュー画面を画像表示部28に表示する。ユーザは画像表示部28に表示されたメニュー画面を見て、各種ボタンの操作によって直感的に各種設定を行うことができる。
When the menu button is operated, the
ズームスイッチ72はユーザが画像の倍率変更指示を行う際に用いられる。このズームスイッチ72は、撮像画角を望遠側に変更するテレスイッチと広角側に変更するワイドスイッチとを有している。
The
ズームスイッチ72の操作によって、システム制御回路50はズーム制御部44に撮影レンズ10の撮像画角の変更を指示するとともに、光学ズーム操作を行う。
By operating the
なお、ズームスイッチ72の操作によって画像処理回路20による画像の切り出し処理および画素補間処理などによる撮像画角の電子的なズーミング変更が行われる。
It should be noted that by operating the
電源86はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池などの二次電池を備えるとともに、ACアダプターなどを有している。
The
インタフェース(I/F)90は記録媒体200とのインタフェースである。インタフェース90はコネクタ92によって記録媒体200に備えられたコネクタ206に接続される。記録媒体200はインタフェース204および記録部202を有しており、記録部202として半導体メモリ又は磁気ディスクが用いられる。
An interface (I / F) 90 is an interface with the
通信部110は、USB、IEEE1394、LAN、又は無線通信などに係る各種通信処理を行う。コネクタ(無線通信の場合はアンテナ)112は、通信部110をプリンタなどの外部機器と接続する。
The
コネクタ112にプリンタが接続された場合、例えば、記録媒体200に記録された画像ファイル(画像データ)がプリンタに転送されて、PCなどを用いることなく直接プリンタによって画像の印刷を行うことができる。
When a printer is connected to the
光学ファインダ104を用いれば、画像表示部28による電子ファインダ機能を使用することなく撮影を行うことが可能である。
If the
また、光学ファインダ104には表示部54の一部に表示される表示内容の一部、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、および露出補正表示が表示される。
The
システム制御回路50は、撮影可能なモードにおいてモードダイアルスイッチ60によって電源86のオンが行われると、各種撮影準備動作を行う。そして、撮影準備動作が完了すると、システム制御回路50はメモリ制御回路22を制御して画像表示部28にスルー画像を表示する。
The
ここで、スルー画像とは、静止画を撮影する前後においてファインダ機能を実行するため撮像素子14によって撮像された画像のことをいう。
Here, the through image refers to an image captured by the
スルー画像表示状態においては、撮像素子14、A/D変換器16、画像処理回路20、およびメモリ制御回路22を介して画像表示メモリ24に逐次書き込まれた画像データが、メモリ制御回路22およびD/A変換器26を介して画像表示部28に逐次送られる。これによって、電子ビューファインダ(EVF)機能が行われる。
In the through image display state, the image data sequentially written to the image display memory 24 via the
図2は、図1に示すカメラで行われるエッジ抽出処理を説明するための図である。そして、図2(a)は元画像を示す図であり、図2(b)は元画像にハイパスフィルタ処理を施した画像を示す図である。また、図2(c)は元画像のエッジ領域を示す図であり、図2(d)は元画像を縮小してハイパスフィルタ処理を施した画像を示す図である。さらに、図2(e)は図2(d)に示す画像のエッジ領域を示す図であり、図2(f)は図2(c)に示すエッジ領域と図2(e)に示すエッジ領域とを合成した結果を示す図である。 FIG. 2 is a diagram for explaining edge extraction processing performed by the camera shown in FIG. FIG. 2A is a diagram illustrating an original image, and FIG. 2B is a diagram illustrating an image obtained by performing high-pass filter processing on the original image. FIG. 2C is a diagram illustrating an edge region of the original image, and FIG. 2D is a diagram illustrating an image obtained by reducing the original image and performing high-pass filter processing. Further, FIG. 2 (e) is a diagram showing the edge region of the image shown in FIG. 2 (d), and FIG. 2 (f) is the edge region shown in FIG. 2 (c) and the edge region shown in FIG. 2 (e). It is a figure which shows the result of having synthesize | combined.
図2(a)に示す画像は撮影の結果得られた画像を示す元画像であり、当該元画像は画像処理回路20において生成されたYUV画像である。そして、図示の元画像には主被写体201と背景202が存在する。
The image shown in FIG. 2A is an original image showing an image obtained as a result of photographing, and the original image is a YUV image generated in the
画像処理回路20において装置図2(a)に示す元画像に対してハイパスフィルタ処理(HPF)を施すと図2(b)に示す画像が得られる。図示の画像において、主被写体領域203はエッジ信号およびノイズ信号を有している。ここでは、説明の便宜上、主被写体領域203にのみノイズ信号が存在するとする。
When the
そして、画像処理回路20はシステム制御回路50の制御下で、図2(b)に示す画像を複数のブロック204に分割する。図示の例では、画像は8×8個のブロック204に分割される。
Then, the
システム制御回路50は画像処理回路20を制御して、ブロック204毎にそのエッジを検出して、図2(c)に示すエッジ領域205を得る。ここでは、黒地領域で示すように主被写体領域に含まれるエッジ信号およびノイズ信号をエッジ領域と判定する。
The
ここで、元画像を縮小してエッジ抽出を行う手法について説明する。 Here, a method for performing edge extraction by reducing the original image will be described.
まず、画像処理回路20はシステム制御回路50の制御下で、図2(a)に示す元画像を縮小して縮小画像とする。そして、画像処理回路20は当該縮小画像に対してハイパスフィルタ処理を施して、図2(d)に示す画像を得る。図2(d)に示す画像では元画像を縮小した後、ハイパスフィルタ処理を施しているので、ノイズレベルが相対的に低下する。この結果、図2(d)に示す画像においては主被写体領域206にはエッジ信号のみが含まれるとみなしてよい。
First, the
そして、画像処理回路20はシステム制御回路50の制御下で、図2(d)に示す画像を複数のブロック207に分割する。図示の例では、画像は4×4個のブロック207に分割される。
Then, the
システム制御回路50は画像処理回路20を制御して、ブロック207毎にそのエッジを検出して、図2(e)に示すエッジ領域208を得る。ここでは、黒地領域で示すように主被写体領域に含まれるエッジ信号をエッジ領域と判定する。
The
続いて、システム制御回路50は画像処理回路20を制御して、図2(c)に示すエッジ領域205と図2(e)に示すエッジ領域208とを合成して図2(f)に示すエッジ領域を得る。
Subsequently, the
つまり、ノイズ信号を含む等倍画像に係るエッジ領域と、位置精度が粗くなるもののノイズ信号を含まない縮小画像のエッジ領域とを合成することによって、黒地領域で示すようにノイズの影響を低減したエッジ領域209を得ることができる。
In other words, the influence of noise was reduced, as shown by the black background area, by combining the edge area related to the 1X image including the noise signal and the edge area of the reduced image that does not include the noise signal, although the positional accuracy is coarse. An
図3は、図1に示すカメラで行われるエッジ抽出処理を説明するためのブロック図である。なお、図3に示すエッジ抽出処理はシステム制御回路50の制御下で行われる。
FIG. 3 is a block diagram for explaining edge extraction processing performed by the camera shown in FIG. The edge extraction process shown in FIG. 3 is performed under the control of the
まず、画像処理回路50に画像データ(ここでは、RGB信号)が与えられて、画像信号は当該RGB信号を現像して元画像であるYUV信号を得る(S306)。
First, image data (RGB signal here) is given to the
第1の系(S301)においては、等倍画像でエッジ判定が行われる。画像処理回路50は元画像に対してハイパスフィルタ処理を施した後(S307)、前述のようにブロック分割する。
In the first system (S301), edge determination is performed on the same-size image. The
そして、画像処理回路50はブロック毎にハイパスフィルタ処理後の画像を積分して(つまり、ブロック毎に画素の積分を行う:S308)、当該積分結果が所定の閾値以上となったブロックをエッジ領域と判定し(S309)、第1のエッジ判定結果(第1のエッジ領域)を得る。なお、エッジ判定結果はエッジ検出結果ともいう。
Then, the
第2の系においては(S302)、第1の縮小率で縮小した結果得られた第1の縮小画像でエッジ判定が行われる。画像処理回路20は元画像を第1の縮小率で縮小して第1の縮小画像を得た後(S311)、当該第1の縮小画像に対してハイパスフィルタ処理を施す(S312)。
In the second system (S302), edge determination is performed on the first reduced image obtained as a result of reduction at the first reduction rate. The
画像処理回路20はハイパスフィルタ処理後の画像を複数のブロックに分割して、ブロック毎にハイパスフィルタ処理後の画像を積分する(S313)。そして、画像処理回路20は当該積分結果が所定の閾値以上となったブロックをエッジ領域と判定して(S314)、エッジ判定結果を得る。
The
続いて、画像処理回路50は、このエッジ判定結果を第1の縮小率と同率の第1の倍率で拡大して元に戻して第2のエッジ判定結果(第2のエッジ領域)とする(S315)。
Subsequently, the
第3の系においては(S303)において、第1の縮小率よりも縮小率が大きい第2の縮小率で縮小した結果得られた第2の縮小画像でエッジ判定が行われる。画像処理回路20は元画像を第2の縮小率で縮小して第2の縮小画像を得た後(S317)、当該第2の縮小画像に対してハイパスフィルタ処理を施す(S318)。
In the third system (S303), edge determination is performed on the second reduced image obtained as a result of reduction at the second reduction rate that is larger than the first reduction rate. The
画像処理回路20はハイパスフィルタ処理後の画像を複数のブロックに分割して、ブロック毎にハイパスフィルタ処理後の画像を積分する(S319)。そして、画像処理回路20は当該積分結果が所定の閾値以上となったブロックをエッジ領域と判定して(S320)、エッジ判定結果を得る。
The
続いて、画像処理回路50は、このエッジ判定結果を第2の縮小率と同率の第2の倍率で拡大して元に戻して第3のエッジ判定結果(第3のエッジ領域)とする(S321)。
Subsequently, the
第4の系においては(S304)、輝度信号を用いてエッジ判定が行われる。まず、画像処理回路20は元画像を複数のブロックに分割する(S323)。そして、画像処理回路20はブロック毎に輝度信号(つまり、画素毎の輝度値)を積分して輝度積分値を得る。
In the fourth system (S304), edge determination is performed using the luminance signal. First, the
続いて、画像処理回路20は輝度積分値が予め設定された範囲にあるブロックをグルーピングして輝度グループ領域を得る(S324)。そして、画像処理回路20は輝度グループ領域の境界をエッジと判定して、第4のエッジ判定結果(第4のエッジ領域)を得る(S325)。
Subsequently, the
第5の系においては(S305)、色差信号を用いてエッジ判定が行われる。まず、画像処理回路20は元画像を複数のブロックに分割する(S327)。そして、画像処理回路20はブロック毎に色差信号を積分して色差積分値を得る。
In the fifth system (S305), edge determination is performed using the color difference signal. First, the
続いて、画像処理回路20は色差積分値が予め設定された範囲にあるブロックをグルーピングして色差グループ領域を得る(S328)。そして、画像処理回路20は色差グループ領域の境界をエッジと判定して、第5のエッジ判定結果(第5のエッジ領域)を得る(S329)。
Subsequently, the
上述のようにして、システム制御回路50は画像処理回路20によって第1〜第5のエッジ判定結果を得た後、システム制御回路50は、所定の第4の合成比率k4によって第4のエッジ判定結果と第5のエッジ判定結果とを合成して、第4の合成エッジ判定結果を得る(S326)。ここでは、第4のエッジ判定結果はk4倍され、第5のエッジ判定結果は(1−k4)倍される。
As described above, after the
続いて、システム制御回路50は、所定の第3の合成比率k3によって第3のエッジ判定結果と第4の合成エッジ判定結果とを合成して、第3の合成エッジ判定結果を得る(S322)。ここでは、第3のエッジ判定結果はk3倍され、第4の合成エッジ判定結果は(1−k3)倍される。
Subsequently, the
次に、システム制御回路50は、所定の第2の合成比率k2によって第2のエッジ判定結果と第3の合成エッジ判定結果とを合成して、第2の合成エッジ判定結果を得る(S316)。ここでは、第2のエッジ判定結果はk2倍され、第3の合成エッジ判定結果は(1−k2)倍される。
Next, the
さらに、システム制御回路50は、所定の第1の合成比率k1によって第1のエッジ判定結果と第2の合成エッジ判定結果とを合成して、第1の合成エッジ判定結果を得る(S310)。ここでは、第1のエッジ判定結果はk1倍され、第2の合成エッジ判定結果は(1−k1)倍される。そして、システム制御回路50は第1の合成エッジ判定結果を、主被写体のエッジ領域とする。
Further, the
なお、上述の例では、元画像を縮小してノイズレベルを相対的に低減するようにしたが、元画像を縮小することなく、ローパスフィルタ処理を行ってノイズレベルを低減するようにしてもよい。 In the above example, the noise level is relatively reduced by reducing the original image. However, the noise level may be reduced by performing low-pass filter processing without reducing the original image. .
つまり、元画像を縮小処理する代わりに、元画像に対してローパスフィルタ処理を施してローパスフィルタ処理済み画像を生成する。そして、縮小画像の代わりにローパスフィルタ処理済み画像を用い、撮影感度又はノイズレベルに応じて、ローパスフィルタ処理に係る係数を変更する。 That is, instead of reducing the original image, low-pass filter processing is performed on the original image to generate a low-pass filtered image. Then, the low-pass filtered image is used instead of the reduced image, and the coefficient related to the low-pass filter processing is changed according to the photographing sensitivity or the noise level.
図4は、図3に示すエッジ判定結果を合成する際に用いられる合成比率k1〜k4のテーブルの一例を示す図である。 FIG. 4 is a diagram illustrating an example of a table of combination ratios k1 to k4 used when combining the edge determination results illustrated in FIG.
合成比率k1〜k4を設定する際には、撮影者の設定による感度条件(撮影感度)又はカメラの自動設定による感度条件、又はノイズレベルに応じて第1の設定〜第5の設定のいずれかが選択される。ここでは、まず、撮影感度を例に挙げて説明する。なお、図4に示すテーブルは、例えば、図1に示す不揮発性メモリ31に格納されている。
When setting the combination ratios k1 to k4, one of the first setting to the fifth setting according to the sensitivity condition (shooting sensitivity) set by the photographer, the sensitivity condition set automatically by the camera, or the noise level. Is selected. Here, first, the imaging sensitivity will be described as an example. The table shown in FIG. 4 is stored in, for example, the
システム制御回路50は、撮影感度(例えば、ISO)が予め定められた第1の感度以下であると、第1の設定を選択する。撮影感度が第1の感度以下の際には、ノイズの影響を受けることなく、高精度でエッジ領域の判定を行うことができるので、ここでは、第1の合成比率k1=1として、第1の系(S301)のみを用いてエッジ領域の判定が行われる。
The
この結果、システム制御回路50は第1のエッジ判定結果を第1の合成エッジ判定結果として出力することになる。
As a result, the
なお、撮影感度が第1の感度以下の際には、第2の合成比率k2〜第4の合成比率k4は用いられない。 When the photographing sensitivity is equal to or lower than the first sensitivity, the second synthesis ratio k2 to the fourth synthesis ratio k4 are not used.
撮影感度が第1の感度を超え、当該第1の感度よりも高い第2の感度以下であると、システム制御回路50は、第2の設定を選択する。ここでは、第1の合成比率k1=0.5、第2の合成比率k2=1として、第1の系(S301)および第2の系(S302)を用いてエッジ領域の判定が行われる。
When the photographing sensitivity exceeds the first sensitivity and is equal to or lower than the second sensitivity higher than the first sensitivity, the
この結果、システム制御回路50は、第2のエッジ判定結果を第2の合成エッジ判定結果とし、当該第2の合成エッジ判定結果と第1のエッジ判定結果とをそれぞれ0.5倍して合成し、第1の合成エッジ判定結果を出力する。
As a result, the
なお、撮影感度が第1の感度を超え第2の感度以下であると、第3の合成比率k3および第4の合成比率k4は用いられない。 Note that if the photographing sensitivity exceeds the first sensitivity and is equal to or lower than the second sensitivity, the third synthesis ratio k3 and the fourth synthesis ratio k4 are not used.
撮影感度が第2の感度を超え、当該第2の感度よりも高い第3の感度以下であると、システム制御回路50は、第3の設定を選択する。ここでは、第1の合成比率k1=0、第2の合成比率k2=0.5、そして、第3の合成比率k3=1として、第1の系(S301)〜第3の系(S303)を用いてエッジ領域の判定が行われる。
When the photographing sensitivity exceeds the second sensitivity and is equal to or lower than the third sensitivity higher than the second sensitivity, the
この結果、システム制御回路50は、k3=1であるから第3のエッジ判定結果を第3の合成エッジ判定結果とし、K2=0.5であるから当該第3の合成エッジ判定結果と第2のエッジ判定結果とをそれぞれ0.5倍して合成し、第2の合成エッジ判定結果を出力する。
As a result, since k3 = 1, the
そして、システム制御回路50は、k1=0であるから、第2の合成エッジ判定結果を第1の合成判定結果として出力する。
Then, since k1 = 0, the
なお、撮影感度が第2の感度を超え第3の感度以下であると、第4の合成比率k4は用いられない。 Note that if the photographing sensitivity exceeds the second sensitivity and is equal to or lower than the third sensitivity, the fourth combination ratio k4 is not used.
撮影感度が第3の感度を超え、当該第3の感度よりも高い第4の感度以下であると、システム制御回路50は、第4の設定を選択する。撮影感度が第3の感度を超え第4の感度以下の場合には、ノイズレベルの上昇によってハイパスフィルタ処理によるエッジ領域判定では精度が落ちるので、輝度信号の輝度レベルをエッジ領域の判定を用いる。
When the photographing sensitivity exceeds the third sensitivity and is equal to or lower than the fourth sensitivity higher than the third sensitivity, the
ここでは、第1の合成比率k1=0、第2の合成比率k2=0、第3の合成比率k3=0.5、そして、第4の合成比率k4=1として、第1の系(S301)〜第4の系(S304)を用いてエッジ領域の判定が行われる。 Here, it is assumed that the first synthesis ratio k1 = 0, the second synthesis ratio k2 = 0, the third synthesis ratio k3 = 0.5, and the fourth synthesis ratio k4 = 1, the first system (S301 The edge region is determined using the fourth system (S304).
この結果、システム制御回路50は、k4=1であるから第4のエッジ判定結果を第4の合成エッジ判定結果とし、K3=0.5であるから当該第4の合成エッジ判定結果と第3のエッジ判定結果とをそれぞれ0.5倍して合成し、第3の合成エッジ判定結果を出力する。
As a result, since k4 = 1, the
そして、システム制御回路50は、k2=K1=0であるから、第3の合成エッジ判定結果を第2の合成判定結果として出力し、第2の合成判定結果を第1の合成判定結果として出力することになる。
Since k2 = K1 = 0, the
撮影感度が第4の感度を超えると、システム制御回路50は、第5の設定を選択する。撮影感度が第4の感度を超えると、ノイズレベルの上昇によってハイパスフィルタ処理によるエッジ領域判定ではさらに精度が落ちるので、輝度信号の輝度レベルと色差信号とをエッジ領域の判定を用いる。
When the photographing sensitivity exceeds the fourth sensitivity, the
ここでは、第1の合成比率k1=0、第2の合成比率k2=0、第3の合成比率k3=0.33、そして、第4の合成比率k4=0.5として、第1の系(S301)〜第4の系(S304)を用いてエッジ領域の判定が行われる。 Here, it is assumed that the first synthesis ratio k1 = 0, the second synthesis ratio k2 = 0, the third synthesis ratio k3 = 0.33, and the fourth synthesis ratio k4 = 0.5. The edge region is determined using (S301) to the fourth system (S304).
この結果、システム制御回路50は、k4=0.5であるから第5のエッジ判定結果と第4のエッジ判定結果とをそれぞれ0.5倍して合成し、第4の合成エッジ判定結果を出力する。
As a result, since k4 = 0.5, the
さらに、K3=0.33であるから、システム制御回路50は第4の合成エッジ判定結果を0.67倍し、第3のエッジ判定結果を0.33倍して合成し、第3の合成エッジ判定結果を出力する。
Furthermore, since K3 = 0.33, the
そして、システム制御回路50は、k2=K1=0であるから、第3の合成エッジ判定結果を第2の合成判定結果として出力し、第2の合成判定結果を第1の合成判定結果として出力することになる。
Since k2 = K1 = 0, the
なお、上述の説明では、撮影感度を例に挙げて説明したが、画像におけるノイズレベルによって第1の設定〜第4の設定のいずれかを選択するようにしてもよい。 In the above description, the shooting sensitivity has been described as an example, but any one of the first setting to the fourth setting may be selected depending on the noise level in the image.
つまり、システム制御回路50は、ノイズレベルが第1の閾値レベル以下(第1の閾値以下)であると第1の設定を選択し、ノイズレベルが第1の閾値レベルを超え当該第1の閾値レベルよりも高い第2の閾値レベル以下であると、第2の設定を選択する。
That is, the
同様にして、システム制御回路50は、ノイズレベルが第2の閾値レベルを超え当該第2の閾値レベルよりも高い第3の閾値レベル以下であると、第3の設定を選択する。
Similarly, the
さらに、システム制御回路50は、ノイズレベルが第3の閾値レベルを超え当該第3の閾値レベルよりも高い第4の閾値レベル以下であると、第4の設定を選択する。そして、システム制御回路50は、ノイズレベルが第4の閾値レベルを超えると第5の設定を選択する。
Further, the
図5は、図1に示すカメラで行われるエッジ判定処理の際に用いられるハイパスフィルタおよびローパスフィルタについて説明するための図である。そして、図5(a)はハイパスフィルタの一例を示す図であり、図5(b)はローパスフィルタの一例を示す図である。 FIG. 5 is a diagram for explaining a high-pass filter and a low-pass filter used in the edge determination process performed by the camera shown in FIG. FIG. 5A is a diagram illustrating an example of a high-pass filter, and FIG. 5B is a diagram illustrating an example of a low-pass filter.
図1に示すカメラでは、ハイパスフィルタ又はローパスフィルタを元画像上で1画素ずつ左から右へ、上から下へ移動しつつ、当該フィルタ行列と元画像との演算結果を生成する。 The camera shown in FIG. 1 generates a calculation result between the filter matrix and the original image while moving the high-pass filter or the low-pass filter pixel by pixel on the original image from left to right and from top to bottom.
このように、本発明の実施の形態では、元画像をハイパスフィルタ処理してエッジの判定を行ってエッジ判定結果を得るとともに、撮影感度又はノイズレベルに応じて元画像を縮小してエッジ判定を行ってエッジ判定結果を得て、これらエッジ判定結果を所定の合成比率で合成して最終的なエッジ判定結果を得るようにしたので、常に精度よく被写体を抽出することができる。 As described above, in the embodiment of the present invention, the original image is subjected to high-pass filter processing to perform edge determination to obtain an edge determination result, and the original image is reduced according to photographing sensitivity or noise level to perform edge determination. Since the edge determination results are obtained and these edge determination results are combined at a predetermined combining ratio to obtain the final edge determination result, the subject can always be extracted with high accuracy.
さらに、撮影感度又はノイズレベルが高い場合には、輝度信号および色差信号の少なくとも一方を用いてエッジ判定を行って、そのエッジ判定結果と元画像に応じて得られたエッジ判定結果とを所定の合成比率で合成するようにしたので、撮影感度又はノイズレベルが高い場合にであっても、精度よく被写体を抽出することができる。 Further, when the photographing sensitivity or the noise level is high, edge determination is performed using at least one of the luminance signal and the color difference signal, and the edge determination result and the edge determination result obtained according to the original image are set to a predetermined value. Since the composition is performed at the composition ratio, the subject can be accurately extracted even when the photographing sensitivity or the noise level is high.
上述の説明から明らかなように、図1に示す例においては、少なくとも画像処理回路20およびシステム制御回路50が画像処理装置を構成する。そして、画像処理回路20およびシステム制御回路50は縮小処理手段、第1のエッジ検出手段、第2のエッジ検出手段、合成手段、第3のエッジ検出手段、およびとして機能する。
As is apparent from the above description, in the example shown in FIG. 1, at least the
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .
例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.
上記の制御方法および制御プログラムの各々は、少なくとも縮小処理ステップおよびエッジ検出ステップを有している。 Each of the above control method and control program has at least a reduction processing step and an edge detection step.
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.
14 撮像素子
20 画像処理回路
22 メモリ制御回路
28 画像表示部
40 露光制御部
42 測距制御部
44 ズーム制御部
50 システム制御回路
60 モードダイアルスイッチ
62 シャッターボタン
14
Claims (13)
前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理手段と、
前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力する第1のエッジ検出手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus that extracts a subject in an image obtained as a result of photographing the subject,
A reduction processing means that reduces the image to a reduced image according to the shooting sensitivity at the time of shooting or the noise level in the image;
First edge detection means for detecting an edge of the subject in the reduced image and outputting an edge detection result;
An image processing apparatus comprising:
前記第1のエッジ検出手段の出力であるエッジ検出結果と前記第2のエッジ検出手段の出力であるエッジ検出結果とを合成して最終的なエッジ検出結果とする合成手段とを有することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。 Second edge detection means for detecting an edge of the subject in the original image using the image as an original image;
And combining means for combining the edge detection result output from the first edge detection means and the edge detection result output from the second edge detection means into a final edge detection result. The image processing apparatus according to claim 1.
前記合成手段は、前記撮影感度が前記第2の感度よりも高い第3の感度を超えるか又は前記ノイズレベルが前記第2の閾値よりも高い第4の閾値を超えると、前記第1のエッジ検出手段の出力であるエッジ検出結果と前記第3のエッジ検出手段の出力であるエッジ検出結果とを合成して前記最終的なエッジ検出結果とする請求項7に記載の画像処理装置。 A third edge detecting means for detecting an edge of a subject in the image according to at least one of a luminance signal and a color difference signal in the image;
The synthesizing means may detect the first edge when the photographing sensitivity exceeds a third sensitivity higher than the second sensitivity or when the noise level exceeds a fourth threshold higher than the second threshold. The image processing apparatus according to claim 7, wherein an edge detection result output from the detection unit and an edge detection result output from the third edge detection unit are combined to obtain the final edge detection result.
前記縮小画像の代わりに前記ローパスフィルタ処理済み画像を用い、前記ローパスフィルタ処理手段は前記撮影感度又は前記ノイズレベルに応じて、前記ローパスフィルタ処理に係る係数を変更することを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。 In place of the reduction processing means, low-pass filter processing means for performing low-pass filter processing on the image to generate a low-pass filtered image,
2. The low-pass filter processed image is used instead of the reduced image, and the low-pass filter processing unit changes a coefficient related to the low-pass filter processing according to the photographing sensitivity or the noise level. The image processing apparatus according to any one of 10 to 10.
前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、
前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、
を有することを特徴とする制御方法。 A control method of an image processing apparatus for extracting a subject in an image obtained as a result of photographing the subject,
A reduction processing step to reduce the image to a reduced image according to the shooting sensitivity at the time of shooting or the noise level in the image;
An edge detection step of detecting an edge of the subject in the reduced image and outputting an edge detection result;
A control method characterized by comprising:
前記画像処理装置が備えるコンピュータに、
前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、
前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、
を実行させることを特徴とする制御プログラム。 A control program used in an image processing apparatus for extracting the subject in an image obtained as a result of photographing the subject,
A computer included in the image processing apparatus,
A reduction processing step to reduce the image to a reduced image according to the shooting sensitivity at the time of shooting or the noise level in the image;
An edge detection step of detecting an edge of the subject in the reduced image and outputting an edge detection result;
A control program characterized by causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001736A JP2014135589A (en) | 2013-01-09 | 2013-01-09 | Image processing device, control method therefor, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013001736A JP2014135589A (en) | 2013-01-09 | 2013-01-09 | Image processing device, control method therefor, and control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014135589A true JP2014135589A (en) | 2014-07-24 |
Family
ID=51413592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013001736A Pending JP2014135589A (en) | 2013-01-09 | 2013-01-09 | Image processing device, control method therefor, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014135589A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018195189A (en) * | 2017-05-19 | 2018-12-06 | キヤノン株式会社 | Image processing device, image processing method, and program |
-
2013
- 2013-01-09 JP JP2013001736A patent/JP2014135589A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018195189A (en) * | 2017-05-19 | 2018-12-06 | キヤノン株式会社 | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5366584B2 (en) | Imaging apparatus, image processing method, and program | |
JP5363157B2 (en) | Imaging device and live view display method | |
JP5667726B2 (en) | Interchangeable lens camera and viewfinder display method | |
JP5607260B2 (en) | Imaging apparatus, imaging method, and program | |
JP6827854B2 (en) | Image processing equipment and methods, and imaging equipment | |
JP2007081732A (en) | Imaging apparatus | |
JP5513244B2 (en) | Image processing apparatus, control method therefor, and imaging apparatus | |
JP6192416B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP6116436B2 (en) | Image processing apparatus and image processing method | |
JP2006276683A (en) | Imaging apparatus and program | |
JP2012090041A (en) | Image processing device, method, and program | |
JP2014143457A (en) | HDR switching control method | |
JP5828663B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP6353585B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
JP2014135589A (en) | Image processing device, control method therefor, and control program | |
JP4401974B2 (en) | Imaging apparatus and control method thereof | |
KR20130092213A (en) | Digital photographing apparatus and control method thereof | |
JP6611566B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP6433177B2 (en) | Image processing apparatus and image processing method | |
US20230239564A1 (en) | Image processing device, imaging device, method for controlling image processing device, and storage medium | |
JP6645612B1 (en) | Imaging device and electronic equipment | |
JP2017038300A (en) | Image processing apparatus and method | |
JP2008060844A (en) | Image processor and image processing method | |
JP2016163327A (en) | Image processing apparatus, image processing method, and program | |
JP6245802B2 (en) | Image processing apparatus, control method thereof, and control program |