JP5935581B2 - Imaging apparatus, image processing apparatus, image processing method, and image processing program - Google Patents
Imaging apparatus, image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP5935581B2 JP5935581B2 JP2012173060A JP2012173060A JP5935581B2 JP 5935581 B2 JP5935581 B2 JP 5935581B2 JP 2012173060 A JP2012173060 A JP 2012173060A JP 2012173060 A JP2012173060 A JP 2012173060A JP 5935581 B2 JP5935581 B2 JP 5935581B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- subject
- extraction
- area
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 57
- 238000012545 processing Methods 0.000 title claims description 57
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000605 extraction Methods 0.000 claims description 127
- 238000011156 evaluation Methods 0.000 claims description 111
- 238000000034 method Methods 0.000 claims description 39
- 238000010187 selection method Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 description 12
- 239000000284 extract Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 241000272525 Anas platyrhynchos Species 0.000 description 3
- 241001481833 Coryphaena hippurus Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、撮像装置、画像処理装置、画像処理方法、画像処理プログラムに関する。 The present invention relates to an imaging device, an image processing device, an image processing method, and an image processing program.
従来、撮影画像から被写体を抽出し、その被写体に適した撮影条件(撮影距離や露出など)を自動設定するカメラが知られている(例えば特許文献1等を参照。)。近年になると、カメラがリアルタイムで取得する動画像に応じてこの設定を繰り返す技術も提案された。 2. Description of the Related Art Conventionally, a camera that extracts a subject from a photographed image and automatically sets photographing conditions (such as a photographing distance and exposure) suitable for the subject is known (see, for example, Patent Document 1). In recent years, a technique has been proposed in which this setting is repeated according to a moving image acquired by the camera in real time.
しかしながら、ユーザがカメラの構図に迷っている場合などには、被写体の抽出結果が不安定となり、撮影に悪影響を及ぼす虞がある。 However, when the user is at a loss in the composition of the camera, the subject extraction result becomes unstable, which may adversely affect shooting.
本発明の撮像装置は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段と、前記抽出手段が抽出した複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、を備える。 An image pickup apparatus according to the present invention includes an extraction unit that extracts a plurality of subject candidate regions based on a plurality of types of extraction criteria from each of a plurality of frames that are sequentially generated by an image sensor, and a plurality of subject candidate regions that are extracted by the extraction unit. Creating an evaluation history by storing at least a predetermined frame period, an evaluation means for evaluating the likelihood of the subject for each of the above, and a type of extraction criterion for the subject candidate area highly evaluated by the evaluation means And means for selecting a subject area of the current frame based on the evaluation result regarding the current frame and the evaluation history regarding the past frame.
本発明の画像処理装置は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段と、前記抽出手段で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、を備える。 An image processing apparatus according to the present invention includes: an extraction unit that extracts a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by an image sensor, and a plurality of subjects that are extracted by the extraction unit; An evaluation history is created by storing at least a predetermined frame period the evaluation means for evaluating the likelihood of subject for each of the candidate areas, and the types of extraction criteria for the subject candidate areas highly evaluated by the evaluation means. And creating means for selecting the subject area of the current frame based on the result of the evaluation relating to the current frame and the evaluation history relating to the past frame.
本発明の画像処理方法は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手順と、前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、を含む。 An image processing method according to the present invention includes an extraction procedure for extracting a plurality of subject candidate areas from each of a plurality of frames that are sequentially generated by an image sensor according to a plurality of types of extraction criteria, and a plurality of subjects extracted by the extraction procedure. An evaluation history is created by storing at least a predetermined frame period an evaluation procedure for evaluating the likelihood of a subject for each candidate region, and the types of extraction criteria for the subject candidate region highly evaluated by the evaluation procedure. And a selection procedure for selecting a subject area of the current frame based on the evaluation result regarding the current frame and the evaluation history regarding the past frame.
本発明の画像処理プログラムは、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手順と、前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、をコンピュータに実行させる。 An image processing program according to the present invention includes an extraction procedure for extracting a plurality of subject candidate regions based on a plurality of types of extraction criteria from each of a plurality of frames sequentially generated by an image sensor, and a plurality of subjects extracted by the extraction procedure. An evaluation history is created by storing at least a predetermined frame period an evaluation procedure for evaluating the likelihood of a subject for each candidate region, and the types of extraction criteria for the subject candidate region highly evaluated by the evaluation procedure. And a selection procedure for selecting a subject area of the current frame based on the creation procedure to be performed, the result of the evaluation for the current frame, and the evaluation history for the past frame.
本発明によれば、被写体の選出結果を安定させることができる。 According to the present invention, a subject selection result can be stabilized.
[実施形態]
以下、本発明の実施形態として撮像装置(電子カメラ)を説明する。
[Embodiment]
Hereinafter, an imaging apparatus (electronic camera) will be described as an embodiment of the present invention.
図1は、電子カメラの構成例を示す図である。図1に示すとおり電子カメラ11には、撮影光学系12と、撮像部13と、画像処理エンジン14と、第1メモリ15と、第2メモリ16と、記録I/F17と、表示部18と、操作部19とが備えられる。このうち撮像部13、第1メモリ15、第2メモリ16、記録I/F17、表示部18、操作部19の各々は、画像処理エンジン14に接続されている。また、操作部19は、ユーザの操作(例えば撮影指示など)を受け付けるスイッチである。
FIG. 1 is a diagram illustrating a configuration example of an electronic camera. As shown in FIG. 1, the
撮影光学系12は、AFのためのフォーカシングレンズを含む複数のレンズで構成される。なお、図1では、簡単のため撮影光学系12を1枚のレンズで表す。
The photographing
撮像部13は、撮影光学系12が形成した被写界の像を撮像するモジュールである。例えば、撮像部13は、光電変換を行う撮像素子と、撮像素子の出力に対してアナログ信号処理やA/D変換処理などを施す信号処理回路とを含んでいる。また、撮像素子の撮像面には、例えば公知のベイヤ配列に従ってRGBのカラーフィルタが配置されている。これによって撮像素子は、カラー画像を取得することができる。
The
また、電子カメラ11が撮像モードであるとき、撮像部13は、観測用の画像(スルー画像)を繰り返し取得する。また、撮像部13は、ユーザの撮影指示に応じて記録用の画像(詳細画像)を取得する。また、電子カメラ11が撮像モードであるとき、なお、撮像部13で取得された画像のデータは、画像処理エンジン14に入力される。
In addition, when the
画像処理エンジン14は、電子カメラ11の動作を統括的に制御するプロセッサである。例えば、画像処理エンジン14は、撮像モードにおいて、スルー画像を用いたAF制御、AE制御などを行う。また、画像処理エンジン14は、撮像部13が取得した画像のデータに対して、色補間、ホワイトバランス補正、階調変換、色空間変換などの画像処理を施す。さらに、画像処理エンジン14は、プログラムの実行により、候補抽出部21、評価部22、履歴作成部23、被写体選出部24として機能する。なお、候補抽出部21、評価部22、履歴作成部23、被写体選出部24の動作については後述する。
The
第1メモリ15は、画像のデータ等を一時的に記憶するメモリであって、例えば揮発性の記憶媒体であるSDRAMで構成される。また、第2メモリ16は、画像処理エンジン14で実行するプログラムや、このプログラムで使用される各種データを記憶するメモリであって、例えばフラッシュメモリ等の不揮発性メモリで構成される。
The
記録I/F17は、不揮発性の記憶媒体20を接続するためのコネクタを有している。そして、記録I/F17は、コネクタに接続された記憶媒体20に対して画像のデータの書き込み/読み込みを実行する。なお、記憶媒体20は、例えば、ハードディスクや、半導体メモリを内蔵したメモリカードである。なお、図1では記憶媒体20の一例としてメモリカードを図示する。
The recording I /
表示部18は、例えば、電子カメラ11の背面に設けられた液晶モニタである。この表示部18は、スルー画像のリアルタイム表示や、詳細画像の再生表示、詳細画像の撮影後確認表示などを行う。
The
図2は、撮像モードにおける画像処理エンジン14の動作フローチャートである。以下、図2の各ステップを順に説明する。なお、この撮像モードは、静的な被写体の撮影に有効な「被写体追尾機能」を有している。
FIG. 2 is an operation flowchart of the
ステップS11:画像処理エンジン14は、撮像部13を駆動してスルー画像を取得すると共に、そのスルー画像を表示部18へ送出する。なお、このスルー画像の取得及び表示は、例えば1/30秒のフレーム周期で繰り返され、その結果、カメラの被写界の様子が表示部18にリアルタイムで表示される(ビューファインダ表示)。
Step S11: The
ここでは、図3に示すようなスルー画像が順次に取得されたと仮定する。図3では、各フレームのスルー画像に対して取得順序を表す番号(フレーム番号)を付した。因みに、図3に示した各スルー画像は、おおよそ以下の状況で取得されたものである。 Here, it is assumed that through images as shown in FIG. 3 are acquired sequentially. In FIG. 3, a number (frame number) indicating the acquisition order is assigned to the through image of each frame. Incidentally, each through image shown in FIG. 3 is acquired under the following conditions.
・フレーム番号#1〜#10:カメラの構図の主要部としてイルカの遊具が捉えられている期間。
・フレーム番号#11〜#13:カメラの構図の主要部がイルカの遊具からアヒルの遊具へと移行する期間。
・フレーム番号#14〜#23:カメラの構図の主要部としてアヒルの遊具が捉えられている期間。 Frame numbers # 14 to # 23: A period in which a duck playground equipment is captured as the main part of the camera composition.
・フレーム番号#24:カメラの構図の主要部がアヒルの遊具からイルカの遊具へと移行する期間。 Frame number # 24: A period during which the main part of the camera composition transitions from a duck playground equipment to a dolphin playground equipment.
なお、本実施形態では、各フレームのスルー画像が取得される毎に(すなわち1フレーム周期内に)、以下のステップS12〜S19の処理が実行されるものと仮定する。 In the present embodiment, it is assumed that the following steps S12 to S19 are executed every time a through image of each frame is acquired (that is, within one frame period).
ステップS12:画像処理エンジン14の候補抽出部21は、抽出基準の異なる複数種類の抽出処理によりスルー画像から被写体候補領域を抽出する。抽出処理の詳細は後述するが、ここでは、以下の9通りの抽出区分の抽出処理が採用されたと仮定する。
Step S12: The
・第1の抽出区分:輝度方向(Y方向)の閾値Y1による抽出処理。 First extraction category: extraction processing based on a threshold value Y1 in the luminance direction (Y direction).
・第2の抽出区分:第1色差方向(Cb方向)の閾値B1による抽出処理。 Second extraction category: extraction processing based on a threshold B1 in the first color difference direction (Cb direction).
・第3の抽出区分:第2色差方向(Cr方向)の閾値R1による抽出処理。 Third extraction category: extraction processing based on the threshold R1 in the second color difference direction (Cr direction).
・第4の抽出区分:Y方向の閾値Y2(Y2<Y1)による抽出処理。 Fourth extraction category: extraction processing based on a Y-direction threshold Y2 (Y2 <Y1).
・第5の抽出区分:Cb方向の閾値B2(B2<B1)による抽出処理。 Fifth extraction category: extraction processing based on the threshold value B2 (B2 <B1) in the Cb direction.
・第6の抽出区分:Cr方向の閾値R2(R2<R1)による抽出処理。 Sixth extraction category: extraction processing based on Cr-direction threshold R2 (R2 <R1).
・第7の抽出区分:Y方向の閾値Y3(Y3<Y2)による抽出処理。 Seventh extraction category: extraction processing based on a Y-direction threshold Y3 (Y3 <Y2).
・第8の抽出区分:Cb方向の閾値B3(B2<B2)による抽出処理。 Eighth extraction category: extraction processing based on the threshold value B3 (B2 <B2) in the Cb direction.
・第9の抽出区分:Cr方向の閾値R3(R3<R2)による抽出処理。 Ninth extraction category: extraction processing based on a Cr direction threshold R3 (R3 <R2).
図4は、抽出された被写体候補領域を抽出区分毎に示す図である。図4において、白画素(画素値=1)のまとまりが個々の被写体候補領域を示しており、黒画素(画素値=ゼロ)の存在領域は、被写体候補領域以外の領域を示している。但し、本ステップにおける候補抽出部21は、抽出された被写体候補領域の中から、一定の基準を満たさないものについては、被写体候補領域から除外する。一定の基準を満たさないものとは、例えば、フレーム内における被写体候補領域の総面積と比して面積が一定未満であるものや、フレームの縁部にかかっているものなどである。
FIG. 4 is a diagram showing the extracted subject candidate areas for each extraction section. In FIG. 4, a group of white pixels (pixel value = 1) indicates individual subject candidate regions, and an existence region of black pixels (pixel value = 0) indicates a region other than the subject candidate regions. However, the
ステップS13:画像処理エンジン14の評価部22は、ステップS12で抽出された被写体候補領域の各々について、被写体らしさの評価値を算出する。個々の被写体候補領域の評価値は、例えば以下の式によって算出することができる。
Step S13: The
評価値=((領域内の画素数)^γ)/(慣性モーメント)、
慣性モーメント=(モーメント中心から画素までの距離の二乗)の領域内総和
なお、式における「γ」は、1以上の所定値であり、「モーメント中心」は、前フレームから選出された被写体領域(後述)の位置に応じて設定された座標である。具体的には、前フレームから選出された被写体領域の重心、前フレームから選出された被写体領域の包絡枠の中心の何れかに設定される。なお、被写体領域の重心(領域内の画素値の分布も考慮する)の代わりに、被写体領域の中心(領域内の画素値の分布は考慮せず)を使用してもよい。また、現フレームが初期フレーム(撮像モードの開始当初のフレーム)であった場合や、前フレームから被写体領域が1つも選出されなかった場合には、フレームの中心をモーメント中心とする。
Evaluation value = ((number of pixels in region) ^ γ) / (moment of inertia),
Inertia moment = (the square of the distance from the moment center to the pixel) in the region “γ” in the equation is a predetermined value of 1 or more, and “moment center” is the subject region selected from the previous frame ( The coordinates are set in accordance with the position (to be described later). Specifically, it is set to either the center of gravity of the subject area selected from the previous frame or the center of the envelope frame of the subject area selected from the previous frame. Instead of the center of gravity of the subject area (considering the distribution of pixel values in the area), the center of the subject area (not considering the distribution of pixel values in the area) may be used. Further, when the current frame is an initial frame (a frame at the start of the imaging mode) or when no subject area is selected from the previous frame, the center of the frame is set as the moment center.
したがって、面積が広く、まとまり度が高く、前フレームの被写体領域(又はフレーム中央)に近い被写体候補領域ほど、被写体らしさの評価値は高くなる。例えば、図5に示す2つの被写体候補領域5A、5Bを比較すると、2つの被写体候補領域5A、5Bの間では、面積やまとまり度の差異は小さいが、モーメント中心(図5における×印)からの距離は被写体候補領域5Bの方が確実に短いので、被写体候補領域5Bの方が慣性モーメントは小さくなり、被写体候補領域5Bの方が被写体らしさの評価値は高くなる。
Therefore, the subject candidate region having a larger area, higher unity, and closer to the subject region (or the center of the frame) of the previous frame has a higher subject-like evaluation value. For example, when the two
続いて、評価部22は、各被写体候補領域を、それらの評価値によって順位付けする。具体的には、各被写体候補領域に対して、評価値の高いものから順に順位を付与する。
Subsequently, the
ここでは、評価部22は、最終的に順位が4位より低位であったものを被写体候補領域から除外し、順位が3位より高位であるもののみを被写体候補領域として残すこととする。
Here, the
なお、本ステップの評価部22は、前述した9つの抽出区分に対して優先順位を予め決めておき、仮に、複数の被写体候補領域の間で評価値が等しくなった場合には、それら被写体候補領域の抽出区分と予め決めた優先順位とに応じて、それら被写体候補領域を順位付けすることが望ましい。
The
ステップS14:画像処理エンジン14の履歴作成部23は、ステップS13において第1位及び第2位となった被写体候補領域の各々の抽出区分を示す番号(区分番号)を、評価履歴へ書き込む。
Step S14: The
但し、履歴作成部23は、現フレームが初期フレームであった場合には、区分番号を書き込む前に、評価履歴における全ての区分番号(履歴データ)をクリアする。また、履歴作成部23は、第2位の被写体候補領域が存在しない場合には、第2位に対応する区分番号が存在しないことを示す符号を評価履歴へ書き込み、第1位の被写体候補領域が存在しない場合には、第1位に対応する区分番号が存在しないことを示す符号を評価履歴へ書き込む。
However, when the current frame is an initial frame, the
図6は、フレーム番号#1〜#24に関する評価履歴のイメージである。なお、図6では24フレーム分の履歴データを示したが、被写体領域の選出(ステップS16)に使用される履歴データは、現フレームを含めて最新5フレーム分の履歴データのみであるので(詳細は後述。)、ここでは、評価履歴のデータサイズを5フレーム分とし、現フレームの履歴データ(区分番号)が評価履歴へ書き込まれる際には、現フレームを含めて最新5フレームより古いフレームの履歴データについては評価履歴から消去される(上書きされる)ものと仮定する。このように、評価履歴を更新する際に不要な履歴データを消去すれば、評価履歴のデータサイズを最小限に抑えることができる。
FIG. 6 is an image of the evaluation history regarding the
ステップS15:画像処理エンジン14は、更新後の評価履歴を参照し、現フレームを含めて最新5フレーム分の履歴データが評価履歴に蓄積済みであるか否かを判別する。そして、最新5フレーム分の履歴データが蓄積済みであった場合は、被写体領域の選出を行うべくステップS16へ移行し、蓄積済みでなかった場合は、被写体領域の選出を省略してステップS11へ戻る。
Step S15: The
ステップS16:画像処理エンジン14の被写体選出部24は、評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に基づき、例えば以下の手順(a)〜(c)により現フレームの被写体候補領域から被写体領域を選出する。ここでは簡単のため、選出される被写体領域の個数を1と仮定する。
Step S16: The
(a)被写体選出部24は、現フレームにおける第1位の被写体候補領域の区分番号が評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に出現した回数をカウントし、その回数が3以上である場合には、その被写体候補領域を現クレームの被写体領域として選出する。但し、その回数が2以下であった場合には、第2位の被写体候補領域の検討を行うために、手順(b)へ移行する。
(A) The
(b)被写体選出部24は、現フレームにおける第2位の被写体候補領域の区分番号が評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に出現した回数をカウントし、その回数が3以上である場合には、その被写体候補領域を現クレームの被写体領域として選出する。但し、その回数が2以下であった場合には、第3位の被写体候補領域の検討を行うために、手順(c)へ移行する。
(B) The
(c)被写体選出部24は、現フレームにおける第3位の被写体候補領域の区分番号が評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に出現した回数をカウントし、その回数が3以上である場合には、その被写体候補領域を現クレームの被写体領域として選出する。但し、その出現の回数が2以下であった場合には、被写体領域の選出を行わずに次のステップS17へ移行する。
(C) The
例えば、図7に示すとおり現フレーム(#i)における第1位の区分番号が「4」であり、現フレーム(#i)における第2位の区分番号が「9」であり、現フレーム(#i)における第3位の区分番号が「3」であり、最新5フレーム分の評価履歴における区分番号「4」の出現回数は1であり、最新5フレーム分の評価履歴における区分番号「9」の出現回数は5であり、最新5フレーム分の評価履歴における区分番号「3」の出現回数はゼロであったとする。 For example, as shown in FIG. 7, the first division number in the current frame (#i) is “4”, the second division number in the current frame (#i) is “9”, and the current frame (#i) The third section number in #i) is “3”, the number of appearances of the section number “4” in the evaluation history for the latest 5 frames is 1, and the section number “9” in the evaluation history for the latest 5 frames is # 1. ”Is 5 and the number of appearances of the classification number“ 3 ”in the evaluation history for the latest 5 frames is zero.
この場合、現フレームにおける第1位の区分番号「4」は、出現回数の基準(3以上)を満たさないために、区分番号4の被写体候補領域が被写体領域として選出されることはなく、第2位である区分番号9の被写体候補領域が被写体領域として選出される。
In this case, since the first division number “4” in the current frame does not satisfy the criterion (3 or more) of the number of appearances, the subject candidate region with the
すなわち、被写体選出部24は、現フレームにおける上位の被写体候補領域であっても、その被写体候補領域の区分番号が評価履歴に一定回数以上に亘って出現していなかった場合には、その被写体候補領域を被写体領域に選出しない。
That is, the
したがって、或る被写体候補領域が被写体領域として選出されるタイミングは、その被写体候補領域が上位となったタイミングではなく、その被写体候補領域の区分番号が候補履歴に一定回数以上出現したタイミングである。 Therefore, the timing at which a certain subject candidate area is selected as the subject area is not the timing at which the subject candidate area is higher, but the timing at which the category number of the subject candidate area appears in the candidate history more than a certain number of times.
このように、或る被写体候補領域が被写体領域に選出されるまでに一定の猶予を設けておけば、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間に、被写体領域の選出結果が不安定になること(頻繁に切り替わること)を防止できる。 In this way, if a certain delay is provided before a certain subject candidate area is selected as the subject area, a period when the camera composition is unstable or even one subject candidate area that satisfies a certain standard appears. It is possible to prevent the selection result of the subject area from becoming unstable (frequent switching) during a period when there is not.
なお、図8には、フレーム番号#1〜#24に関する評価履歴と共に、フレーム番号#1〜#24に関する選出履歴を示した(図8の最下段)。図3、図8を参照すると明らかなとおり、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間(#11〜#13、#24)には、当然ながら、被写体領域は選出されない。また、カメラの構図が安定し、かつ一定基準を満たす被写体候補領域が発現している期間(#1〜#10、#14〜#23)であっても、その期間が一定期間を超えるまで(#4まで、#15まで)は、被写体領域は選出されない。
FIG. 8 shows the selection history for the
ステップS17:画像処理エンジン14は、ステップS16において被写体領域が選出されたか否かを判別し、選出された場合には、枠表示制御・AF制御・AE制御を行うべくステップS18へ移行し、選出されなかった場合には、それらの制御を省略してステップS11へ戻る。
Step S17: The
ステップS18:画像処理エンジン14は、選出された被写体領域の包絡枠のイメージ(枠イメージ)を表示部18上に重畳表示(オーバーレイ表示)する。
Step S18: The
また、画像処理エンジン14は、選出された被写体領域又はその包絡枠を対象としてAF制御を行う。具体的には、選出された被写体領域内又は包絡枠内に写っている物体にピントが合うようにフォーカシングレンズの位置を調整する。
Further, the
また、画像処理エンジン14は、選出された被写体領域又はその包絡枠を対象としてAE制御を行う。具体的には、選出された被写体領域内又は包絡枠内に写っている物体の明るさに適した露出(適正露出)に撮像素子の露出(撮像素子のシャッタースピードと撮影光学系の絞り値との組み合わせ)を調整する。
In addition, the
したがって、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間には、枠表示制御、AF制御、AE制御が休止される。また、カメラの構図が安定し、かつ一定基準を満たす被写体候補領域が発現している期間であっても、その期間が一定期間を超えるまでは、枠表示制御、AF制御、AE制御の各々が猶予される。 Therefore, frame display control, AF control, and AE control are suspended during a period when the composition of the camera is unstable, or during a period when no subject candidate area that satisfies a certain criterion is expressed. Also, even if the camera composition is stable and a subject candidate area that satisfies a certain standard is expressed, each of the frame display control, AF control, and AE control is performed until the period exceeds the certain period. You will be suspended.
図9には、フレーム番号#1〜#24に関する枠表示の様子を示した。図8、図9を参照すると明らかなとおり、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間(#11〜#13、#24)には、被写体領域が選出されないので、枠表示も行われない。また、カメラの構図が安定し、かつ一定基準を満たす被写体候補領域が発現している期間(#1〜#10、#14〜#23)であっても、その期間が一定期間を超えるまで(#4まで、#15まで)は、被写体領域が選出されないので、枠表示も行われない。
FIG. 9 shows the state of frame display for
ステップS19:画像処理エンジン14は、操作部19を介してユーザから撮影指示が入力されたか否かを判別し、入力された場合はステップS20へ移行し、入力されなかった場合はステップS11へ移行する。
Step S19: The
ステップS20:画像処理エンジン14は、撮像部13を駆動して記録用の詳細画像を取得すると、その詳細画像を適切な形式で記憶媒体20へ記録し、フローを終了する。
Step S20: When the
[第1実施形態の作用効果]
以上、本実施形態の撮像装置(11)は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段(21)と、抽出した複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段(22)と、高評価を得た被写体候補領域の抽出基準の種類(区分番号)を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段(23)と、現フレームに関する評価の結果と、過去フレームに関する評価履歴とに基づき、現フレームの被写体領域を選出する選出手段(24)とを備える。
[Effects of First Embodiment]
As described above, the imaging device (11) of the present embodiment has extracted the extraction means (21) that extracts a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by the imaging device, using a plurality of types of extraction criteria. The evaluation means (22) for evaluating the subjectivity for each of the plurality of subject candidate areas, and the type (category number) of extraction criteria for the subject candidate areas that have obtained a high evaluation are stored over at least a predetermined frame period. Thus, a creation means (23) for creating an evaluation history, and a selection means (24) for selecting a subject area of the current frame based on an evaluation result relating to the current frame and an evaluation history relating to the past frame are provided.
したがって、本実施形態の撮像装置(11)は、評価履歴を使用しない場合よりも、被写体領域の選出結果を安定させることができる。 Therefore, the imaging device (11) of the present embodiment can stabilize the selection result of the subject area as compared with the case where the evaluation history is not used.
なお、選出手段(24)は、現フレームにおいて高評価を得た被写体候補領域の抽出基準(区分番号)が、評価履歴に一定以上の回数に亘って登場していた場合にのみ、被写体領域の選出を行う。 Note that the selection means (24) determines the subject region only when the extraction criterion (segment number) of the subject candidate region that has been highly evaluated in the current frame has appeared in the evaluation history for a certain number of times. Select.
したがって、本実施形態の撮像装置(11)では、或る被写体候補領域が被写体領域に選出されるのは、その被写体候補領域が上位となったタイミングではなく、その被写体候補領域の抽出基準の候補履歴における登場回数が一定以上となったタイミングである。 Therefore, in the imaging device (11) of the present embodiment, a subject candidate region is selected as a subject region, not at the timing when the subject candidate region is higher, but as a candidate for extraction criteria for the subject candidate region. This is the timing at which the number of appearances in the history exceeds a certain level.
また、本実施形態の撮像装置(11)は、被写体領域の範囲を示すマークをモニタへ表示する表示制御手段を更に備える。また、本実施形態の撮像装置(11)は、被写体領域を対象として露出制御を行う露出制御手段を更に備える。また、本実施形態の撮像装置(11)は、被写体領域を対象として焦点調節を行う焦点調節手段を更に備える。 The imaging device (11) of the present embodiment further includes display control means for displaying a mark indicating the range of the subject area on the monitor. The imaging apparatus (11) of the present embodiment further includes an exposure control unit that performs exposure control on the subject area. In addition, the imaging apparatus (11) of the present embodiment further includes a focus adjustment unit that performs focus adjustment on the subject area.
したがって、本実施形態の撮像装置(11)は、マークの表示先、撮像装置の露出、撮像装置の焦点の各々を安定させることができる。 Therefore, the imaging device (11) of this embodiment can stabilize each of the mark display destination, the exposure of the imaging device, and the focal point of the imaging device.
また、本実施形態の撮像装置(11)は、評価履歴の作成が開始されてから所定フレーム周期が経過するまでの期間中は、選出手段(24)を休止させる。 Further, the imaging device (11) of the present embodiment pauses the selection means (24) during a period from when the creation of the evaluation history is started until a predetermined frame period elapses.
したがって、本実施形態の撮像装置(11)は、被写体領域の選出結果が不安定となり易い期間の無駄な処理を省略することができる。 Therefore, the imaging apparatus (11) of the present embodiment can omit useless processing during a period in which the subject region selection result is likely to be unstable.
また、抽出手段(21)は、フレームを複数の閾値で二値化することにより複数の二値化画像を生成し、複数の二値化画像の各々から被写体候補領域を抽出する。したがって、複数種類の抽出基準による被写体候補領域の抽出は、確実に行われる。 The extraction means (21) generates a plurality of binarized images by binarizing the frame with a plurality of threshold values, and extracts subject candidate regions from each of the plurality of binarized images. Therefore, the extraction of the subject candidate area based on a plurality of types of extraction criteria is performed reliably.
また、評価手段(22)は、被写体候補領域の慣性モーメントと被写体候補領域の面積とに基づき被写体候補領域の被写体らしさ評価を行う。したがって、被写体らしさの評価は正確に行われる。 The evaluation means (22) evaluates the subject likeness of the subject candidate region based on the moment of inertia of the subject candidate region and the area of the subject candidate region. Therefore, the evaluation of the subjectness is accurately performed.
また、評価手段(22)は、現フレームに関する評価では、慣性モーメントの中心を、前フレームで選出された被写体領域の位置に応じて設定する。したがって、被写体らしさの評価は、より正確に行われる。 The evaluation means (22) sets the center of the moment of inertia in accordance with the position of the subject area selected in the previous frame in the evaluation for the current frame. Accordingly, the evaluation of the subjectness is performed more accurately.
[被写体抽出処理の説明]
以下、被写体抽出処理(ステップS12)を詳しく説明する。この抽出処理は、例えば以下の手順(a)〜(f)からなる。このうち手順(b)、(c)、(d)の順序は、変更が可能である。また、手順(b)、(c)、(d)のうち少なくとも2つの手順を並列に実行することも可能である。
[Description of subject extraction processing]
Hereinafter, the subject extraction process (step S12) will be described in detail. This extraction process includes, for example, the following procedures (a) to (f). Among these, the order of procedures (b), (c), and (d) can be changed. It is also possible to execute at least two of the procedures (b), (c), and (d) in parallel.
(a)候補抽出部21は、スルー画像に対して色空間変換を施し、スルー画像の色空間をRGB空間からYCbCr空間へと変換する。
(A) The
(b)候補抽出部21は、スルー画像のY成分(Y画像)に対して互いに異なる閾値を使用した複数通り(ここでは3通りとする。)の二値化処理を施し、二値化画像M(Y1)、M(Y2)、M(Y3)を取得する(図4の左列を参照。)。このうち、二値化画像M(Y1)は、Y画像において第1閾値Y1より大きな領域に白画素(画素値=1)を配し、かつそれ以外の領域に黒画素(画素値=ゼロ)を配したものであり、二値化画像M(Y2)は、Y画像において第2閾値Y2(Y2<Y1)より大きな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものであり、二値化画像M(Y3)は、Y画像において第3閾値Y3(Y3<Y2)より小さな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものである。なお、閾値Y1、Y2、Y3は、例えば以下のとおり設定される。
(B) The
Y1=Ave+ασ、
Y2=Ave+σ、
Y3=Ave−βσ、
但し、AveはY画像の平均画素値であり、σはY画像の画素値の標準偏差であり、α、βは、1以上の所定値である。
Y1 = Ave + ασ,
Y2 = Ave + σ,
Y3 = Ave−βσ,
Where Ave is the average pixel value of the Y image, σ is the standard deviation of the pixel value of the Y image, and α and β are one or more predetermined values.
(c)候補抽出部21は、スルー画像のCb成分(Cb画像)に対して互いに異なる閾値を使用した複数通り(ここでは3通りとする。)の二値化処理を施し、二値化画像M(B1)、M(B2)、M(B3)を取得する(図4の中央列を参照。)。このうち、二値化画像M(B1)は、Cb画像において第1閾値B1より大きな領域に白画素(画素値1)を配し、かつそれ以外の領域に黒画素(画素値0)を配したものであり、二値化画像M(B2)は、Cb画像において第2閾値B2(B2<B1)より大きな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものであり、二値化画像M(B3)は、Cb画像において第3閾値B3(B3<B2)より小さな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものである。なお、閾値B1、B2、B3は、例えば以下のとおり設定される。
(C) The
B1=Ave+ασ、
B2=Ave+σ、
B3=Ave−βσ、
但し、AveはCb画像の平均画素値であり、σはCb画像の画素値の標準偏差であり、α、βは、1以上の所定値である。
B1 = Ave + ασ,
B2 = Ave + σ,
B3 = Ave−βσ,
Where Ave is the average pixel value of the Cb image, σ is the standard deviation of the pixel value of the Cb image, and α and β are one or more predetermined values.
(d)候補抽出部21は、スルー画像のCr成分(Cr画像)に対して互いに異なる閾値を使用した複数通り(ここでは3通りとする。)の二値化処理を施し、二値化画像M(R1)、M(R2)、M(R3)を取得する(図4の右列を参照。)。このうち、二値化画像M(R1)は、Cr画像において第1閾値R1より大きな領域に白画素(画素値1)を配し、かつそれ以外の領域に黒画素(画素値0)を配したものであり、二値化画像M(R2)は、Cr画像において第2閾値R2(R2<R1)より大きな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものであり、二値化画像M(R3)は、Cr画像において第3閾値R3(R3<R2)より小さな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものである。なお、閾値R1、R2、R3は、例えば以下のとおり設定される。
(D) The
R1=Ave+ασ、
R2=Ave+σ、
R3=Ave−βσ、
但し、AveはCr画像の平均画素値であり、σはCr画像の画素値の標準偏差であり、α、βは、1以上の所定値である。
R1 = Ave + ασ,
R2 = Ave + σ,
R3 = Ave−βσ,
Where Ave is the average pixel value of the Cr image, σ is the standard deviation of the pixel value of the Cr image, and α and β are one or more predetermined values.
(e)候補抽出部21は、二値化画像M(Y1)、M(Y2)、M(Y3)、M(B1)、M(B2)、M(B3)、M(R1)、M(R2)、M(R3)の各々に対してラベリング処理を行い、それら二値化画像の各々における白画素のまとまりを、被写体候補領域として抽出する。
(E) The
なお、二値化画像M(Y1)を使用した抽出区分が前述した第1の抽出区分であり、二値化画像M(B1)を使用した抽出区分が前述した第2の抽出区分であり、二値化画像M(R1)を使用した抽出区分が前述した第3の抽出区分であり、二値化画像M(Y2)を使用した抽出区分が前述した第4の抽出区分であり、二値化画像M(B2)を使用した抽出区分が前述した第5の抽出区分であり、二値化画像M(R2)を使用した抽出区分が前述した第6の抽出区分であり、二値化画像M(Y3)を使用した抽出区分が前述した第7の抽出区分であり、二値化画像M(B3)を使用した抽出区分が前述した第8の抽出区分であり、二値化画像M(R3)を使用した抽出区分が前述した第9の抽出区分である。 The extraction segment using the binarized image M (Y1) is the first extraction segment described above, and the extraction segment using the binarized image M (B1) is the second extraction segment described above. The extraction segment using the binarized image M (R1) is the third extraction segment described above, and the extraction segment using the binarized image M (Y2) is the fourth extraction segment described above. The extraction segment using the binarized image M (B2) is the above-described fifth extraction segment, the extraction segment using the binarized image M (R2) is the above-described sixth extraction segment, and the binarized image The extraction segment using M (Y3) is the seventh extraction segment described above, and the extraction segment using the binarized image M (B3) is the eighth extraction segment described above, and the binarized image M ( The extraction section using R3) is the ninth extraction section described above.
(f)候補抽出部21は、手順(e)で抽出された被写体候補領域の中から一定の基準を満たさないもの、例えば、二値化画像における被写体候補領域の総面積と比して面積が一定未満であるものや、二値化画像の縁部にかかっているものなどを、被写体候補領域から外す。なお、この手順(f)における基準は、区分毎に設定されることが望ましい。
(F) The
[実施形態の補足]
なお、上述したステップS14では、評価履歴に書き込むべき区分番号を、2位以上の区分番号のみとしたが、N位以上の区分番号のみとしてもよい(但し、N:自然数)。
[Supplement of embodiment]
In step S14 described above, the category number to be written in the evaluation history is only the category number of the second or higher rank, but may be only the category number of the Nth or higher rank (where N is a natural number).
また、本実施形態では、被写体らしさの評価結果(区分番号)を蓄積した評価履歴を作成し、その評価履歴に基づき現フレームの被写体領域を選出した。しかし、本実施形態では、被写体領域の選出結果(区分番号)を蓄積した選出履歴を評価履歴と共に作成し、その評価履歴と選出履歴との双方に基づき現フレームの被写体領域を選出してもよい。 Further, in the present embodiment, an evaluation history in which the evaluation result (category number) of the subjectness is accumulated is created, and the subject area of the current frame is selected based on the evaluation history. However, in the present embodiment, a selection history that accumulates the selection results (category numbers) of the subject areas may be created together with the evaluation history, and the subject area of the current frame may be selected based on both the evaluation history and the selection history. .
また、本実施形態では、1フレームから選出される被写体領域の数を単数としたが、複数としてもよい。その場合、枠表示は、選出された複数の被写体領域の各々について行い、AF制御及びAE制御は、最上位の被写体領域を対象として行えばよい。また、1フレーム内に複数の枠イメージを同時に表示する場合は、それらの枠イメージを順位に応じて色分けしてもよい。 In the present embodiment, the number of subject areas selected from one frame is singular, but may be plural. In this case, the frame display is performed for each of the selected plurality of subject areas, and the AF control and AE control may be performed on the highest subject area. When a plurality of frame images are displayed simultaneously in one frame, the frame images may be color-coded according to the order.
また、本実施形態では、被写体候補領域の抽出区分を、以下の9通りに設定した。 Further, in this embodiment, the subject candidate region extraction categories are set to the following nine types.
・第1の抽出区分:輝度方向(Y方向)の閾値Y1による抽出処理。 First extraction category: extraction processing based on a threshold value Y1 in the luminance direction (Y direction).
・第2の抽出区分:第1色差方向(Cb方向)の閾値B1による抽出処理。 Second extraction category: extraction processing based on a threshold B1 in the first color difference direction (Cb direction).
・第3の抽出区分:第2色差方向(Cr方向)の閾値R1による抽出処理。 Third extraction category: extraction processing based on the threshold R1 in the second color difference direction (Cr direction).
・第4の抽出区分:Y方向の閾値Y2(Y2<Y1)による抽出処理。 Fourth extraction category: extraction processing based on a Y-direction threshold Y2 (Y2 <Y1).
・第5の抽出区分:Cb方向の閾値B2(B2<B1)による抽出処理。 Fifth extraction category: extraction processing based on the threshold value B2 (B2 <B1) in the Cb direction.
・第6の抽出区分:Cr方向の閾値R2(R2<R1)による抽出処理。 Sixth extraction category: extraction processing based on Cr-direction threshold R2 (R2 <R1).
・第7の抽出区分:Y方向の閾値Y3(Y3<Y2)による抽出処理。 Seventh extraction category: extraction processing based on a Y-direction threshold Y3 (Y3 <Y2).
・第8の抽出区分:Cb方向の閾値B3(B2<B2)による抽出処理。 Eighth extraction category: extraction processing based on the threshold value B3 (B2 <B2) in the Cb direction.
・第9の抽出区分:Cr方向の閾値R3(R3<R2)による抽出処理。 Ninth extraction category: extraction processing based on a Cr direction threshold R3 (R3 <R2).
しかしながら、本実施形態における抽出区分の組み合わせは、上記9通りの組み合わせに限定されることはない。例えば、YCbCr空間上の所定面を閾値として使用した抽出処理や、色以外の閾値による抽出処理などを、本実施形態の抽出区分の1つに採用してもよい。 However, the combinations of extraction categories in the present embodiment are not limited to the above nine combinations. For example, an extraction process that uses a predetermined surface in the YCbCr space as a threshold value, an extraction process that uses a threshold value other than color, and the like may be adopted as one of the extraction categories of this embodiment.
また、本実施形態では、被写体候補領域の抽出区分の数を9としたが、8以下、又は、10以上としてもよい。 In the present embodiment, the number of subject candidate region extraction categories is nine, but it may be eight or less, or ten or more.
また、本実施形態のステップS16では、或る被写体候補領域を被写体領域に選定するための条件を、「その被写体候補領域の区分番号が最新5フレーム分の評価履歴に3回以上出現していること」としたが、これに限定されることはない。この条件は、「その被写体候補領域の区分番号が最新Mフレーム分の評価履歴にK回以上出現していること」であればよい(但し、M>Kであり、K、Mは何れも自然数である。)。 Further, in step S16 of the present embodiment, the condition for selecting a certain subject candidate region as the subject region is set as “the category number of the subject candidate region appears three times or more in the evaluation history for the latest five frames. However, it is not limited to this. This condition only needs to be “the section number of the subject candidate area appears K or more times in the evaluation history for the latest M frames” (provided that M> K, and both K and M are natural numbers). .)
また、本実施形態のステップS16では、或る被写体候補領域を被写体領域に選定するための出現回数の閾値K、或いは、出現頻度の閾値K/Mを、可変としてもよい。因みに、この閾値が大きいときほど、ステップS18における制御(枠表示制御、AF制御、AE制御)を安定化することができ、この閾値が小さいときほど、ステップS18における制御の応答性を高めることができる。 In step S16 of the present embodiment, the appearance frequency threshold value K or the appearance frequency threshold value K / M for selecting a certain subject candidate region as the subject region may be variable. Incidentally, as the threshold value is larger, the control (frame display control, AF control, AE control) in step S18 can be stabilized. As the threshold value is smaller, the control responsiveness in step S18 can be improved. it can.
また、本実施形態では、被写体領域の選出結果を、枠表示制御、AF制御、AE制御に使用したが、他の処理、例えばホワイトバランス制御などに使用してもよい。 In this embodiment, the subject area selection result is used for frame display control, AF control, and AE control. However, it may be used for other processing such as white balance control.
また、本実施形態では、選出された被写体領域の位置を示すマークとして枠イメージを使用したが、他のマーク(例えば、被写体領域の輪郭を示す輪郭イメージなど)を使用してもよい。 In this embodiment, the frame image is used as a mark indicating the position of the selected subject area. However, other marks (for example, an outline image indicating the outline of the subject area) may be used.
また、本実施形態のカメラは、レンズ交換式のカメラ、コンパクトカメラの何れにも適用が可能である。但し、本実施形態のカメラは、動的な被写体よりも静的な被写体を撮影することの多いコンパクトカメラに好適と考えられる。 Further, the camera of the present embodiment can be applied to both a lens interchangeable camera and a compact camera. However, the camera of the present embodiment is considered suitable for a compact camera that often shoots a static subject rather than a dynamic subject.
また、本実施形態では、被写体候補領域の抽出処理、被写体領域の選出処理、選出結果に基づく各処理(枠表示制御、AF制御、AE制御)の全てを、プログラムによってソフトウエア的に実現したが、それら処理の一部又は全部を例えばASICによりハードウエア的に実現してもよい。 In the present embodiment, all of the subject candidate region extraction processing, subject region selection processing, and each processing (frame display control, AF control, AE control) based on the selection result are realized by software. Some or all of these processes may be realized in hardware by, for example, an ASIC.
11…電子カメラ、12…撮影光学系、13…撮像部、14…画像処理エンジン、15…第1メモリ、16…第2メモリ、17…記録I/F、18…表示部、19…操作部、20…記憶媒体、21…候補抽出、22…評価部、23…履歴作成部、24…被写体選出部、31…コンピュータ、32…データ読込部、33…記憶装置、34…CPU、35…メモリ、36…入出力I/F、37…バス、38…入力デバイス、39…モニタ
DESCRIPTION OF
Claims (12)
前記抽出手段が抽出した複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、
前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、
を備えたことを特徴とする撮像装置。 An extraction means for extracting a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by the imaging device according to a plurality of types of extraction criteria;
Evaluation means for evaluating the subjectivity for each of the plurality of subject candidate areas extracted by the extraction means;
Creating means for creating an evaluation history by storing at least a predetermined frame period the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation means;
Selection means for selecting a subject area of the current frame based on the result of the evaluation relating to the current frame and the evaluation history relating to a past frame;
An imaging apparatus comprising:
前記選出手段は、
前記現フレームにおいて高評価を得た被写体候補領域の抽出基準が、前記評価履歴に一定以上の回数に亘って登場していた場合に、前記被写体領域の前記選出を行う
ことを特徴とする撮像装置。 The imaging device according to claim 1,
The selection means is:
The imaging device, wherein the selection of the subject area is performed when the extraction criterion of the subject candidate area that has been highly evaluated in the current frame has appeared in the evaluation history for a certain number of times or more. .
前記被写体領域の位置を示すマークをモニタへ表示する表示制御手段を更に備えた
ことを特徴とする撮像装置。 In the imaging device according to claim 1 or 2,
An imaging apparatus, further comprising display control means for displaying a mark indicating the position of the subject area on a monitor.
前記被写体領域を対象として露出制御を行う露出制御手段を更に備えた
ことを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 3,
An imaging apparatus, further comprising an exposure control unit that performs exposure control on the subject area.
前記被写体領域を対象として焦点調節を行う焦点調節手段を更に備えた
ことを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 4,
An imaging apparatus, further comprising: a focus adjustment unit that performs focus adjustment on the subject area.
前記評価履歴の作成が開始されてから所定フレーム周期が経過するまでの期間中は、前記選出手段の動作を休止させる
ことを特徴とする撮像装置。 In the image processing apparatus according to any one of claims 1 to 5,
The imaging apparatus characterized in that the operation of the selection means is suspended during a period from when the creation of the evaluation history is started until a predetermined frame period elapses.
前記抽出手段は、
フレームを複数の閾値で二値化することにより複数の二値化画像を生成し、前記複数の二値化画像の各々から被写体候補領域を抽出する
ことを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 6,
The extraction means includes
An imaging apparatus comprising: binarizing a frame with a plurality of threshold values to generate a plurality of binarized images and extracting a subject candidate region from each of the plurality of binarized images.
前記評価手段は、
被写体候補領域の慣性モーメントと前記被写体候補領域の面積とに基づき前記被写体候補領域の被写体らしさ評価を行う
ことを特徴とする撮像装置。 The imaging apparatus according to claim 7,
The evaluation means includes
An imaging apparatus, wherein subject-likeness evaluation of the subject candidate region is performed based on a moment of inertia of the subject candidate region and an area of the subject candidate region.
前記評価手段は、
現フレームに関する前記評価では、前記慣性モーメントの中心を、前フレームで選出された前記被写体領域の位置に応じて設定する
ことを特徴とする撮像装置。 The imaging device according to claim 8,
The evaluation means includes
In the evaluation relating to the current frame, the center of the moment of inertia is set according to the position of the subject area selected in the previous frame.
前記抽出手段で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、
前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、
を備えたことを特徴とする画像処理装置。 An extraction means for extracting a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by the imaging device according to a plurality of types of extraction criteria;
Evaluation means for evaluating the subjectivity for each of the plurality of subject candidate areas extracted by the extraction means;
Creating means for creating an evaluation history by storing at least a predetermined frame period the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation means;
Selection means for selecting a subject area of the current frame based on the result of the evaluation relating to the current frame and the evaluation history relating to a past frame;
An image processing apparatus comprising:
前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、
前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、
を含むことを特徴とする画像処理方法。 An extraction procedure for extracting a plurality of subject candidate areas from each of a plurality of frames that are sequentially generated by the image sensor, based on a plurality of types of extraction criteria;
An evaluation procedure for performing subjectivity evaluation for each of a plurality of subject candidate areas extracted in the extraction procedure;
A creation procedure for creating an evaluation history by storing at least a predetermined frame period, the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation procedure;
A selection procedure for selecting a subject area of the current frame based on the result of the evaluation for the current frame and the evaluation history for the past frame;
An image processing method comprising:
前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、
前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。 An extraction procedure for extracting a plurality of subject candidate areas from each of a plurality of frames that are sequentially generated by the image sensor, based on a plurality of types of extraction criteria;
An evaluation procedure for performing subjectivity evaluation for each of a plurality of subject candidate areas extracted in the extraction procedure;
A creation procedure for creating an evaluation history by storing at least a predetermined frame period, the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation procedure;
A selection procedure for selecting a subject area of the current frame based on the result of the evaluation for the current frame and the evaluation history for the past frame;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012173060A JP5935581B2 (en) | 2012-08-03 | 2012-08-03 | Imaging apparatus, image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012173060A JP5935581B2 (en) | 2012-08-03 | 2012-08-03 | Imaging apparatus, image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014033358A JP2014033358A (en) | 2014-02-20 |
JP5935581B2 true JP5935581B2 (en) | 2016-06-15 |
Family
ID=50282862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012173060A Active JP5935581B2 (en) | 2012-08-03 | 2012-08-03 | Imaging apparatus, image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5935581B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6410454B2 (en) * | 2014-04-03 | 2018-10-24 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2016051277A (en) * | 2014-08-29 | 2016-04-11 | 株式会社ニコン | Subject searching device, subject searching method, and subject searching program |
JP7298993B2 (en) * | 2018-04-09 | 2023-06-27 | 浜松ホトニクス株式会社 | Specimen observation device and specimen observation method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4819001B2 (en) * | 2006-07-25 | 2011-11-16 | 富士フイルム株式会社 | Imaging apparatus and method, program, image processing apparatus and method, and program |
JP5147670B2 (en) * | 2008-12-15 | 2013-02-20 | キヤノン株式会社 | Image processing apparatus, image processing method, and imaging apparatus |
-
2012
- 2012-08-03 JP JP2012173060A patent/JP5935581B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014033358A (en) | 2014-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8144207B2 (en) | Computer program product for photographic subject tracking, photographic subject tracking device, and camera | |
CN110166707B (en) | Image processing method, image processing apparatus, electronic device, and storage medium | |
US8493464B2 (en) | Resolution adjusting method | |
US20130307966A1 (en) | Depth measurement apparatus, image pickup apparatus, and depth measurement program | |
KR101566081B1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP5279635B2 (en) | Image processing apparatus, image processing method, and program | |
JP4947136B2 (en) | Image processing apparatus, image processing method, and program | |
JP5246078B2 (en) | Object location program and camera | |
US9253406B2 (en) | Image capture apparatus that can display review image, image capture method, and storage medium | |
JP5125734B2 (en) | Imaging apparatus, image selection method, and image selection program | |
CN112087580A (en) | Image acquisition method and device, electronic equipment and computer readable storage medium | |
EP3809327A1 (en) | Subject recognition method, electronic device, and computer readable storage medium | |
JP5935581B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and image processing program | |
US20130293741A1 (en) | Image processing apparatus, image capturing apparatus, and storage medium storing image processing program | |
JP6230386B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US9948867B2 (en) | Apparatus, method, and computer-readable storage device for generating composite image | |
JP6652303B2 (en) | Flash band determination device, control method thereof, control program, and imaging device | |
US8629925B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP6024135B2 (en) | Subject tracking display control device, subject tracking display control method and program | |
JP5278483B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP6157238B2 (en) | Image processing apparatus, image processing method, and image processing program | |
RU2761187C1 (en) | Image processing apparatus and image capturing apparatus | |
JP6556033B2 (en) | Image processing apparatus, image processing method, and program | |
JP2015041865A (en) | Image processing apparatus and image processing method | |
JP5131399B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150708 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5935581 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |