Nothing Special   »   [go: up one dir, main page]

JP5935581B2 - Imaging apparatus, image processing apparatus, image processing method, and image processing program - Google Patents

Imaging apparatus, image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5935581B2
JP5935581B2 JP2012173060A JP2012173060A JP5935581B2 JP 5935581 B2 JP5935581 B2 JP 5935581B2 JP 2012173060 A JP2012173060 A JP 2012173060A JP 2012173060 A JP2012173060 A JP 2012173060A JP 5935581 B2 JP5935581 B2 JP 5935581B2
Authority
JP
Japan
Prior art keywords
evaluation
subject
extraction
area
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012173060A
Other languages
Japanese (ja)
Other versions
JP2014033358A (en
Inventor
啓之 阿部
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012173060A priority Critical patent/JP5935581B2/en
Publication of JP2014033358A publication Critical patent/JP2014033358A/en
Application granted granted Critical
Publication of JP5935581B2 publication Critical patent/JP5935581B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、撮像装置、画像処理装置、画像処理方法、画像処理プログラムに関する。   The present invention relates to an imaging device, an image processing device, an image processing method, and an image processing program.

従来、撮影画像から被写体を抽出し、その被写体に適した撮影条件(撮影距離や露出など)を自動設定するカメラが知られている(例えば特許文献1等を参照。)。近年になると、カメラがリアルタイムで取得する動画像に応じてこの設定を繰り返す技術も提案された。   2. Description of the Related Art Conventionally, a camera that extracts a subject from a photographed image and automatically sets photographing conditions (such as a photographing distance and exposure) suitable for the subject is known (see, for example, Patent Document 1). In recent years, a technique has been proposed in which this setting is repeated according to a moving image acquired by the camera in real time.

特開2002−51255号公報JP 2002-512255 A

しかしながら、ユーザがカメラの構図に迷っている場合などには、被写体の抽出結果が不安定となり、撮影に悪影響を及ぼす虞がある。   However, when the user is at a loss in the composition of the camera, the subject extraction result becomes unstable, which may adversely affect shooting.

本発明の撮像装置は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段と、前記抽出手段が抽出した複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、を備える。   An image pickup apparatus according to the present invention includes an extraction unit that extracts a plurality of subject candidate regions based on a plurality of types of extraction criteria from each of a plurality of frames that are sequentially generated by an image sensor, and a plurality of subject candidate regions that are extracted by the extraction unit. Creating an evaluation history by storing at least a predetermined frame period, an evaluation means for evaluating the likelihood of the subject for each of the above, and a type of extraction criterion for the subject candidate area highly evaluated by the evaluation means And means for selecting a subject area of the current frame based on the evaluation result regarding the current frame and the evaluation history regarding the past frame.

本発明の画像処理装置は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段と、前記抽出手段で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、を備える。   An image processing apparatus according to the present invention includes: an extraction unit that extracts a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by an image sensor, and a plurality of subjects that are extracted by the extraction unit; An evaluation history is created by storing at least a predetermined frame period the evaluation means for evaluating the likelihood of subject for each of the candidate areas, and the types of extraction criteria for the subject candidate areas highly evaluated by the evaluation means. And creating means for selecting the subject area of the current frame based on the result of the evaluation relating to the current frame and the evaluation history relating to the past frame.

本発明の画像処理方法は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手順と、前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、を含む。   An image processing method according to the present invention includes an extraction procedure for extracting a plurality of subject candidate areas from each of a plurality of frames that are sequentially generated by an image sensor according to a plurality of types of extraction criteria, and a plurality of subjects extracted by the extraction procedure. An evaluation history is created by storing at least a predetermined frame period an evaluation procedure for evaluating the likelihood of a subject for each candidate region, and the types of extraction criteria for the subject candidate region highly evaluated by the evaluation procedure. And a selection procedure for selecting a subject area of the current frame based on the evaluation result regarding the current frame and the evaluation history regarding the past frame.

本発明の画像処理プログラムは、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手順と、前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、をコンピュータに実行させる。   An image processing program according to the present invention includes an extraction procedure for extracting a plurality of subject candidate regions based on a plurality of types of extraction criteria from each of a plurality of frames sequentially generated by an image sensor, and a plurality of subjects extracted by the extraction procedure. An evaluation history is created by storing at least a predetermined frame period an evaluation procedure for evaluating the likelihood of a subject for each candidate region, and the types of extraction criteria for the subject candidate region highly evaluated by the evaluation procedure. And a selection procedure for selecting a subject area of the current frame based on the creation procedure to be performed, the result of the evaluation for the current frame, and the evaluation history for the past frame.

本発明によれば、被写体の選出結果を安定させることができる。   According to the present invention, a subject selection result can be stabilized.

電子カメラの構成例を示す図である。It is a figure which shows the structural example of an electronic camera. 撮像モードにおける画像処理エンジン14の動作フローチャートである。4 is an operation flowchart of the image processing engine 14 in an imaging mode. スルー画像の例である。It is an example of a through image. 抽出された被写体候補領域の例を抽出区分毎に示す図である。It is a figure which shows the example of the extracted subject candidate area | region for every extraction division. 評価値を説明する図である。It is a figure explaining an evaluation value. フレーム番号#1〜#24に関する評価履歴のイメージである。It is an image of the evaluation history regarding frame numbers # 1 to # 24. ステップS16を説明する図である。It is a figure explaining step S16. フレーム番号#1〜#24に関する評価履歴及び選出履歴を示す図である。It is a figure which shows the evaluation log | history regarding the frame numbers # 1- # 24, and the selection log | history. フレーム番号#1〜#24に関する枠表示の様子を示す図である。It is a figure which shows the mode of the frame display regarding frame number # 1- # 24.

[実施形態]
以下、本発明の実施形態として撮像装置(電子カメラ)を説明する。
[Embodiment]
Hereinafter, an imaging apparatus (electronic camera) will be described as an embodiment of the present invention.

図1は、電子カメラの構成例を示す図である。図1に示すとおり電子カメラ11には、撮影光学系12と、撮像部13と、画像処理エンジン14と、第1メモリ15と、第2メモリ16と、記録I/F17と、表示部18と、操作部19とが備えられる。このうち撮像部13、第1メモリ15、第2メモリ16、記録I/F17、表示部18、操作部19の各々は、画像処理エンジン14に接続されている。また、操作部19は、ユーザの操作(例えば撮影指示など)を受け付けるスイッチである。   FIG. 1 is a diagram illustrating a configuration example of an electronic camera. As shown in FIG. 1, the electronic camera 11 includes a photographing optical system 12, an imaging unit 13, an image processing engine 14, a first memory 15, a second memory 16, a recording I / F 17, and a display unit 18. And an operation unit 19. Among these, the imaging unit 13, the first memory 15, the second memory 16, the recording I / F 17, the display unit 18, and the operation unit 19 are each connected to the image processing engine 14. The operation unit 19 is a switch that receives a user operation (for example, a shooting instruction).

撮影光学系12は、AFのためのフォーカシングレンズを含む複数のレンズで構成される。なお、図1では、簡単のため撮影光学系12を1枚のレンズで表す。   The photographing optical system 12 includes a plurality of lenses including a focusing lens for AF. In FIG. 1, the photographing optical system 12 is represented by a single lens for the sake of simplicity.

撮像部13は、撮影光学系12が形成した被写界の像を撮像するモジュールである。例えば、撮像部13は、光電変換を行う撮像素子と、撮像素子の出力に対してアナログ信号処理やA/D変換処理などを施す信号処理回路とを含んでいる。また、撮像素子の撮像面には、例えば公知のベイヤ配列に従ってRGBのカラーフィルタが配置されている。これによって撮像素子は、カラー画像を取得することができる。   The imaging unit 13 is a module that captures an image of the object scene formed by the imaging optical system 12. For example, the imaging unit 13 includes an imaging element that performs photoelectric conversion, and a signal processing circuit that performs analog signal processing, A / D conversion processing, and the like on the output of the imaging element. Further, for example, RGB color filters are arranged on the imaging surface of the imaging device in accordance with a known Bayer array. Thereby, the image sensor can acquire a color image.

また、電子カメラ11が撮像モードであるとき、撮像部13は、観測用の画像(スルー画像)を繰り返し取得する。また、撮像部13は、ユーザの撮影指示に応じて記録用の画像(詳細画像)を取得する。また、電子カメラ11が撮像モードであるとき、なお、撮像部13で取得された画像のデータは、画像処理エンジン14に入力される。   In addition, when the electronic camera 11 is in the imaging mode, the imaging unit 13 repeatedly acquires images for observation (through images). In addition, the imaging unit 13 acquires a recording image (detailed image) in accordance with a user's shooting instruction. In addition, when the electronic camera 11 is in the imaging mode, the image data acquired by the imaging unit 13 is input to the image processing engine 14.

画像処理エンジン14は、電子カメラ11の動作を統括的に制御するプロセッサである。例えば、画像処理エンジン14は、撮像モードにおいて、スルー画像を用いたAF制御、AE制御などを行う。また、画像処理エンジン14は、撮像部13が取得した画像のデータに対して、色補間、ホワイトバランス補正、階調変換、色空間変換などの画像処理を施す。さらに、画像処理エンジン14は、プログラムの実行により、候補抽出部21、評価部22、履歴作成部23、被写体選出部24として機能する。なお、候補抽出部21、評価部22、履歴作成部23、被写体選出部24の動作については後述する。   The image processing engine 14 is a processor that comprehensively controls the operation of the electronic camera 11. For example, the image processing engine 14 performs AF control and AE control using a through image in the imaging mode. The image processing engine 14 performs image processing such as color interpolation, white balance correction, gradation conversion, and color space conversion on the image data acquired by the imaging unit 13. Furthermore, the image processing engine 14 functions as a candidate extraction unit 21, an evaluation unit 22, a history creation unit 23, and a subject selection unit 24 by executing a program. The operations of the candidate extraction unit 21, the evaluation unit 22, the history creation unit 23, and the subject selection unit 24 will be described later.

第1メモリ15は、画像のデータ等を一時的に記憶するメモリであって、例えば揮発性の記憶媒体であるSDRAMで構成される。また、第2メモリ16は、画像処理エンジン14で実行するプログラムや、このプログラムで使用される各種データを記憶するメモリであって、例えばフラッシュメモリ等の不揮発性メモリで構成される。   The first memory 15 is a memory that temporarily stores image data and the like, and is configured by an SDRAM that is a volatile storage medium, for example. The second memory 16 is a memory that stores a program executed by the image processing engine 14 and various data used in the program, and is configured by a non-volatile memory such as a flash memory, for example.

記録I/F17は、不揮発性の記憶媒体20を接続するためのコネクタを有している。そして、記録I/F17は、コネクタに接続された記憶媒体20に対して画像のデータの書き込み/読み込みを実行する。なお、記憶媒体20は、例えば、ハードディスクや、半導体メモリを内蔵したメモリカードである。なお、図1では記憶媒体20の一例としてメモリカードを図示する。   The recording I / F 17 has a connector for connecting the nonvolatile storage medium 20. The recording I / F 17 executes writing / reading of image data with respect to the storage medium 20 connected to the connector. The storage medium 20 is, for example, a hard disk or a memory card incorporating a semiconductor memory. In FIG. 1, a memory card is illustrated as an example of the storage medium 20.

表示部18は、例えば、電子カメラ11の背面に設けられた液晶モニタである。この表示部18は、スルー画像のリアルタイム表示や、詳細画像の再生表示、詳細画像の撮影後確認表示などを行う。   The display unit 18 is, for example, a liquid crystal monitor provided on the back surface of the electronic camera 11. The display unit 18 performs real-time display of a through image, reproduction display of a detailed image, confirmation display after photographing of a detailed image, and the like.

図2は、撮像モードにおける画像処理エンジン14の動作フローチャートである。以下、図2の各ステップを順に説明する。なお、この撮像モードは、静的な被写体の撮影に有効な「被写体追尾機能」を有している。   FIG. 2 is an operation flowchart of the image processing engine 14 in the imaging mode. Hereafter, each step of FIG. 2 is demonstrated in order. This imaging mode has a “subject tracking function” that is effective for photographing a static subject.

ステップS11:画像処理エンジン14は、撮像部13を駆動してスルー画像を取得すると共に、そのスルー画像を表示部18へ送出する。なお、このスルー画像の取得及び表示は、例えば1/30秒のフレーム周期で繰り返され、その結果、カメラの被写界の様子が表示部18にリアルタイムで表示される(ビューファインダ表示)。   Step S11: The image processing engine 14 drives the imaging unit 13 to acquire a through image, and sends the through image to the display unit 18. Note that this through image acquisition and display is repeated, for example, at a frame period of 1/30 seconds, and as a result, the state of the camera's object scene is displayed in real time on the display unit 18 (viewfinder display).

ここでは、図3に示すようなスルー画像が順次に取得されたと仮定する。図3では、各フレームのスルー画像に対して取得順序を表す番号(フレーム番号)を付した。因みに、図3に示した各スルー画像は、おおよそ以下の状況で取得されたものである。   Here, it is assumed that through images as shown in FIG. 3 are acquired sequentially. In FIG. 3, a number (frame number) indicating the acquisition order is assigned to the through image of each frame. Incidentally, each through image shown in FIG. 3 is acquired under the following conditions.

・フレーム番号#1〜#10:カメラの構図の主要部としてイルカの遊具が捉えられている期間。   Frame numbers # 1 to # 10: A period during which the dolphin play equipment is captured as the main part of the camera composition.

・フレーム番号#11〜#13:カメラの構図の主要部がイルカの遊具からアヒルの遊具へと移行する期間。   Frame numbers # 11 to # 13: A period during which the main part of the camera composition transitions from a dolphin playground equipment to a duck playground equipment.

・フレーム番号#14〜#23:カメラの構図の主要部としてアヒルの遊具が捉えられている期間。   Frame numbers # 14 to # 23: A period in which a duck playground equipment is captured as the main part of the camera composition.

・フレーム番号#24:カメラの構図の主要部がアヒルの遊具からイルカの遊具へと移行する期間。   Frame number # 24: A period during which the main part of the camera composition transitions from a duck playground equipment to a dolphin playground equipment.

なお、本実施形態では、各フレームのスルー画像が取得される毎に(すなわち1フレーム周期内に)、以下のステップS12〜S19の処理が実行されるものと仮定する。   In the present embodiment, it is assumed that the following steps S12 to S19 are executed every time a through image of each frame is acquired (that is, within one frame period).

ステップS12:画像処理エンジン14の候補抽出部21は、抽出基準の異なる複数種類の抽出処理によりスルー画像から被写体候補領域を抽出する。抽出処理の詳細は後述するが、ここでは、以下の9通りの抽出区分の抽出処理が採用されたと仮定する。   Step S12: The candidate extraction unit 21 of the image processing engine 14 extracts a subject candidate area from the through image by a plurality of types of extraction processes with different extraction criteria. Although details of the extraction process will be described later, it is assumed here that the following nine extraction classification extraction processes are employed.

・第1の抽出区分:輝度方向(Y方向)の閾値Y1による抽出処理。   First extraction category: extraction processing based on a threshold value Y1 in the luminance direction (Y direction).

・第2の抽出区分:第1色差方向(Cb方向)の閾値B1による抽出処理。   Second extraction category: extraction processing based on a threshold B1 in the first color difference direction (Cb direction).

・第3の抽出区分:第2色差方向(Cr方向)の閾値R1による抽出処理。   Third extraction category: extraction processing based on the threshold R1 in the second color difference direction (Cr direction).

・第4の抽出区分:Y方向の閾値Y2(Y2<Y1)による抽出処理。   Fourth extraction category: extraction processing based on a Y-direction threshold Y2 (Y2 <Y1).

・第5の抽出区分:Cb方向の閾値B2(B2<B1)による抽出処理。   Fifth extraction category: extraction processing based on the threshold value B2 (B2 <B1) in the Cb direction.

・第6の抽出区分:Cr方向の閾値R2(R2<R1)による抽出処理。   Sixth extraction category: extraction processing based on Cr-direction threshold R2 (R2 <R1).

・第7の抽出区分:Y方向の閾値Y3(Y3<Y2)による抽出処理。   Seventh extraction category: extraction processing based on a Y-direction threshold Y3 (Y3 <Y2).

・第8の抽出区分:Cb方向の閾値B3(B2<B2)による抽出処理。   Eighth extraction category: extraction processing based on the threshold value B3 (B2 <B2) in the Cb direction.

・第9の抽出区分:Cr方向の閾値R3(R3<R2)による抽出処理。   Ninth extraction category: extraction processing based on a Cr direction threshold R3 (R3 <R2).

図4は、抽出された被写体候補領域を抽出区分毎に示す図である。図4において、白画素(画素値=1)のまとまりが個々の被写体候補領域を示しており、黒画素(画素値=ゼロ)の存在領域は、被写体候補領域以外の領域を示している。但し、本ステップにおける候補抽出部21は、抽出された被写体候補領域の中から、一定の基準を満たさないものについては、被写体候補領域から除外する。一定の基準を満たさないものとは、例えば、フレーム内における被写体候補領域の総面積と比して面積が一定未満であるものや、フレームの縁部にかかっているものなどである。   FIG. 4 is a diagram showing the extracted subject candidate areas for each extraction section. In FIG. 4, a group of white pixels (pixel value = 1) indicates individual subject candidate regions, and an existence region of black pixels (pixel value = 0) indicates a region other than the subject candidate regions. However, the candidate extraction unit 21 in this step excludes those extracted subject candidate areas that do not satisfy certain criteria from the subject candidate areas. What does not satisfy a certain standard is, for example, a case where the area is less than a certain amount compared to the total area of the subject candidate regions in the frame, or a portion covering the edge of the frame.

ステップS13:画像処理エンジン14の評価部22は、ステップS12で抽出された被写体候補領域の各々について、被写体らしさの評価値を算出する。個々の被写体候補領域の評価値は、例えば以下の式によって算出することができる。   Step S13: The evaluation unit 22 of the image processing engine 14 calculates an evaluation value of the subjectness for each of the subject candidate areas extracted in step S12. The evaluation value of each subject candidate area can be calculated by, for example, the following equation.

評価値=((領域内の画素数)^γ)/(慣性モーメント)、
慣性モーメント=(モーメント中心から画素までの距離の二乗)の領域内総和
なお、式における「γ」は、1以上の所定値であり、「モーメント中心」は、前フレームから選出された被写体領域(後述)の位置に応じて設定された座標である。具体的には、前フレームから選出された被写体領域の重心、前フレームから選出された被写体領域の包絡枠の中心の何れかに設定される。なお、被写体領域の重心(領域内の画素値の分布も考慮する)の代わりに、被写体領域の中心(領域内の画素値の分布は考慮せず)を使用してもよい。また、現フレームが初期フレーム(撮像モードの開始当初のフレーム)であった場合や、前フレームから被写体領域が1つも選出されなかった場合には、フレームの中心をモーメント中心とする。
Evaluation value = ((number of pixels in region) ^ γ) / (moment of inertia),
Inertia moment = (the square of the distance from the moment center to the pixel) in the region “γ” in the equation is a predetermined value of 1 or more, and “moment center” is the subject region selected from the previous frame ( The coordinates are set in accordance with the position (to be described later). Specifically, it is set to either the center of gravity of the subject area selected from the previous frame or the center of the envelope frame of the subject area selected from the previous frame. Instead of the center of gravity of the subject area (considering the distribution of pixel values in the area), the center of the subject area (not considering the distribution of pixel values in the area) may be used. Further, when the current frame is an initial frame (a frame at the start of the imaging mode) or when no subject area is selected from the previous frame, the center of the frame is set as the moment center.

したがって、面積が広く、まとまり度が高く、前フレームの被写体領域(又はフレーム中央)に近い被写体候補領域ほど、被写体らしさの評価値は高くなる。例えば、図5に示す2つの被写体候補領域5A、5Bを比較すると、2つの被写体候補領域5A、5Bの間では、面積やまとまり度の差異は小さいが、モーメント中心(図5における×印)からの距離は被写体候補領域5Bの方が確実に短いので、被写体候補領域5Bの方が慣性モーメントは小さくなり、被写体候補領域5Bの方が被写体らしさの評価値は高くなる。   Therefore, the subject candidate region having a larger area, higher unity, and closer to the subject region (or the center of the frame) of the previous frame has a higher subject-like evaluation value. For example, when the two subject candidate regions 5A and 5B shown in FIG. 5 are compared, the difference in area and unity degree is small between the two subject candidate regions 5A and 5B, but from the moment center (x mark in FIG. 5). Since the subject candidate area 5B is surely shorter, the subject candidate area 5B has a smaller moment of inertia, and the subject candidate area 5B has a higher subject evaluation value.

続いて、評価部22は、各被写体候補領域を、それらの評価値によって順位付けする。具体的には、各被写体候補領域に対して、評価値の高いものから順に順位を付与する。   Subsequently, the evaluation unit 22 ranks the subject candidate areas according to their evaluation values. Specifically, a ranking is assigned to each subject candidate region in descending order of evaluation value.

ここでは、評価部22は、最終的に順位が4位より低位であったものを被写体候補領域から除外し、順位が3位より高位であるもののみを被写体候補領域として残すこととする。   Here, the evaluator 22 excludes those whose rank is finally lower than the fourth place from the subject candidate area, and leaves only those whose rank is higher than the third place as the subject candidate area.

なお、本ステップの評価部22は、前述した9つの抽出区分に対して優先順位を予め決めておき、仮に、複数の被写体候補領域の間で評価値が等しくなった場合には、それら被写体候補領域の抽出区分と予め決めた優先順位とに応じて、それら被写体候補領域を順位付けすることが望ましい。   The evaluation unit 22 in this step determines priorities for the nine extraction categories described above, and if the evaluation values are equal among a plurality of subject candidate regions, the subject candidates It is desirable to rank the subject candidate areas according to the area extraction category and the predetermined priority order.

ステップS14:画像処理エンジン14の履歴作成部23は、ステップS13において第1位及び第2位となった被写体候補領域の各々の抽出区分を示す番号(区分番号)を、評価履歴へ書き込む。   Step S14: The history creation unit 23 of the image processing engine 14 writes the numbers (section numbers) indicating the respective extraction categories of the subject candidate areas that have been ranked first and second in step S13 in the evaluation history.

但し、履歴作成部23は、現フレームが初期フレームであった場合には、区分番号を書き込む前に、評価履歴における全ての区分番号(履歴データ)をクリアする。また、履歴作成部23は、第2位の被写体候補領域が存在しない場合には、第2位に対応する区分番号が存在しないことを示す符号を評価履歴へ書き込み、第1位の被写体候補領域が存在しない場合には、第1位に対応する区分番号が存在しないことを示す符号を評価履歴へ書き込む。   However, when the current frame is an initial frame, the history creation unit 23 clears all the division numbers (history data) in the evaluation history before writing the division number. In addition, when the second-ranked subject candidate area does not exist, the history creation unit 23 writes a code indicating that the classification number corresponding to the second rank does not exist in the evaluation history, and the first-ranked subject candidate area Is not written, a code indicating that there is no division number corresponding to the first place is written in the evaluation history.

図6は、フレーム番号#1〜#24に関する評価履歴のイメージである。なお、図6では24フレーム分の履歴データを示したが、被写体領域の選出(ステップS16)に使用される履歴データは、現フレームを含めて最新5フレーム分の履歴データのみであるので(詳細は後述。)、ここでは、評価履歴のデータサイズを5フレーム分とし、現フレームの履歴データ(区分番号)が評価履歴へ書き込まれる際には、現フレームを含めて最新5フレームより古いフレームの履歴データについては評価履歴から消去される(上書きされる)ものと仮定する。このように、評価履歴を更新する際に不要な履歴データを消去すれば、評価履歴のデータサイズを最小限に抑えることができる。   FIG. 6 is an image of the evaluation history regarding the frame numbers # 1 to # 24. Although FIG. 6 shows the history data for 24 frames, the history data used for selecting the subject area (step S16) is only the history data for the latest 5 frames including the current frame (details). Here, the data size of the evaluation history is set to 5 frames, and when the history data (section number) of the current frame is written to the evaluation history, the frame including the current frame is older than the latest 5 frames. It is assumed that the history data is erased (overwritten) from the evaluation history. Thus, if unnecessary history data is deleted when updating the evaluation history, the data size of the evaluation history can be minimized.

ステップS15:画像処理エンジン14は、更新後の評価履歴を参照し、現フレームを含めて最新5フレーム分の履歴データが評価履歴に蓄積済みであるか否かを判別する。そして、最新5フレーム分の履歴データが蓄積済みであった場合は、被写体領域の選出を行うべくステップS16へ移行し、蓄積済みでなかった場合は、被写体領域の選出を省略してステップS11へ戻る。   Step S15: The image processing engine 14 refers to the updated evaluation history, and determines whether or not the latest five frames of history data including the current frame have been accumulated in the evaluation history. If the history data for the latest five frames has been accumulated, the process proceeds to step S16 to select a subject area. If not, the selection of the subject area is omitted and the process proceeds to step S11. Return.

ステップS16:画像処理エンジン14の被写体選出部24は、評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に基づき、例えば以下の手順(a)〜(c)により現フレームの被写体候補領域から被写体領域を選出する。ここでは簡単のため、選出される被写体領域の個数を1と仮定する。   Step S16: The subject selection unit 24 of the image processing engine 14 is based on the evaluation history (= the evaluation history for the latest five frames including the current frame), for example, the subject of the current frame by the following procedures (a) to (c). A subject area is selected from the candidate areas. Here, for the sake of simplicity, it is assumed that the number of selected subject areas is 1.

(a)被写体選出部24は、現フレームにおける第1位の被写体候補領域の区分番号が評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に出現した回数をカウントし、その回数が3以上である場合には、その被写体候補領域を現クレームの被写体領域として選出する。但し、その回数が2以下であった場合には、第2位の被写体候補領域の検討を行うために、手順(b)へ移行する。   (A) The subject selection unit 24 counts the number of times that the classification number of the first candidate candidate region in the current frame has appeared in the evaluation history (= the evaluation history for the latest five frames including the current frame), and the number of times Is 3 or more, the subject candidate area is selected as the subject area of the current claim. However, if the number of times is 2 or less, the procedure proceeds to step (b) in order to examine the second candidate subject region.

(b)被写体選出部24は、現フレームにおける第2位の被写体候補領域の区分番号が評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に出現した回数をカウントし、その回数が3以上である場合には、その被写体候補領域を現クレームの被写体領域として選出する。但し、その回数が2以下であった場合には、第3位の被写体候補領域の検討を行うために、手順(c)へ移行する。   (B) The subject selection unit 24 counts the number of times that the classification number of the second highest candidate candidate area in the current frame has appeared in the evaluation history (= the evaluation history for the latest five frames including the current frame), and the number of times Is 3 or more, the subject candidate area is selected as the subject area of the current claim. However, if the number is 2 or less, the procedure proceeds to step (c) in order to examine the third candidate subject region.

(c)被写体選出部24は、現フレームにおける第3位の被写体候補領域の区分番号が評価履歴(=現フレームを含めて最新5フレーム分の評価履歴)に出現した回数をカウントし、その回数が3以上である場合には、その被写体候補領域を現クレームの被写体領域として選出する。但し、その出現の回数が2以下であった場合には、被写体領域の選出を行わずに次のステップS17へ移行する。   (C) The subject selection unit 24 counts the number of times that the classification number of the third candidate subject area in the current frame has appeared in the evaluation history (= the evaluation history for the latest five frames including the current frame), and the number of times Is 3 or more, the subject candidate area is selected as the subject area of the current claim. However, if the number of appearances is 2 or less, the process proceeds to the next step S17 without selecting the subject area.

例えば、図7に示すとおり現フレーム(#i)における第1位の区分番号が「4」であり、現フレーム(#i)における第2位の区分番号が「9」であり、現フレーム(#i)における第3位の区分番号が「3」であり、最新5フレーム分の評価履歴における区分番号「4」の出現回数は1であり、最新5フレーム分の評価履歴における区分番号「9」の出現回数は5であり、最新5フレーム分の評価履歴における区分番号「3」の出現回数はゼロであったとする。   For example, as shown in FIG. 7, the first division number in the current frame (#i) is “4”, the second division number in the current frame (#i) is “9”, and the current frame (#i) The third section number in #i) is “3”, the number of appearances of the section number “4” in the evaluation history for the latest 5 frames is 1, and the section number “9” in the evaluation history for the latest 5 frames is # 1. ”Is 5 and the number of appearances of the classification number“ 3 ”in the evaluation history for the latest 5 frames is zero.

この場合、現フレームにおける第1位の区分番号「4」は、出現回数の基準(3以上)を満たさないために、区分番号4の被写体候補領域が被写体領域として選出されることはなく、第2位である区分番号9の被写体候補領域が被写体領域として選出される。   In this case, since the first division number “4” in the current frame does not satisfy the criterion (3 or more) of the number of appearances, the subject candidate region with the division number 4 is not selected as the subject region. The second candidate subject area of category number 9 is selected as the subject area.

すなわち、被写体選出部24は、現フレームにおける上位の被写体候補領域であっても、その被写体候補領域の区分番号が評価履歴に一定回数以上に亘って出現していなかった場合には、その被写体候補領域を被写体領域に選出しない。   That is, the subject selection unit 24, even if it is a higher-order subject candidate region in the current frame, if the subject candidate region category number has not appeared in the evaluation history more than a certain number of times, the subject candidate portion 24 Do not select the area as the subject area.

したがって、或る被写体候補領域が被写体領域として選出されるタイミングは、その被写体候補領域が上位となったタイミングではなく、その被写体候補領域の区分番号が候補履歴に一定回数以上出現したタイミングである。   Therefore, the timing at which a certain subject candidate area is selected as the subject area is not the timing at which the subject candidate area is higher, but the timing at which the category number of the subject candidate area appears in the candidate history more than a certain number of times.

このように、或る被写体候補領域が被写体領域に選出されるまでに一定の猶予を設けておけば、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間に、被写体領域の選出結果が不安定になること(頻繁に切り替わること)を防止できる。   In this way, if a certain delay is provided before a certain subject candidate area is selected as the subject area, a period when the camera composition is unstable or even one subject candidate area that satisfies a certain standard appears. It is possible to prevent the selection result of the subject area from becoming unstable (frequent switching) during a period when there is not.

なお、図8には、フレーム番号#1〜#24に関する評価履歴と共に、フレーム番号#1〜#24に関する選出履歴を示した(図8の最下段)。図3、図8を参照すると明らかなとおり、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間(#11〜#13、#24)には、当然ながら、被写体領域は選出されない。また、カメラの構図が安定し、かつ一定基準を満たす被写体候補領域が発現している期間(#1〜#10、#14〜#23)であっても、その期間が一定期間を超えるまで(#4まで、#15まで)は、被写体領域は選出されない。   FIG. 8 shows the selection history for the frame numbers # 1 to # 24 together with the evaluation history for the frame numbers # 1 to # 24 (the bottom row in FIG. 8). As apparent from FIGS. 3 and 8, during a period when the composition of the camera is unstable, or a period during which no subject candidate area that satisfies a certain criterion is expressed (# 11 to # 13, # 24), Of course, no subject area is selected. Further, even during a period (# 1 to # 10, # 14 to # 23) in which the composition of the camera is stable and a subject candidate area that satisfies a certain standard is expressed (until that period exceeds a certain period ( (Up to # 4 and # 15), no subject area is selected.

ステップS17:画像処理エンジン14は、ステップS16において被写体領域が選出されたか否かを判別し、選出された場合には、枠表示制御・AF制御・AE制御を行うべくステップS18へ移行し、選出されなかった場合には、それらの制御を省略してステップS11へ戻る。   Step S17: The image processing engine 14 determines whether or not a subject area has been selected in step S16. If selected, the process proceeds to step S18 to perform frame display control, AF control, and AE control. If not, the control is omitted and the process returns to step S11.

ステップS18:画像処理エンジン14は、選出された被写体領域の包絡枠のイメージ(枠イメージ)を表示部18上に重畳表示(オーバーレイ表示)する。   Step S18: The image processing engine 14 superimposes (overlays) the image of the envelope frame (frame image) of the selected subject area on the display unit 18.

また、画像処理エンジン14は、選出された被写体領域又はその包絡枠を対象としてAF制御を行う。具体的には、選出された被写体領域内又は包絡枠内に写っている物体にピントが合うようにフォーカシングレンズの位置を調整する。   Further, the image processing engine 14 performs AF control on the selected subject area or its envelope frame. Specifically, the position of the focusing lens is adjusted so that the object in the selected subject area or the envelope frame is in focus.

また、画像処理エンジン14は、選出された被写体領域又はその包絡枠を対象としてAE制御を行う。具体的には、選出された被写体領域内又は包絡枠内に写っている物体の明るさに適した露出(適正露出)に撮像素子の露出(撮像素子のシャッタースピードと撮影光学系の絞り値との組み合わせ)を調整する。   In addition, the image processing engine 14 performs AE control on the selected subject area or its envelope frame. Specifically, the exposure of the image sensor (the shutter speed of the image sensor and the aperture value of the imaging optical system) is set to an exposure (appropriate exposure) suitable for the brightness of the object in the selected subject area or envelope frame. ).

したがって、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間には、枠表示制御、AF制御、AE制御が休止される。また、カメラの構図が安定し、かつ一定基準を満たす被写体候補領域が発現している期間であっても、その期間が一定期間を超えるまでは、枠表示制御、AF制御、AE制御の各々が猶予される。   Therefore, frame display control, AF control, and AE control are suspended during a period when the composition of the camera is unstable, or during a period when no subject candidate area that satisfies a certain criterion is expressed. Also, even if the camera composition is stable and a subject candidate area that satisfies a certain standard is expressed, each of the frame display control, AF control, and AE control is performed until the period exceeds the certain period. You will be suspended.

図9には、フレーム番号#1〜#24に関する枠表示の様子を示した。図8、図9を参照すると明らかなとおり、カメラの構図が不安定な期間、或いは一定基準を満たす被写体候補領域が1つも発現していない期間(#11〜#13、#24)には、被写体領域が選出されないので、枠表示も行われない。また、カメラの構図が安定し、かつ一定基準を満たす被写体候補領域が発現している期間(#1〜#10、#14〜#23)であっても、その期間が一定期間を超えるまで(#4まで、#15まで)は、被写体領域が選出されないので、枠表示も行われない。   FIG. 9 shows the state of frame display for frame numbers # 1 to # 24. As apparent from FIGS. 8 and 9, during a period when the composition of the camera is unstable, or a period during which no subject candidate area satisfying a certain standard is expressed (# 11 to # 13, # 24), Since no subject area is selected, no frame is displayed. Further, even during a period (# 1 to # 10, # 14 to # 23) in which the composition of the camera is stable and a subject candidate area that satisfies a certain standard is expressed (until that period exceeds a certain period ( (Up to # 4, up to # 15), since no subject area is selected, no frame is displayed.

ステップS19:画像処理エンジン14は、操作部19を介してユーザから撮影指示が入力されたか否かを判別し、入力された場合はステップS20へ移行し、入力されなかった場合はステップS11へ移行する。   Step S19: The image processing engine 14 determines whether or not a shooting instruction is input from the user via the operation unit 19. If it is input, the process proceeds to step S20. If not input, the process proceeds to step S11. To do.

ステップS20:画像処理エンジン14は、撮像部13を駆動して記録用の詳細画像を取得すると、その詳細画像を適切な形式で記憶媒体20へ記録し、フローを終了する。   Step S20: When the image processing engine 14 drives the imaging unit 13 to acquire a detailed image for recording, the image processing engine 14 records the detailed image on the storage medium 20 in an appropriate format, and ends the flow.

[第1実施形態の作用効果]
以上、本実施形態の撮像装置(11)は、撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段(21)と、抽出した複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段(22)と、高評価を得た被写体候補領域の抽出基準の種類(区分番号)を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段(23)と、現フレームに関する評価の結果と、過去フレームに関する評価履歴とに基づき、現フレームの被写体領域を選出する選出手段(24)とを備える。
[Effects of First Embodiment]
As described above, the imaging device (11) of the present embodiment has extracted the extraction means (21) that extracts a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by the imaging device, using a plurality of types of extraction criteria. The evaluation means (22) for evaluating the subjectivity for each of the plurality of subject candidate areas, and the type (category number) of extraction criteria for the subject candidate areas that have obtained a high evaluation are stored over at least a predetermined frame period. Thus, a creation means (23) for creating an evaluation history, and a selection means (24) for selecting a subject area of the current frame based on an evaluation result relating to the current frame and an evaluation history relating to the past frame are provided.

したがって、本実施形態の撮像装置(11)は、評価履歴を使用しない場合よりも、被写体領域の選出結果を安定させることができる。   Therefore, the imaging device (11) of the present embodiment can stabilize the selection result of the subject area as compared with the case where the evaluation history is not used.

なお、選出手段(24)は、現フレームにおいて高評価を得た被写体候補領域の抽出基準(区分番号)が、評価履歴に一定以上の回数に亘って登場していた場合にのみ、被写体領域の選出を行う。   Note that the selection means (24) determines the subject region only when the extraction criterion (segment number) of the subject candidate region that has been highly evaluated in the current frame has appeared in the evaluation history for a certain number of times. Select.

したがって、本実施形態の撮像装置(11)では、或る被写体候補領域が被写体領域に選出されるのは、その被写体候補領域が上位となったタイミングではなく、その被写体候補領域の抽出基準の候補履歴における登場回数が一定以上となったタイミングである。   Therefore, in the imaging device (11) of the present embodiment, a subject candidate region is selected as a subject region, not at the timing when the subject candidate region is higher, but as a candidate for extraction criteria for the subject candidate region. This is the timing at which the number of appearances in the history exceeds a certain level.

また、本実施形態の撮像装置(11)は、被写体領域の範囲を示すマークをモニタへ表示する表示制御手段を更に備える。また、本実施形態の撮像装置(11)は、被写体領域を対象として露出制御を行う露出制御手段を更に備える。また、本実施形態の撮像装置(11)は、被写体領域を対象として焦点調節を行う焦点調節手段を更に備える。   The imaging device (11) of the present embodiment further includes display control means for displaying a mark indicating the range of the subject area on the monitor. The imaging apparatus (11) of the present embodiment further includes an exposure control unit that performs exposure control on the subject area. In addition, the imaging apparatus (11) of the present embodiment further includes a focus adjustment unit that performs focus adjustment on the subject area.

したがって、本実施形態の撮像装置(11)は、マークの表示先、撮像装置の露出、撮像装置の焦点の各々を安定させることができる。   Therefore, the imaging device (11) of this embodiment can stabilize each of the mark display destination, the exposure of the imaging device, and the focal point of the imaging device.

また、本実施形態の撮像装置(11)は、評価履歴の作成が開始されてから所定フレーム周期が経過するまでの期間中は、選出手段(24)を休止させる。   Further, the imaging device (11) of the present embodiment pauses the selection means (24) during a period from when the creation of the evaluation history is started until a predetermined frame period elapses.

したがって、本実施形態の撮像装置(11)は、被写体領域の選出結果が不安定となり易い期間の無駄な処理を省略することができる。   Therefore, the imaging apparatus (11) of the present embodiment can omit useless processing during a period in which the subject region selection result is likely to be unstable.

また、抽出手段(21)は、フレームを複数の閾値で二値化することにより複数の二値化画像を生成し、複数の二値化画像の各々から被写体候補領域を抽出する。したがって、複数種類の抽出基準による被写体候補領域の抽出は、確実に行われる。   The extraction means (21) generates a plurality of binarized images by binarizing the frame with a plurality of threshold values, and extracts subject candidate regions from each of the plurality of binarized images. Therefore, the extraction of the subject candidate area based on a plurality of types of extraction criteria is performed reliably.

また、評価手段(22)は、被写体候補領域の慣性モーメントと被写体候補領域の面積とに基づき被写体候補領域の被写体らしさ評価を行う。したがって、被写体らしさの評価は正確に行われる。   The evaluation means (22) evaluates the subject likeness of the subject candidate region based on the moment of inertia of the subject candidate region and the area of the subject candidate region. Therefore, the evaluation of the subjectness is accurately performed.

また、評価手段(22)は、現フレームに関する評価では、慣性モーメントの中心を、前フレームで選出された被写体領域の位置に応じて設定する。したがって、被写体らしさの評価は、より正確に行われる。   The evaluation means (22) sets the center of the moment of inertia in accordance with the position of the subject area selected in the previous frame in the evaluation for the current frame. Accordingly, the evaluation of the subjectness is performed more accurately.

[被写体抽出処理の説明]
以下、被写体抽出処理(ステップS12)を詳しく説明する。この抽出処理は、例えば以下の手順(a)〜(f)からなる。このうち手順(b)、(c)、(d)の順序は、変更が可能である。また、手順(b)、(c)、(d)のうち少なくとも2つの手順を並列に実行することも可能である。
[Description of subject extraction processing]
Hereinafter, the subject extraction process (step S12) will be described in detail. This extraction process includes, for example, the following procedures (a) to (f). Among these, the order of procedures (b), (c), and (d) can be changed. It is also possible to execute at least two of the procedures (b), (c), and (d) in parallel.

(a)候補抽出部21は、スルー画像に対して色空間変換を施し、スルー画像の色空間をRGB空間からYCbCr空間へと変換する。   (A) The candidate extraction unit 21 performs color space conversion on the through image, and converts the color space of the through image from the RGB space to the YCbCr space.

(b)候補抽出部21は、スルー画像のY成分(Y画像)に対して互いに異なる閾値を使用した複数通り(ここでは3通りとする。)の二値化処理を施し、二値化画像M(Y1)、M(Y2)、M(Y3)を取得する(図4の左列を参照。)。このうち、二値化画像M(Y1)は、Y画像において第1閾値Y1より大きな領域に白画素(画素値=1)を配し、かつそれ以外の領域に黒画素(画素値=ゼロ)を配したものであり、二値化画像M(Y2)は、Y画像において第2閾値Y2(Y2<Y1)より大きな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものであり、二値化画像M(Y3)は、Y画像において第3閾値Y3(Y3<Y2)より小さな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものである。なお、閾値Y1、Y2、Y3は、例えば以下のとおり設定される。   (B) The candidate extraction unit 21 applies a plurality of binarization processes (here, three patterns) using different thresholds to the Y component (Y image) of the through image, and binarized image. M (Y1), M (Y2), and M (Y3) are acquired (see the left column in FIG. 4). Among them, the binarized image M (Y1) has white pixels (pixel value = 1) in a region larger than the first threshold Y1 in the Y image, and black pixels (pixel value = 0) in other regions. In the binarized image M (Y2), white pixels are arranged in an area larger than the second threshold Y2 (Y2 <Y1) and black pixels are arranged in other areas in the Y image. The binarized image M (Y3) is a Y image in which white pixels are arranged in an area smaller than the third threshold Y3 (Y3 <Y2) and black pixels are arranged in other areas. . The threshold values Y1, Y2, and Y3 are set as follows, for example.

Y1=Ave+ασ、
Y2=Ave+σ、
Y3=Ave−βσ、
但し、AveはY画像の平均画素値であり、σはY画像の画素値の標準偏差であり、α、βは、1以上の所定値である。
Y1 = Ave + ασ,
Y2 = Ave + σ,
Y3 = Ave−βσ,
Where Ave is the average pixel value of the Y image, σ is the standard deviation of the pixel value of the Y image, and α and β are one or more predetermined values.

(c)候補抽出部21は、スルー画像のCb成分(Cb画像)に対して互いに異なる閾値を使用した複数通り(ここでは3通りとする。)の二値化処理を施し、二値化画像M(B1)、M(B2)、M(B3)を取得する(図4の中央列を参照。)。このうち、二値化画像M(B1)は、Cb画像において第1閾値B1より大きな領域に白画素(画素値1)を配し、かつそれ以外の領域に黒画素(画素値0)を配したものであり、二値化画像M(B2)は、Cb画像において第2閾値B2(B2<B1)より大きな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものであり、二値化画像M(B3)は、Cb画像において第3閾値B3(B3<B2)より小さな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものである。なお、閾値B1、B2、B3は、例えば以下のとおり設定される。   (C) The candidate extraction unit 21 performs a plurality of binarization processes (here, three patterns) using different thresholds on the Cb component (Cb image) of the through image, and binarized image M (B1), M (B2), and M (B3) are acquired (see the center column in FIG. 4). Among these, in the binarized image M (B1), white pixels (pixel value 1) are arranged in an area larger than the first threshold B1 in the Cb image, and black pixels (pixel value 0) are arranged in other areas. The binarized image M (B2) is a Cb image in which white pixels are arranged in an area larger than the second threshold B2 (B2 <B1) and black pixels are arranged in other areas. Yes, the binarized image M (B3) is a Cb image in which white pixels are arranged in an area smaller than the third threshold B3 (B3 <B2) and black pixels are arranged in other areas. The threshold values B1, B2, and B3 are set as follows, for example.

B1=Ave+ασ、
B2=Ave+σ、
B3=Ave−βσ、
但し、AveはCb画像の平均画素値であり、σはCb画像の画素値の標準偏差であり、α、βは、1以上の所定値である。
B1 = Ave + ασ,
B2 = Ave + σ,
B3 = Ave−βσ,
Where Ave is the average pixel value of the Cb image, σ is the standard deviation of the pixel value of the Cb image, and α and β are one or more predetermined values.

(d)候補抽出部21は、スルー画像のCr成分(Cr画像)に対して互いに異なる閾値を使用した複数通り(ここでは3通りとする。)の二値化処理を施し、二値化画像M(R1)、M(R2)、M(R3)を取得する(図4の右列を参照。)。このうち、二値化画像M(R1)は、Cr画像において第1閾値R1より大きな領域に白画素(画素値1)を配し、かつそれ以外の領域に黒画素(画素値0)を配したものであり、二値化画像M(R2)は、Cr画像において第2閾値R2(R2<R1)より大きな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものであり、二値化画像M(R3)は、Cr画像において第3閾値R3(R3<R2)より小さな領域に白画素を配し、かつそれ以外の領域に黒画素を配したものである。なお、閾値R1、R2、R3は、例えば以下のとおり設定される。   (D) The candidate extraction unit 21 performs a plurality of binarization processes (three in this case) using different thresholds on the Cr component (Cr image) of the through image, and binarized image. M (R1), M (R2), and M (R3) are acquired (see the right column of FIG. 4). Among these, in the binarized image M (R1), white pixels (pixel value 1) are arranged in a region larger than the first threshold R1 in the Cr image, and black pixels (pixel value 0) are arranged in other regions. The binarized image M (R2) is obtained by arranging white pixels in a region larger than the second threshold value R2 (R2 <R1) and black pixels in other regions in the Cr image. Yes, the binarized image M (R3) is an image in which white pixels are arranged in an area smaller than the third threshold value R3 (R3 <R2) and black pixels are arranged in other areas in the Cr image. The threshold values R1, R2, and R3 are set as follows, for example.

R1=Ave+ασ、
R2=Ave+σ、
R3=Ave−βσ、
但し、AveはCr画像の平均画素値であり、σはCr画像の画素値の標準偏差であり、α、βは、1以上の所定値である。
R1 = Ave + ασ,
R2 = Ave + σ,
R3 = Ave−βσ,
Where Ave is the average pixel value of the Cr image, σ is the standard deviation of the pixel value of the Cr image, and α and β are one or more predetermined values.

(e)候補抽出部21は、二値化画像M(Y1)、M(Y2)、M(Y3)、M(B1)、M(B2)、M(B3)、M(R1)、M(R2)、M(R3)の各々に対してラベリング処理を行い、それら二値化画像の各々における白画素のまとまりを、被写体候補領域として抽出する。   (E) The candidate extraction unit 21 performs binarized images M (Y1), M (Y2), M (Y3), M (B1), M (B2), M (B3), M (R1), M ( A labeling process is performed on each of R2) and M (R3), and a group of white pixels in each of the binarized images is extracted as a subject candidate area.

なお、二値化画像M(Y1)を使用した抽出区分が前述した第1の抽出区分であり、二値化画像M(B1)を使用した抽出区分が前述した第2の抽出区分であり、二値化画像M(R1)を使用した抽出区分が前述した第3の抽出区分であり、二値化画像M(Y2)を使用した抽出区分が前述した第4の抽出区分であり、二値化画像M(B2)を使用した抽出区分が前述した第5の抽出区分であり、二値化画像M(R2)を使用した抽出区分が前述した第6の抽出区分であり、二値化画像M(Y3)を使用した抽出区分が前述した第7の抽出区分であり、二値化画像M(B3)を使用した抽出区分が前述した第8の抽出区分であり、二値化画像M(R3)を使用した抽出区分が前述した第9の抽出区分である。   The extraction segment using the binarized image M (Y1) is the first extraction segment described above, and the extraction segment using the binarized image M (B1) is the second extraction segment described above. The extraction segment using the binarized image M (R1) is the third extraction segment described above, and the extraction segment using the binarized image M (Y2) is the fourth extraction segment described above. The extraction segment using the binarized image M (B2) is the above-described fifth extraction segment, the extraction segment using the binarized image M (R2) is the above-described sixth extraction segment, and the binarized image The extraction segment using M (Y3) is the seventh extraction segment described above, and the extraction segment using the binarized image M (B3) is the eighth extraction segment described above, and the binarized image M ( The extraction section using R3) is the ninth extraction section described above.

(f)候補抽出部21は、手順(e)で抽出された被写体候補領域の中から一定の基準を満たさないもの、例えば、二値化画像における被写体候補領域の総面積と比して面積が一定未満であるものや、二値化画像の縁部にかかっているものなどを、被写体候補領域から外す。なお、この手順(f)における基準は、区分毎に設定されることが望ましい。   (F) The candidate extraction unit 21 has an area that is smaller than the total area of the subject candidate regions in the binarized image, for example, those that do not satisfy a certain standard from the subject candidate regions extracted in step (e). Those that are less than a certain value and those that are on the edge of the binarized image are removed from the subject candidate area. It should be noted that the reference in this procedure (f) is preferably set for each category.

[実施形態の補足]
なお、上述したステップS14では、評価履歴に書き込むべき区分番号を、2位以上の区分番号のみとしたが、N位以上の区分番号のみとしてもよい(但し、N:自然数)。
[Supplement of embodiment]
In step S14 described above, the category number to be written in the evaluation history is only the category number of the second or higher rank, but may be only the category number of the Nth or higher rank (where N is a natural number).

また、本実施形態では、被写体らしさの評価結果(区分番号)を蓄積した評価履歴を作成し、その評価履歴に基づき現フレームの被写体領域を選出した。しかし、本実施形態では、被写体領域の選出結果(区分番号)を蓄積した選出履歴を評価履歴と共に作成し、その評価履歴と選出履歴との双方に基づき現フレームの被写体領域を選出してもよい。   Further, in the present embodiment, an evaluation history in which the evaluation result (category number) of the subjectness is accumulated is created, and the subject area of the current frame is selected based on the evaluation history. However, in the present embodiment, a selection history that accumulates the selection results (category numbers) of the subject areas may be created together with the evaluation history, and the subject area of the current frame may be selected based on both the evaluation history and the selection history. .

また、本実施形態では、1フレームから選出される被写体領域の数を単数としたが、複数としてもよい。その場合、枠表示は、選出された複数の被写体領域の各々について行い、AF制御及びAE制御は、最上位の被写体領域を対象として行えばよい。また、1フレーム内に複数の枠イメージを同時に表示する場合は、それらの枠イメージを順位に応じて色分けしてもよい。   In the present embodiment, the number of subject areas selected from one frame is singular, but may be plural. In this case, the frame display is performed for each of the selected plurality of subject areas, and the AF control and AE control may be performed on the highest subject area. When a plurality of frame images are displayed simultaneously in one frame, the frame images may be color-coded according to the order.

また、本実施形態では、被写体候補領域の抽出区分を、以下の9通りに設定した。   Further, in this embodiment, the subject candidate region extraction categories are set to the following nine types.

・第1の抽出区分:輝度方向(Y方向)の閾値Y1による抽出処理。   First extraction category: extraction processing based on a threshold value Y1 in the luminance direction (Y direction).

・第2の抽出区分:第1色差方向(Cb方向)の閾値B1による抽出処理。   Second extraction category: extraction processing based on a threshold B1 in the first color difference direction (Cb direction).

・第3の抽出区分:第2色差方向(Cr方向)の閾値R1による抽出処理。   Third extraction category: extraction processing based on the threshold R1 in the second color difference direction (Cr direction).

・第4の抽出区分:Y方向の閾値Y2(Y2<Y1)による抽出処理。   Fourth extraction category: extraction processing based on a Y-direction threshold Y2 (Y2 <Y1).

・第5の抽出区分:Cb方向の閾値B2(B2<B1)による抽出処理。   Fifth extraction category: extraction processing based on the threshold value B2 (B2 <B1) in the Cb direction.

・第6の抽出区分:Cr方向の閾値R2(R2<R1)による抽出処理。   Sixth extraction category: extraction processing based on Cr-direction threshold R2 (R2 <R1).

・第7の抽出区分:Y方向の閾値Y3(Y3<Y2)による抽出処理。   Seventh extraction category: extraction processing based on a Y-direction threshold Y3 (Y3 <Y2).

・第8の抽出区分:Cb方向の閾値B3(B2<B2)による抽出処理。   Eighth extraction category: extraction processing based on the threshold value B3 (B2 <B2) in the Cb direction.

・第9の抽出区分:Cr方向の閾値R3(R3<R2)による抽出処理。   Ninth extraction category: extraction processing based on a Cr direction threshold R3 (R3 <R2).

しかしながら、本実施形態における抽出区分の組み合わせは、上記9通りの組み合わせに限定されることはない。例えば、YCbCr空間上の所定面を閾値として使用した抽出処理や、色以外の閾値による抽出処理などを、本実施形態の抽出区分の1つに採用してもよい。   However, the combinations of extraction categories in the present embodiment are not limited to the above nine combinations. For example, an extraction process that uses a predetermined surface in the YCbCr space as a threshold value, an extraction process that uses a threshold value other than color, and the like may be adopted as one of the extraction categories of this embodiment.

また、本実施形態では、被写体候補領域の抽出区分の数を9としたが、8以下、又は、10以上としてもよい。   In the present embodiment, the number of subject candidate region extraction categories is nine, but it may be eight or less, or ten or more.

また、本実施形態のステップS16では、或る被写体候補領域を被写体領域に選定するための条件を、「その被写体候補領域の区分番号が最新5フレーム分の評価履歴に3回以上出現していること」としたが、これに限定されることはない。この条件は、「その被写体候補領域の区分番号が最新Mフレーム分の評価履歴にK回以上出現していること」であればよい(但し、M>Kであり、K、Mは何れも自然数である。)。   Further, in step S16 of the present embodiment, the condition for selecting a certain subject candidate region as the subject region is set as “the category number of the subject candidate region appears three times or more in the evaluation history for the latest five frames. However, it is not limited to this. This condition only needs to be “the section number of the subject candidate area appears K or more times in the evaluation history for the latest M frames” (provided that M> K, and both K and M are natural numbers). .)

また、本実施形態のステップS16では、或る被写体候補領域を被写体領域に選定するための出現回数の閾値K、或いは、出現頻度の閾値K/Mを、可変としてもよい。因みに、この閾値が大きいときほど、ステップS18における制御(枠表示制御、AF制御、AE制御)を安定化することができ、この閾値が小さいときほど、ステップS18における制御の応答性を高めることができる。   In step S16 of the present embodiment, the appearance frequency threshold value K or the appearance frequency threshold value K / M for selecting a certain subject candidate region as the subject region may be variable. Incidentally, as the threshold value is larger, the control (frame display control, AF control, AE control) in step S18 can be stabilized. As the threshold value is smaller, the control responsiveness in step S18 can be improved. it can.

また、本実施形態では、被写体領域の選出結果を、枠表示制御、AF制御、AE制御に使用したが、他の処理、例えばホワイトバランス制御などに使用してもよい。   In this embodiment, the subject area selection result is used for frame display control, AF control, and AE control. However, it may be used for other processing such as white balance control.

また、本実施形態では、選出された被写体領域の位置を示すマークとして枠イメージを使用したが、他のマーク(例えば、被写体領域の輪郭を示す輪郭イメージなど)を使用してもよい。   In this embodiment, the frame image is used as a mark indicating the position of the selected subject area. However, other marks (for example, an outline image indicating the outline of the subject area) may be used.

また、本実施形態のカメラは、レンズ交換式のカメラ、コンパクトカメラの何れにも適用が可能である。但し、本実施形態のカメラは、動的な被写体よりも静的な被写体を撮影することの多いコンパクトカメラに好適と考えられる。   Further, the camera of the present embodiment can be applied to both a lens interchangeable camera and a compact camera. However, the camera of the present embodiment is considered suitable for a compact camera that often shoots a static subject rather than a dynamic subject.

また、本実施形態では、被写体候補領域の抽出処理、被写体領域の選出処理、選出結果に基づく各処理(枠表示制御、AF制御、AE制御)の全てを、プログラムによってソフトウエア的に実現したが、それら処理の一部又は全部を例えばASICによりハードウエア的に実現してもよい。   In the present embodiment, all of the subject candidate region extraction processing, subject region selection processing, and each processing (frame display control, AF control, AE control) based on the selection result are realized by software. Some or all of these processes may be realized in hardware by, for example, an ASIC.

11…電子カメラ、12…撮影光学系、13…撮像部、14…画像処理エンジン、15…第1メモリ、16…第2メモリ、17…記録I/F、18…表示部、19…操作部、20…記憶媒体、21…候補抽出、22…評価部、23…履歴作成部、24…被写体選出部、31…コンピュータ、32…データ読込部、33…記憶装置、34…CPU、35…メモリ、36…入出力I/F、37…バス、38…入力デバイス、39…モニタ DESCRIPTION OF SYMBOLS 11 ... Electronic camera, 12 ... Imaging | photography optical system, 13 ... Imaging part, 14 ... Image processing engine, 15 ... 1st memory, 16 ... 2nd memory, 17 ... Recording I / F, 18 ... Display part, 19 ... Operation part , 20 ... Storage medium, 21 ... Candidate extraction, 22 ... Evaluation part, 23 ... History creation part, 24 ... Subject selection part, 31 ... Computer, 32 ... Data reading part, 33 ... Storage device, 34 ... CPU, 35 ... Memory 36 ... Input / output I / F, 37 ... Bus, 38 ... Input device, 39 ... Monitor

Claims (12)

撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段と、
前記抽出手段が抽出した複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、
前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、
を備えたことを特徴とする撮像装置。
An extraction means for extracting a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by the imaging device according to a plurality of types of extraction criteria;
Evaluation means for evaluating the subjectivity for each of the plurality of subject candidate areas extracted by the extraction means;
Creating means for creating an evaluation history by storing at least a predetermined frame period the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation means;
Selection means for selecting a subject area of the current frame based on the result of the evaluation relating to the current frame and the evaluation history relating to a past frame;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記選出手段は、
前記現フレームにおいて高評価を得た被写体候補領域の抽出基準が、前記評価履歴に一定以上の回数に亘って登場していた場合に、前記被写体領域の前記選出を行う
ことを特徴とする撮像装置。
The imaging device according to claim 1,
The selection means is:
The imaging device, wherein the selection of the subject area is performed when the extraction criterion of the subject candidate area that has been highly evaluated in the current frame has appeared in the evaluation history for a certain number of times or more. .
請求項1又は請求項2に記載の撮像装置において、
前記被写体領域の位置を示すマークをモニタへ表示する表示制御手段を更に備えた
ことを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
An imaging apparatus, further comprising display control means for displaying a mark indicating the position of the subject area on a monitor.
請求項1〜請求項3の何れか一項に記載の撮像装置において、
前記被写体領域を対象として露出制御を行う露出制御手段を更に備えた
ことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 3,
An imaging apparatus, further comprising an exposure control unit that performs exposure control on the subject area.
請求項1〜請求項4の何れか一項に記載の撮像装置において、
前記被写体領域を対象として焦点調節を行う焦点調節手段を更に備えた
ことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
An imaging apparatus, further comprising: a focus adjustment unit that performs focus adjustment on the subject area.
請求項1〜請求項5の何れか一項に記載の画像処理装置において、
前記評価履歴の作成が開始されてから所定フレーム周期が経過するまでの期間中は、前記選出手段の動作を休止させる
ことを特徴とする撮像装置。
In the image processing apparatus according to any one of claims 1 to 5,
The imaging apparatus characterized in that the operation of the selection means is suspended during a period from when the creation of the evaluation history is started until a predetermined frame period elapses.
請求項1〜請求項6の何れか一項に記載の撮像装置において、
前記抽出手段は、
フレームを複数の閾値で二値化することにより複数の二値化画像を生成し、前記複数の二値化画像の各々から被写体候補領域を抽出する
ことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 6,
The extraction means includes
An imaging apparatus comprising: binarizing a frame with a plurality of threshold values to generate a plurality of binarized images and extracting a subject candidate region from each of the plurality of binarized images.
請求項7に記載の撮像装置において、
前記評価手段は、
被写体候補領域の慣性モーメントと前記被写体候補領域の面積とに基づき前記被写体候補領域の被写体らしさ評価を行う
ことを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The evaluation means includes
An imaging apparatus, wherein subject-likeness evaluation of the subject candidate region is performed based on a moment of inertia of the subject candidate region and an area of the subject candidate region.
請求項8に記載の撮像装置において、
前記評価手段は、
現フレームに関する前記評価では、前記慣性モーメントの中心を、前フレームで選出された前記被写体領域の位置に応じて設定する
ことを特徴とする撮像装置。
The imaging device according to claim 8,
The evaluation means includes
In the evaluation relating to the current frame, the center of the moment of inertia is set according to the position of the subject area selected in the previous frame.
撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手段と、
前記抽出手段で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手段と、
前記評価手段によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手段と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手段と、
を備えたことを特徴とする画像処理装置。
An extraction means for extracting a plurality of subject candidate regions from each of a plurality of frames that are sequentially generated by the imaging device according to a plurality of types of extraction criteria;
Evaluation means for evaluating the subjectivity for each of the plurality of subject candidate areas extracted by the extraction means;
Creating means for creating an evaluation history by storing at least a predetermined frame period the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation means;
Selection means for selecting a subject area of the current frame based on the result of the evaluation relating to the current frame and the evaluation history relating to a past frame;
An image processing apparatus comprising:
撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手順と、
前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、
前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、
を含むことを特徴とする画像処理方法。
An extraction procedure for extracting a plurality of subject candidate areas from each of a plurality of frames that are sequentially generated by the image sensor, based on a plurality of types of extraction criteria;
An evaluation procedure for performing subjectivity evaluation for each of a plurality of subject candidate areas extracted in the extraction procedure;
A creation procedure for creating an evaluation history by storing at least a predetermined frame period, the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation procedure;
A selection procedure for selecting a subject area of the current frame based on the result of the evaluation for the current frame and the evaluation history for the past frame;
An image processing method comprising:
撮像素子が順次に生成する複数のフレームの各々から、複数種類の抽出基準により複数の被写体候補領域を抽出する抽出手順と、
前記抽出手順で抽出された複数の被写体候補領域の各々に対して被写体らしさ評価を行う評価手順と、
前記評価手順によって高評価を得た被写体候補領域の抽出基準の種類を、少なくとも所定フレーム周期に亘って記憶することにより評価履歴を作成する作成手順と、
現フレームに関する前記評価の結果と、過去フレームに関する前記評価履歴とに基づき、前記現フレームの被写体領域を選出する選出手順と、
をコンピュータに実行させることを特徴とする画像処理プログラム。
An extraction procedure for extracting a plurality of subject candidate areas from each of a plurality of frames that are sequentially generated by the image sensor, based on a plurality of types of extraction criteria;
An evaluation procedure for performing subjectivity evaluation for each of a plurality of subject candidate areas extracted in the extraction procedure;
A creation procedure for creating an evaluation history by storing at least a predetermined frame period, the type of extraction criterion of the subject candidate area that has been highly evaluated by the evaluation procedure;
A selection procedure for selecting a subject area of the current frame based on the result of the evaluation for the current frame and the evaluation history for the past frame;
An image processing program for causing a computer to execute.
JP2012173060A 2012-08-03 2012-08-03 Imaging apparatus, image processing apparatus, image processing method, and image processing program Active JP5935581B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012173060A JP5935581B2 (en) 2012-08-03 2012-08-03 Imaging apparatus, image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012173060A JP5935581B2 (en) 2012-08-03 2012-08-03 Imaging apparatus, image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2014033358A JP2014033358A (en) 2014-02-20
JP5935581B2 true JP5935581B2 (en) 2016-06-15

Family

ID=50282862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012173060A Active JP5935581B2 (en) 2012-08-03 2012-08-03 Imaging apparatus, image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5935581B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6410454B2 (en) * 2014-04-03 2018-10-24 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2016051277A (en) * 2014-08-29 2016-04-11 株式会社ニコン Subject searching device, subject searching method, and subject searching program
JP7298993B2 (en) * 2018-04-09 2023-06-27 浜松ホトニクス株式会社 Specimen observation device and specimen observation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4819001B2 (en) * 2006-07-25 2011-11-16 富士フイルム株式会社 Imaging apparatus and method, program, image processing apparatus and method, and program
JP5147670B2 (en) * 2008-12-15 2013-02-20 キヤノン株式会社 Image processing apparatus, image processing method, and imaging apparatus

Also Published As

Publication number Publication date
JP2014033358A (en) 2014-02-20

Similar Documents

Publication Publication Date Title
US8144207B2 (en) Computer program product for photographic subject tracking, photographic subject tracking device, and camera
CN110166707B (en) Image processing method, image processing apparatus, electronic device, and storage medium
US8493464B2 (en) Resolution adjusting method
US20130307966A1 (en) Depth measurement apparatus, image pickup apparatus, and depth measurement program
KR101566081B1 (en) Image processing apparatus, image processing method, and storage medium
JP5279635B2 (en) Image processing apparatus, image processing method, and program
JP4947136B2 (en) Image processing apparatus, image processing method, and program
JP5246078B2 (en) Object location program and camera
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
JP5125734B2 (en) Imaging apparatus, image selection method, and image selection program
CN112087580A (en) Image acquisition method and device, electronic equipment and computer readable storage medium
EP3809327A1 (en) Subject recognition method, electronic device, and computer readable storage medium
JP5935581B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
US20130293741A1 (en) Image processing apparatus, image capturing apparatus, and storage medium storing image processing program
JP6230386B2 (en) Image processing apparatus, image processing method, and image processing program
US9948867B2 (en) Apparatus, method, and computer-readable storage device for generating composite image
JP6652303B2 (en) Flash band determination device, control method thereof, control program, and imaging device
US8629925B2 (en) Image processing apparatus, image processing method, and computer program
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP6157238B2 (en) Image processing apparatus, image processing method, and image processing program
RU2761187C1 (en) Image processing apparatus and image capturing apparatus
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP2015041865A (en) Image processing apparatus and image processing method
JP5131399B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160425

R150 Certificate of patent or registration of utility model

Ref document number: 5935581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250