JP2010041621A - Imaging device, its control method, and program - Google Patents
Imaging device, its control method, and program Download PDFInfo
- Publication number
- JP2010041621A JP2010041621A JP2008204770A JP2008204770A JP2010041621A JP 2010041621 A JP2010041621 A JP 2010041621A JP 2008204770 A JP2008204770 A JP 2008204770A JP 2008204770 A JP2008204770 A JP 2008204770A JP 2010041621 A JP2010041621 A JP 2010041621A
- Authority
- JP
- Japan
- Prior art keywords
- face area
- given
- imaging
- face
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体の顔領域を検出して撮影を行う技術に関する。 The present invention relates to a technique for detecting a face area of a subject and performing shooting.
従来から、CCDなどの撮像素子によって取り込まれた被写体像の中から、被写体の顔を検出する技術が知られている。顔を検出する技術としては、様々な手法が公知となっている。例えば、ニューラルネットワークに代表される学習を用いた方法がある。また、目、鼻、口、および、顔の輪郭といった物理的な形状の特徴のある部位を画像情報からテンプレートマッチングを用いて識別する手法がある。他にも、肌の色や目の形といった画像情報の特徴量を検出し統計的解析を用いた手法がある。さらに、直前の顔領域が検出された位置の近傍であるか判定したり、服の色を加味するために顔領域の近傍の色を判定したり、あるいは、画面の中央付近ほど顔識別のための閾値を低く設定したりする方法がある。 2. Description of the Related Art Conventionally, a technique for detecting the face of a subject from a subject image captured by an image sensor such as a CCD is known. Various techniques are known as techniques for detecting a face. For example, there is a method using learning represented by a neural network. In addition, there is a technique for identifying parts having physical shape features such as eyes, nose, mouth, and facial contour from image information using template matching. In addition, there is a technique that uses a statistical analysis by detecting feature amounts of image information such as skin color and eye shape. Furthermore, it is determined whether the immediately preceding face area is near the detected position, the color near the face area is determined to take into account the color of the clothes, or the face near the center of the screen is used for face identification. There is a method of setting a low threshold value.
一方、このようにして検出した顔を撮影時の情報としてさまざまに用いる技術が開示されている。特許文献1には、連写中に顔検出が不能になった場合、予め設定された所定の時間内に撮影された画像の顔位置情報を用いて連写を行う技術が記載されている。また、特許文献2には、顔画像を撮影して画像データとして蓄積し、そこから表情を抽出し、さらに抽出された表情からまぶたの状態を検出し、まぶたの状態から目がどのような状態か判定する技術が記載されている。
ところが、上述したように顔検出を行った画像を撮影した場合であっても、必ずしも良好な画像が得られるとは限らなく、例えば撮影画像について検出された顔が目を瞑っていることがある。この場合、ユーザは、カメラを再生モードに切り替えて撮影後の画像を再生したり、撮影後に自動的に画像の再生を行うレックレビュー機能を用いて目を瞑っていないか確認する必要がある。しかしながら、カメラに搭載された表示装置では画面サイズが小さいため、全画面表示のままでは目を瞑っているか確認することが困難となる。そのため、ユーザが撮影後に再生画像を拡大して目瞑りかどうかを確認するなどの煩雑な操作が必要となる。 However, even when a face-detected image is taken as described above, a good image is not always obtained. For example, the face detected for the taken image may be meditating. . In this case, it is necessary for the user to check whether the eyes have been meditated by using a REC review function that switches the camera to the playback mode and plays back the image after shooting, or automatically plays back the image after shooting. However, since the screen size of the display device mounted on the camera is small, it is difficult to confirm whether the eyes are meditated with the full screen display. For this reason, it is necessary for the user to perform complicated operations such as enlarging the reproduced image after shooting and confirming whether the eyes are closed.
本発明は、上記課題に鑑みてなされ、失敗撮影をユーザが簡単に認知することができる技術を実現する。 This invention is made | formed in view of the said subject, and implement | achieves the technique in which a user can recognize failure photography easily.
上記課題を解決するために、本発明の撮像装置は、被写体を撮像して画像データを生成する撮像手段と、ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、前記撮像手段により撮像された画像データを表示する表示手段と、前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出手段と、前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御手段と、を有する。 In order to solve the above-described problem, an imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and generates image data, an operation unit that receives a shooting instruction of the subject by the imaging unit from a user, and the imaging unit. Display means for displaying the imaged image data, and detecting a human face area included in the image data imaged by the imaging means before the imaging instruction is given by the operating means, and the imaging means by the operating means The face detection means for detecting the face area of the person included in the image data taken by the imaging means after the image is taken is compared with the image data before and after the shooting instruction is given by the operation means, and the shooting instruction is given. When there is no face area after the shooting instruction is given at the position where the face area was before And a control means for controlling said display means to display the.
また、本発明の撮像装置の制御方法は、被写体を撮像して画像データを生成する撮像手段と、ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、前記撮像手段により撮像された画像データを表示する表示手段と、を有する撮像装置の制御方法であって、前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出工程と、前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御工程と、を有する。 According to the control method of the imaging apparatus of the present invention, an imaging unit that captures an image of a subject and generates image data, an operation unit that receives a shooting instruction of the subject by the imaging unit from a user, and an image captured by the imaging unit And a display means for displaying image data, wherein a face area of a person included in the image data picked up by the image pickup means is detected before a shooting instruction is given by the operation means. And a face detection step of detecting a face area of a person included in the image data imaged by the imaging means after the imaging instruction is given by the operating means, and image data before and after the imaging instruction by the operating means is given. In comparison, if there is no face area after the shooting instruction is given at the position where the face area was before the shooting instruction is given, the shooting instruction is And a control step for controlling the display means so as to distinguishably display the face area before being.
本発明によれば、撮影後に煩雑な操作を行うことなく、被写体の目瞑りなどの望ましくない撮影結果をユーザが素早く認知できるようになる。 According to the present invention, it becomes possible for a user to quickly recognize an undesired shooting result such as eye meditation of a subject without performing a complicated operation after shooting.
以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。 The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.
尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
[第1の実施形態]
図1は、本発明に係る第1の実施形態の電子カメラのブロック図である。
[First Embodiment]
FIG. 1 is a block diagram of an electronic camera according to a first embodiment of the present invention.
図1において、101は後述する撮像素子112の撮像面上に焦点を合わせるためのフォーカスレンズである。102はフォーカスレンズ101の初期位置を検出するフォトインタラプタである。103はフォーカスレンズ101を駆動するフォーカスレンズ駆動モータである。104はフォーカスレンズ駆動モータ103に駆動信号を入力してフォーカスレンズ101を動作させるフォーカスレンズ駆動回路である。105は絞りやシャッタなどの光量調節部材である。106は光量調節部材105を駆動する光量調節部材駆動モータである。107は光量調節部材駆動モータ106に駆動信号を入力して光量調節部材105を動作させる光量調節部材駆動回路である。108は撮影レンズの焦点距離を変更するズームレンズである。109はズームレンズ108の初期位置を検出するフォトインタラプタである。110はズームレンズ108を駆動するズームレンズ駆動モータである。111はズームレンズ駆動モータ110に駆動信号を入力してズームレンズ108を動作させるズームレンズ駆動回路である。
In FIG. 1, reference numeral 101 denotes a focus lens for focusing on an imaging surface of an
112は被写体からの反射光を電気信号に変換する撮像素子である。113は撮像素子112から出力されるアナログ信号をデジタル信号に変換するA/D変換器である。114は撮像素子112やA/D変換器113を動作させるために必要なタイミング信号を発生するタイミング信号発生回路(以下、TG)である。115はA/D変換器113から入力された画像データに所定の処理を施す画像処理プロセッサである。116は画像処理プロセッサ115で処理された画像データを一時的に記憶するバッファメモリである。117は後述する記録媒体との接続のためのインターフェースである。118はメモリカードやハードディスクなどの記録媒体である。119は撮影シーケンスなどシステムを制御するためのマイクロコントローラ(以下、CPU)である。
An
120はユーザによるズーム動作の開始および停止の操作指示に応じた信号をCPU119に入力するズームSW(スイッチ)である。121はAFやAE等の撮影準備を指示するためのスイッチ(以下、SW1)である。122は撮影準備指示SW1の操作を受け付けた後、本露光及び画像データの記録等の撮影処理を指示するための撮影指示スイッチ(以下、SW2)である。123はシステムに電源を投入するためのメインSWである。124はカメラの動作モードを設定するモードSWである。125はCPU119で実行されるプログラムが記憶されているプログラムメモリである。126はCPU119がプログラムメモリ125に記憶されているプログラムに従い処理を行う際に必要な各種データを書き込み及び読み出しするワークメモリである。127はカメラの動作状態や各種警告表示を行う操作表示部である。128は画像を表示する電子ビューファインダ(以下、EVF)である。129は各種設定を行う設定SWである。
130は操作表示部127やEVF128に表示されたメニュー項目の選択やAF枠位置の移動指示等の操作指示を行うための十字SWである。131は撮影処理により生成された画像データから人物の顔領域を検出する顔検出部である。132はAF枠位置の移動を指示するAF枠移動SWである。133はEVF128に表示された画像の拡大を指示する画像拡大指示SWである。
<撮影動作>
次に、図2のフローを参照して、本実施形態の電子カメラの撮影動作について説明する。
<Shooting operation>
Next, the photographing operation of the electronic camera of this embodiment will be described with reference to the flow of FIG.
図2において、S201では撮影準備指示SW1の状態を判定し、ONならばS206へ、ONでなければS202へ進む。S202では後述する手順に従い顔検出処理を行う。S203では光量調節部材105やシャッタースピードを制御してEVF128に表示される画像の明るさが適正になるようAE動作を行う。S204では光源の色温度によらずEVF128に表示される画像が適切な色バランスになるようオートホワイトバランス(AWB)処理を行う。S205では撮像素子112から読み出した画像信号に所定の処理を施してEVF128へ表示する。S206では後述する手順に従い撮影処理を行う。
In FIG. 2, in S201, the state of the shooting preparation instruction SW1 is determined. If ON, the process proceeds to S206, and if not ON, the process proceeds to S202. In S202, face detection processing is performed according to the procedure described later. In S203, the AE operation is performed so that the brightness of the image displayed on the
<顔検出処理>
図3は図2のS202での顔検出処理の詳細なフローチャートである。
<Face detection processing>
FIG. 3 is a detailed flowchart of the face detection process in S202 of FIG.
図3において、S301では撮像素子112から画像信号を読み出す。S302では、S301で読み出した画像信号から、顔検出部131により被写体の顔領域を検出する。顔検出方法としては、背景技術で述べたような技術を適用する。S303ではS302で検出された顔領域の個数をワークメモリ126に記憶する。S304ではS302で検出された顔領域の、表示画面内における水平および垂直方向の各位置をワークメモリ126に記憶する。ここではS303で記憶した顔領域の個数分の位置を記憶するものとする。S305ではS302で検出された顔領域の中から主被写体の顔(以下、主顔)を1つ選択する。ここで主顔の選択は顔の位置や大きさを判定して行うものとする。つまり、顔領域の位置が画面の中心に最も近いものや顔領域の大きさが最も大きいものを主顔とする。S306ではS305で選択された主顔の位置をワークメモリ126に記憶する。
In FIG. 3, an image signal is read from the
<撮影処理>
図4は図2のS206での撮影処理の詳細なフローチャートである。
<Shooting process>
FIG. 4 is a detailed flowchart of the photographing process in S206 of FIG.
図4において、S401では本露光用AE動作を行う。S402では後述する手順に従い本露光用AF動作を行う。S403では撮影指示スイッチSW2の状態を判定し、ONならばS405へ、ONでなければS404へ進む。S404では撮影準備指示SW1の状態を判定し、ONならばS403へ、ONでなければ本処理を終了する。S405では後述する手順に従い本露光及び記録を行う。 In FIG. 4, the main exposure AE operation is performed in S401. In S402, the main exposure AF operation is performed according to the procedure described later. In S403, the state of the photographing instruction switch SW2 is determined. If it is ON, the process proceeds to S405, and if it is not ON, the process proceeds to S404. In S404, the state of the shooting preparation instruction SW1 is determined. If it is ON, the process proceeds to S403. In step S405, the main exposure and recording are performed according to the procedure described later.
<AF動作>
図5は図4のS402での本露光用AF動作の詳細を示すフローチャートである。
<AF operation>
FIG. 5 is a flowchart showing details of the main-exposure AF operation in S402 of FIG.
図5において、S501ではフォーカスレンズ101をスキャン開始位置へ移動する。ここでスキャン開始位置は、例えば合焦可能領域の無限端とする。S502では図3のS304で記憶した顔領域の位置に測距枠を設定する。 In FIG. 5, in S501, the focus lens 101 is moved to the scan start position. Here, the scan start position is, for example, the infinite end of the focusable area. In S502, a distance measurement frame is set at the position of the face area stored in S304 of FIG.
S503では撮像素子112から読み出されたアナログ信号をA/D変換器113によりデジタル信号に変換する。さらにそのデジタル信号から画像処理プロセッサ115により輝度信号の高周波成分を抽出し、これを焦点評価値としてワークメモリ126に記憶する。ここでS502で設定したそれぞれの測距枠について測距枠内の画像信号を用いて焦点評価値を算出し記憶する。S504ではフォーカスレンズ101の現在位置を取得しワークメモリ126に記憶する。フォーカスレンズ駆動モータ103にステッピングモータを適用した場合は、フォトインタラプタ102により検出される初期位置からの相対駆動パルス数を用いてフォーカスレンズ101の位置とする。なお、図示しないロータリエンコーダなどを用いて絶対位置を測定しても良い。
In step S <b> 503, the analog signal read from the
S505ではフォーカスレンズ101の現在位置がスキャン終了位置と等しいか判定し、等しければS507へ、等しくなければS506へ進む。このスキャン終了位置は、例えば合焦可能領域の至近端とする。S506ではフォーカスレンズ101をスキャン終了方向へ向けて所定量移動する。S507ではS503で取得した主顔位置に設定した測距枠(以下、主顔枠)の焦点評価値の中から最大のものを算出する。S508ではS507で算出した焦点評価値の最大値を取得した時のフォーカスレンズ101の位置(以下、ピーク位置)をワークメモリ126に記憶する。S509では測距枠インデックスを0としてワークメモリ126に記憶する。この測距枠インデックスは、例えば図6のように図3のS303で記憶した顔領域の個数が画面内に5つであり、それぞれの顔領域に対して測距枠が設定されている場合、それぞれの測距枠を識別するために用いられる。
In S505, it is determined whether the current position of the focus lens 101 is equal to the scan end position. If they are equal, the process proceeds to S507, and if they are not equal, the process proceeds to S506. The scan end position is, for example, the closest end of the focusable area. In step S506, the focus lens 101 is moved by a predetermined amount in the scan end direction. In S507, the maximum one is calculated from the focus evaluation values of the distance measurement frames (hereinafter referred to as main face frames) set in the main face position acquired in S503. In step S <b> 508, the position of the focus lens 101 (hereinafter, peak position) when the maximum focus evaluation value calculated in step S <b> 507 is acquired is stored in the
以下では、図6のように主顔枠を除く、左上の枠から順番に0,1,2,・・・というように番号を付与し、測距枠インデックスに対応した番号の測距枠について処理を行うものとする。なお、以下の説明では、測距枠インデックス0に対応した測距枠を測距枠0、測距枠インデックス1に対応した測距枠を測距枠1というように、測距枠インデックスの番号と測距枠の番号とを対応付けて呼ぶものとする。
In the following, numbers such as 0, 1, 2,... Are added in order from the upper left frame except the main face frame as shown in FIG. Processing shall be performed. In the following description, the distance measurement frame index number such that the distance measurement frame corresponding to the distance measurement frame index 0 is the distance measurement frame 0, and the distance measurement frame corresponding to the distance
S510では現在設定されている測距枠インデックスに対応する測距枠の焦点評価値の中から最大のものを算出する。S511ではS510で算出した測距枠のピーク位置をワークメモリ126に記憶する。S512では、現在記憶している測距枠インデックスに1を加える。S513では現在記憶している測距枠インデックスが図3のS303で記憶した顔個数−1と等しいか判定し、等しければS514へ、等しくなければS510へ進む。ここで測距枠インデックスについて図3のS303で記憶された顔個数−1と比較しているのは、主顔枠は測距枠インデックスの数に含めないためである。S514ではS508で記憶されたピーク位置へフォーカスレンズ101を移動する。S515では後述する手順に従い合焦枠表示判定を行う。S516ではS515での判定結果に従い合焦枠を表示する。
In S510, the maximum one of the focus evaluation values of the distance measurement frame corresponding to the currently set distance measurement frame index is calculated. In S511, the peak position of the distance measurement frame calculated in S510 is stored in the
<合焦枠表示判定処理>
図7は図5のS515での合焦枠表示判定処理の詳細を示すフローチャートである。
<In-focus frame display determination process>
FIG. 7 is a flowchart showing details of the focus frame display determination process in S515 of FIG.
図7において、S701では測距枠インデックスを0としてワークメモリ126に記憶する。この測距枠インデックスは、図5で説明したものと同じものである。S702では、図5のS508で記憶されたピーク位置(以下、主顔ピーク位置)と、現在設定されている測距枠インデックスに対応する測距枠のピーク位置との差を求め、その差が所定値以下ならS703へ、所定値以下でなければS704へ進む。ここで所定値は焦点深度をフォーカスレンズ101の移動量に換算した値とする。例えばフォーカスレンズ駆動モータ103にステッピングモータを適用する場合は、焦点深度をステッピングモータの駆動ステップ数に換算した値とする。S703では現在設定されている測距枠インデックスを合焦OKとしてワークメモリ126に記憶する。S704では現在記憶している測距枠インデックスに1を加える。S705では現在記憶している測距枠インデックスが図3のS303で記憶された顔個数−1と等しいか判定し、等しければ本処理を終了し、等しくなければS702へ進む。ここで測距枠インデックスを図3のS303で記憶された顔個数−1と比較しているのは、図5のS513で述べた理由と同じである。
In FIG. 7, the distance measurement frame index is set to 0 and stored in the
このようにして、図5のS502で設定したそれぞれの顔領域の位置に対応する測距枠の中から合焦表示が可能な測距枠を選択する。こうして選択された測距枠と主顔枠をEVF128に表示する。
In this way, a distance measurement frame that can be displayed in focus is selected from the distance measurement frames corresponding to the positions of the respective face areas set in S502 of FIG. The distance measuring frame and main face frame thus selected are displayed on the
<本露光処理>
図8は図4のS405での本露光処理の詳細を示すフローチャートである。
<Main exposure processing>
FIG. 8 is a flowchart showing details of the main exposure process in S405 of FIG.
図8において、S801では撮像素子112へ露光を行う。S802では撮像素子112に蓄積されたデータを読み出す。S803ではA/D変換器113により撮像素子112から読み出したアナログ信号をデジタル信号に変換する。S804では画像処理プロセッサ115によりA/D変換器113から出力されるデジタル信号に各種画像処理を施す。S805では後述する手順に従いEVF128に画像を表示する。S806ではS804で処理した画像をJPEGなどのフォーマットに従い圧縮する。S807ではS806で圧縮したデータを記録媒体インターフェース117を介して電子カメラ本体に装着されたメモリカードなどの記録媒体118へ記録する。
In FIG. 8, the
<画像表示処理>
図9は図8のS805での画像表示処理の詳細を示すフローチャートである。
<Image display processing>
FIG. 9 is a flowchart showing details of the image display processing in S805 of FIG.
図9において、S901では図8のS804で処理した画像から、顔検出部131により被写体の顔領域を検出する。顔検出方法としては、図3のS302と同様に背景技術で述べたような技術を適用する。S902ではS901で検出した顔領域の位置をワークメモリ126に記憶する。S903では測距枠インデックスを0に設定してワークメモリ126に記憶する。この測距枠インデックスは、図6で説明したものと同様である。
In FIG. 9, in step S901, the face area of the subject is detected by the
S904では現在の測距枠インデックスに対応する図3のS304で記憶した顔位置について最も近い顔位置をS902で記憶した顔位置の中から選び、その差を算出する。つまり、同一の被写体の顔領域の撮影前後の位置の差を算出する。S905ではS904で算出した顔位置の差が所定値未満か判定し、所定値未満であればS906へ、所定値以上であればS907へ進む。ここで所定値は、例えば縦横共に50画素とする。S906では現在の測距枠インデックスに対応する表示インデックスをOKとしてワークメモリ126に記憶する。S907では現在の測距枠インデックスに対応する表示インデックスをNGとしてワークメモリ126に記憶する。S908では、現在の測距枠インデックスに1を加えてワークメモリ126に記憶する。S909では現在の測距枠インデックスが図3のS303で記憶され顔領域の個数と等しいか判定し、等しければS910へ、等しくなければS904へ進む。
In S904, the face position closest to the face position stored in S304 of FIG. 3 corresponding to the current distance measurement frame index is selected from the face positions stored in S902, and the difference is calculated. That is, the difference between the positions of the face area of the same subject before and after shooting is calculated. In S905, it is determined whether the difference between the face positions calculated in S904 is less than a predetermined value. If it is less than the predetermined value, the process proceeds to S906, and if it is greater than the predetermined value, the process proceeds to S907. Here, the predetermined value is, for example, 50 pixels both vertically and horizontally. In step S906, the display index corresponding to the current distance measurement frame index is stored in the
このようにして順次、図5のS502で設定した測距枠ごとに撮影前後の顔位置を比較していく。なお、図6のように画面内に顔領域が5つあり、主顔以外にインデックスを0から3として付与した場合、S908の後、測距枠インデックスが4となった場合は、その後のS904での処理では主顔について位置の比較を行うものとする。つまり、測距枠0,1,2,3,主顔の順に位置を比較していく。 In this way, the face positions before and after photographing are compared sequentially for each distance measurement frame set in S502 of FIG. As shown in FIG. 6, when there are five face areas in the screen and the index is assigned from 0 to 3 other than the main face, after S908, when the distance measurement frame index is 4, the subsequent S904 In the processing at, it is assumed that the position of the main face is compared. That is, the positions are compared in the order of the distance measurement frames 0, 1, 2, 3, and the main face.
S910では図8のS804で処理した画像をEVF128に表示するとともに、S906及びS907で記憶された表示インデックスに従い、図3のS304で記憶された顔位置に測距枠を表示する。
In S910, the image processed in S804 of FIG. 8 is displayed on the
S911では画像拡大指示SW133の状態を判定し、ONならばS912へ、ONでなければ本処理を終了する。S912ではS910でEVF128に表示した画像を、S907で表示インデックスがNGとされた測距枠を中心に拡大する。
In S911, the state of the image enlargement instruction SW133 is determined. If it is ON, the process proceeds to S912. If it is not ON, this process ends. In S912, the image displayed on the
ここで、図9のS910での画像と測距枠の表示方法について説明する。 Here, the display method of the image and the distance measurement frame in S910 of FIG. 9 will be described.
図10は図6の測距枠に対する撮影画像を表している。ここで、測距枠0,2,3及び主顔の顔位置は、撮影前後の位置の差が所定値未満でかつ測距枠1の顔位置の撮影前後の位置の差は所定値以上であるとする。また、図7で説明した合焦枠表示判定は、全ての測距枠が合焦OKと判定されているものとする。
FIG. 10 shows a photographed image for the distance measurement frame of FIG. Here, as for the face positions of the distance measurement frames 0, 2, 3 and the main face, the difference between the positions before and after the photographing is less than a predetermined value, and the difference between the positions of the
図10において、顔位置の差が所定値未満の測距枠0,2,3及び主顔の表示インデックスはOKとなる。表示インデックスがOKのときの表示形式は、図10のように顔位置に実線の矩形枠を表示するものとする。このとき合焦状態であることが識別可能なように矩形枠を緑色にする。一方、顔位置の差が所定値以上である測距枠1の表示インデックスはNGとなるので、このときの表示形式は、図10のように矩形枠を点線とする。また、このとき矩形枠の色を顔位置の差が所定値未満のときに用いた緑色とは別の黄色にして、顔位置のずれ量が所定範囲を超えていることを識別可能に表示する。さらに点線の矩形枠を点滅させる。このように矩形枠の形態や色を変えたり、点滅させるのはユーザに警告するためである。また、この状態で画像拡大指示SW133がONされると、測距枠1を中心に画像が拡大される。これによって、ユーザは顔位置がずれた画像をより詳細に確認することができる。
In FIG. 10, the distance measurement frames 0, 2, 3 and the main face display index whose face position difference is less than a predetermined value are OK. As a display format when the display index is OK, a solid rectangular frame is displayed at the face position as shown in FIG. At this time, the rectangular frame is made green so that it can be identified that it is in focus. On the other hand, the display index of the ranging
[変形例]
図10では測距枠1の顔位置が撮影前後でずれた場合を説明した。これに対して、以下では、被写体が目を瞑るなどして撮影画像から顔領域が検出できなかった場合の表示方法について図11を参照して説明する。
[Modification]
In FIG. 10, the case where the face position of the
図10と同様に、測距枠0,2,3及び主顔の顔位置は、撮影前後の位置の差が所定値未満であるとする。一方、測距枠1に対応する撮影画像の顔領域は、目を瞑っているために検出できないものとする。この場合は測距枠1に最も近い顔は主顔となる。このとき測距枠1と主顔枠との位置の差が所定値以上であったとすると、撮影前後の顔位置の差が所定値以上になるので、表示インデックスはNGとなる。よって、図10と同様に、測距枠1は点線の矩形枠となり、色は黄色で点滅表示される。これらも図10と同様に、警告のため表示インデックスOKのときとは異なる表示としている。この状態で画像拡大指示SW133がONになると、測距枠1を中心に画像を拡大する。これにより、目を瞑った顔をより詳細に確認することができる。
As in FIG. 10, it is assumed that the distance between frames 0, 2, and 3 and the face position of the main face is less than a predetermined value before and after shooting. On the other hand, it is assumed that the face area of the captured image corresponding to the
以上説明したように、撮影前後で検出された顔位置がずれていたり、目を瞑るなどして顔検出ができなかった場合に、撮影前後の顔の状態が異なることをユーザが煩雑な操作を行うことなく簡単に認知することができる。すなわち、ユーザは目瞑りなどの失敗撮影を簡単に認知することができ、さらに画像拡大スイッチを操作するだけで、撮影前の状態とは異なった顔、つまり位置がずれたり、目を瞑った顔を拡大して表示するので、失敗画像の確認を簡単に行うことができる。 As described above, when the face position detected before and after shooting is shifted, or when face detection cannot be performed by meditating the eyes, the user needs to perform a complicated operation that the state of the face before and after shooting is different. You can easily recognize without doing. In other words, the user can easily recognize the failed shooting such as eye meditation, and even by operating the image enlargement switch, the face is different from the pre-shooting state, that is, the face is displaced or the eyes are meditated. Is displayed in an enlarged manner, so that a failed image can be easily confirmed.
[第2の実施形態]
第1の実施形態では、撮影後にEVF128に画像を表示する際に、一旦全画面を表示した後、ユーザの操作によって画像を拡大していた。これに対して、第2の実施形態では、このような動作を自動で行うようにした場合について説明する。
[Second Embodiment]
In the first embodiment, when an image is displayed on the
図12は第2の実施形態の画像表示処理を示し、図9に対応するフローチャートである。 FIG. 12 is a flowchart corresponding to FIG. 9 showing the image display processing of the second embodiment.
図12において、S1201〜S1209では、図9のS901〜S909と同様の処理を行う。そして、S1210ではS1207において表示インデックスがNGとなった測距枠があるか判定する。S1210でNGの枠があれば、S1211に進み、S1207で表示インデックスがNGとされた測距枠の位置を中心に画像を拡大してEVF128に表示する。一方、S1210でNGの枠がなければ、S1212に進み、画像を拡大せずにEVF128に表示する。
12, in S1201 to S1209, the same processing as S901 to S909 in FIG. 9 is performed. In step S1210, it is determined whether there is a ranging frame whose display index is NG in step S1207. If there is an NG frame in S1210, the process proceeds to S1211, and the image is enlarged and displayed on the
ここで、図12のS1211での画像と測距枠の表示方法について説明する。 Here, a display method of the image and the distance measurement frame in S1211 of FIG. 12 will be described.
図13は図12のS1211での画像と測距枠を表している。ここでは図11と同様に画面内に顔が表示され、測距枠1に対応する顔が目を瞑っているものとする。この場合は、測距枠1の表示インデックスがNGとなる。すると、S1210において表示インデックスNGの枠がありと判定され、S1211において測距枠1を中心に拡大した画像をEVF128に表示する。
FIG. 13 shows an image and a distance measurement frame in S1211 of FIG. Here, it is assumed that a face is displayed on the screen as in FIG. 11, and the face corresponding to the
図13は図11での測距枠1の位置にある目を瞑っている顔を拡大した状態である。この場合の表示形式は図11と同様に、矩形枠を点線で表示し、矩形枠の色を黄色とし、矩形枠を点滅させる。
FIG. 13 shows a state in which the face meditating at the position of the
なお、本例では撮影画像から検出された顔が目を瞑っている場合には自動的に拡大していたが、第1の実施形態のように撮影前後で顔位置がずれているときに拡大するようにしても良い。 In this example, the face detected from the photographed image is automatically magnified when the eyes are meditated, but the face is magnified when the face position is shifted before and after photographing as in the first embodiment. You may make it do.
以上説明したように、撮影画像から検出された顔が目を瞑っていたり、顔位置がずれているときに拡大して表示することによって、ユーザに画像の失敗画像をより明確に認知されることができる。さらに撮影後、特別な操作を行うことなく拡大表示できるので、ユーザは煩雑な操作を行うことなく、簡単に失敗画像を確認することができる。 As described above, when the face detected from the photographed image is meditated or when the face position is shifted, the enlarged image is displayed so that the user can clearly recognize the failed image of the image. Can do. Furthermore, since the image can be enlarged and displayed without performing a special operation after shooting, the user can easily confirm the failed image without performing a complicated operation.
[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給しても達成可能である。すなわち、そのシステムあるいは装置のコンピュータ(CPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
[Other Embodiments]
The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that this can also be achieved by the computer (CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性の半導体メモリカード、ROMなどを用いることができる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合もある。 As a storage medium for supplying the program code, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile semiconductor memory card, ROM, or the like can be used. . Further, the functions of the above-described embodiments may be realized by executing the program code read by the computer.
しかし、さらにプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 However, there is a case where an OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Needless to say, it is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる場合も有得る。その後、プログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, the program code read from the storage medium may be written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Needless to say.
101 フォーカスレンズ
102 フォトインタラプタ
103 フォーカスレンズ駆動モータ
104 フォーカスレンズ駆動回路
105 光量調節部材
106 光量調節部材駆動モータ
107 光量調節部材駆動回路
108 ズームレンズ
109 フォトインタラプタ
110 ズームレンズ駆動モータ
111 ズームレンズ駆動回路
112 撮像素子
113 A/D変換器
114 タイミング信号発生回路
115 画像処理プロセッサ
116 バッファメモリ
117 記録媒体I/F
118 記録媒体
119 システム制御用CPU
120 ズームSW
121 SW1
122 SW2
123 メインSW
124 モードSW
125 プログラムメモリ
126 ワークメモリ
127 操作表示部
128 電子ビューファインダ
129 設定SW
130 十字SW
131 顔検出部
132 AF枠移動SW
133 画像拡大指示SW
DESCRIPTION OF SYMBOLS 101
118
120 Zoom SW
121 SW1
122 SW2
123 Main SW
124 Mode SW
125
130 cross switch
131
133 Image enlargement instruction SW
Claims (9)
ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、
前記撮像手段により撮像された画像データを表示する表示手段と、
前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出手段と、
前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御手段と、を有することを特徴とする撮像装置。 Imaging means for imaging a subject and generating image data;
Operating means for receiving an instruction to shoot a subject by the imaging means from a user;
Display means for displaying image data picked up by the image pickup means;
An image captured by the imaging means after detecting a human face area included in the image data imaged by the imaging means before the imaging instruction is given by the operating means, and after the imaging instruction is given by the operating means Face detection means for detecting a face area of a person included in the data;
Compare the image data before and after the shooting instruction is given by the operation means, and if there is no face area after the shooting instruction is given at the position where the face area was before the shooting instruction is given, the shooting instruction An image pickup apparatus comprising: control means for controlling the display means so as to display the face area before the identification is performed in an identifiable manner.
前記制御手段は、前記撮影指示がなされる前の顔領域の枠の形態及び色の少なくともいずれかを変更することで前記警告を行うことを特徴とする請求項2又は3に記載の撮像装置。 The display means displays a frame in the face area detected by the face detection means;
The imaging apparatus according to claim 2 or 3, wherein the control unit performs the warning by changing at least one of a form and a color of a frame of a face area before the photographing instruction is given.
前記制御手段は、前記撮影指示がなされる前の顔領域の枠を点滅することで、前記警告を行うことを特徴とする請求項2乃至4のいずれか1項に記載の撮像装置。 The display means displays a frame in the face area detected by the face detection means;
5. The imaging apparatus according to claim 2, wherein the control unit performs the warning by blinking a frame of a face area before the photographing instruction is given.
ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、
前記撮像手段により撮像された画像データを表示する表示手段と、を有する撮像装置の制御方法であって、
前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出工程と、
前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御工程と、を有することを特徴とする撮像装置の制御方法。 Imaging means for imaging a subject and generating image data;
Operating means for receiving an instruction to shoot a subject by the imaging means from a user;
A display means for displaying image data picked up by the image pickup means, and a control method for the image pickup apparatus,
An image captured by the imaging means after detecting a human face area included in the image data imaged by the imaging means before the imaging instruction is given by the operating means, and after the imaging instruction is given by the operating means A face detection step for detecting a human face area included in the data;
Compare the image data before and after the shooting instruction is given by the operation means, and if there is no face area after the shooting instruction is given at the position where the face area was before the shooting instruction is given, the shooting instruction And a control step of controlling the display means so as to display the face area before the identification is performed in an identifiable manner.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008204770A JP5210084B2 (en) | 2008-08-07 | 2008-08-07 | Imaging apparatus, control method therefor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008204770A JP5210084B2 (en) | 2008-08-07 | 2008-08-07 | Imaging apparatus, control method therefor, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010041621A true JP2010041621A (en) | 2010-02-18 |
JP5210084B2 JP5210084B2 (en) | 2013-06-12 |
Family
ID=42013642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008204770A Expired - Fee Related JP5210084B2 (en) | 2008-08-07 | 2008-08-07 | Imaging apparatus, control method therefor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5210084B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014179874A (en) * | 2013-03-15 | 2014-09-25 | Casio Comput Co Ltd | Imaging device, display method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005102175A (en) * | 2003-08-25 | 2005-04-14 | Fuji Photo Film Co Ltd | Digital camera |
JP2007274207A (en) * | 2006-03-30 | 2007-10-18 | Fujifilm Corp | Image display device, image pickup device, and image display method |
JP2007295183A (en) * | 2006-04-24 | 2007-11-08 | Fujifilm Corp | Device, method, and program for reproducing image, and image sensing device |
JP2008022280A (en) * | 2006-07-12 | 2008-01-31 | Fujifilm Corp | Imaging apparatus, method, and program |
-
2008
- 2008-08-07 JP JP2008204770A patent/JP5210084B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005102175A (en) * | 2003-08-25 | 2005-04-14 | Fuji Photo Film Co Ltd | Digital camera |
JP2007274207A (en) * | 2006-03-30 | 2007-10-18 | Fujifilm Corp | Image display device, image pickup device, and image display method |
JP2007295183A (en) * | 2006-04-24 | 2007-11-08 | Fujifilm Corp | Device, method, and program for reproducing image, and image sensing device |
JP2008022280A (en) * | 2006-07-12 | 2008-01-31 | Fujifilm Corp | Imaging apparatus, method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014179874A (en) * | 2013-03-15 | 2014-09-25 | Casio Comput Co Ltd | Imaging device, display method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5210084B2 (en) | 2013-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4674471B2 (en) | Digital camera | |
US9277112B2 (en) | Auto focusing apparatus and auto focusing method, and image sensing apparatus | |
JP3728241B2 (en) | Focus adjustment apparatus, imaging apparatus, focusing method, program, and storage medium | |
JP5043736B2 (en) | Imaging apparatus and control method thereof | |
JP5398182B2 (en) | Imaging apparatus, automatic focus detection method, and program | |
US8300137B2 (en) | Image sensing apparatus providing driving direction of focus lens for attaining in-focus state and control method therefor | |
JP5713055B2 (en) | Imaging apparatus, imaging method, and program | |
JP2008288911A (en) | Imaging apparatus, face area detection program, and face area detection method | |
JP2008176152A (en) | Imaging apparatus | |
JP5030022B2 (en) | Imaging apparatus and program thereof | |
JP4853707B2 (en) | Imaging apparatus and program thereof | |
JP2008017169A (en) | Electronic camera | |
JP4906582B2 (en) | FOCUS ADJUSTMENT DEVICE, ITS CONTROL METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM | |
JP5367129B2 (en) | Imaging apparatus, control apparatus, and control method thereof | |
JP4845696B2 (en) | Focus adjustment device, imaging device, and control method thereof | |
JP2009081530A (en) | Imaging apparatus and imaging method | |
JP5210084B2 (en) | Imaging apparatus, control method therefor, and program | |
JP6274779B2 (en) | Focus adjustment device, imaging device, and focus adjustment method | |
JP2009198975A (en) | Focus adjustment device and focus adjustment method therefor | |
JP5780750B2 (en) | Automatic focusing device, control method thereof, and program | |
JP4235416B2 (en) | Automatic focusing device, control method thereof, program and recording medium | |
JP4510436B2 (en) | Automatic focus adjustment apparatus and imaging apparatus having the same | |
JP2015118337A (en) | Image capturing device, control method therefor, program, and storage medium | |
JP5245604B2 (en) | Image processing apparatus and program | |
JP5225477B2 (en) | Imaging apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130222 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |