Nothing Special   »   [go: up one dir, main page]

JP2010041621A - Imaging device, its control method, and program - Google Patents

Imaging device, its control method, and program Download PDF

Info

Publication number
JP2010041621A
JP2010041621A JP2008204770A JP2008204770A JP2010041621A JP 2010041621 A JP2010041621 A JP 2010041621A JP 2008204770 A JP2008204770 A JP 2008204770A JP 2008204770 A JP2008204770 A JP 2008204770A JP 2010041621 A JP2010041621 A JP 2010041621A
Authority
JP
Japan
Prior art keywords
face area
given
imaging
face
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008204770A
Other languages
Japanese (ja)
Other versions
JP5210084B2 (en
Inventor
Hiroyuki Ogino
宏幸 荻野
Masao Okada
正雄 岡田
Takashi Suwa
剛史 諏訪
Masayoshi Shibata
正義 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008204770A priority Critical patent/JP5210084B2/en
Publication of JP2010041621A publication Critical patent/JP2010041621A/en
Application granted granted Critical
Publication of JP5210084B2 publication Critical patent/JP5210084B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To actualize technology by which a user recognizes a failure in photography easily. <P>SOLUTION: An imaging means for photographing an object and forming image data, an operation means for receiving a photography command about the object by the imaging means from a user, a display means for displaying the image data photographed by the imaging means, a face detection means for detecting face area of a person contained in the image data photographed by the imaging means before the photography command is operated by the operation means and detecting the face area of a person contained in the image data photographed by the imaging means after the photography command is operated by the operation means, and a control means for comparing the image data before and after the operation of the photography command by the operation means and controlling the display means so that the face area before the operation of photography command is displayed in a recognizable state if there is no face area in the place, where was the face area before the operation of photography command, after the operation of photography command. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体の顔領域を検出して撮影を行う技術に関する。   The present invention relates to a technique for detecting a face area of a subject and performing shooting.

従来から、CCDなどの撮像素子によって取り込まれた被写体像の中から、被写体の顔を検出する技術が知られている。顔を検出する技術としては、様々な手法が公知となっている。例えば、ニューラルネットワークに代表される学習を用いた方法がある。また、目、鼻、口、および、顔の輪郭といった物理的な形状の特徴のある部位を画像情報からテンプレートマッチングを用いて識別する手法がある。他にも、肌の色や目の形といった画像情報の特徴量を検出し統計的解析を用いた手法がある。さらに、直前の顔領域が検出された位置の近傍であるか判定したり、服の色を加味するために顔領域の近傍の色を判定したり、あるいは、画面の中央付近ほど顔識別のための閾値を低く設定したりする方法がある。   2. Description of the Related Art Conventionally, a technique for detecting the face of a subject from a subject image captured by an image sensor such as a CCD is known. Various techniques are known as techniques for detecting a face. For example, there is a method using learning represented by a neural network. In addition, there is a technique for identifying parts having physical shape features such as eyes, nose, mouth, and facial contour from image information using template matching. In addition, there is a technique that uses a statistical analysis by detecting feature amounts of image information such as skin color and eye shape. Furthermore, it is determined whether the immediately preceding face area is near the detected position, the color near the face area is determined to take into account the color of the clothes, or the face near the center of the screen is used for face identification. There is a method of setting a low threshold value.

一方、このようにして検出した顔を撮影時の情報としてさまざまに用いる技術が開示されている。特許文献1には、連写中に顔検出が不能になった場合、予め設定された所定の時間内に撮影された画像の顔位置情報を用いて連写を行う技術が記載されている。また、特許文献2には、顔画像を撮影して画像データとして蓄積し、そこから表情を抽出し、さらに抽出された表情からまぶたの状態を検出し、まぶたの状態から目がどのような状態か判定する技術が記載されている。
特開2006−157617号公報 特開2004−199386号公報
On the other hand, techniques for variously using the face thus detected as information at the time of photographing are disclosed. Japanese Patent Application Laid-Open No. 2004-133867 describes a technique for performing continuous shooting using face position information of an image shot within a predetermined time set in advance when face detection becomes impossible during continuous shooting. In Patent Document 2, a face image is captured and stored as image data, a facial expression is extracted therefrom, the state of the eyelid is detected from the extracted facial expression, and the state of the eye from the state of the eyelid Techniques for determining whether or not are described.
JP 2006-157617 A JP 2004-199386 A

ところが、上述したように顔検出を行った画像を撮影した場合であっても、必ずしも良好な画像が得られるとは限らなく、例えば撮影画像について検出された顔が目を瞑っていることがある。この場合、ユーザは、カメラを再生モードに切り替えて撮影後の画像を再生したり、撮影後に自動的に画像の再生を行うレックレビュー機能を用いて目を瞑っていないか確認する必要がある。しかしながら、カメラに搭載された表示装置では画面サイズが小さいため、全画面表示のままでは目を瞑っているか確認することが困難となる。そのため、ユーザが撮影後に再生画像を拡大して目瞑りかどうかを確認するなどの煩雑な操作が必要となる。   However, even when a face-detected image is taken as described above, a good image is not always obtained. For example, the face detected for the taken image may be meditating. . In this case, it is necessary for the user to check whether the eyes have been meditated by using a REC review function that switches the camera to the playback mode and plays back the image after shooting, or automatically plays back the image after shooting. However, since the screen size of the display device mounted on the camera is small, it is difficult to confirm whether the eyes are meditated with the full screen display. For this reason, it is necessary for the user to perform complicated operations such as enlarging the reproduced image after shooting and confirming whether the eyes are closed.

本発明は、上記課題に鑑みてなされ、失敗撮影をユーザが簡単に認知することができる技術を実現する。   This invention is made | formed in view of the said subject, and implement | achieves the technique in which a user can recognize failure photography easily.

上記課題を解決するために、本発明の撮像装置は、被写体を撮像して画像データを生成する撮像手段と、ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、前記撮像手段により撮像された画像データを表示する表示手段と、前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出手段と、前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御手段と、を有する。   In order to solve the above-described problem, an imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and generates image data, an operation unit that receives a shooting instruction of the subject by the imaging unit from a user, and the imaging unit. Display means for displaying the imaged image data, and detecting a human face area included in the image data imaged by the imaging means before the imaging instruction is given by the operating means, and the imaging means by the operating means The face detection means for detecting the face area of the person included in the image data taken by the imaging means after the image is taken is compared with the image data before and after the shooting instruction is given by the operation means, and the shooting instruction is given. When there is no face area after the shooting instruction is given at the position where the face area was before And a control means for controlling said display means to display the.

また、本発明の撮像装置の制御方法は、被写体を撮像して画像データを生成する撮像手段と、ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、前記撮像手段により撮像された画像データを表示する表示手段と、を有する撮像装置の制御方法であって、前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出工程と、前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御工程と、を有する。   According to the control method of the imaging apparatus of the present invention, an imaging unit that captures an image of a subject and generates image data, an operation unit that receives a shooting instruction of the subject by the imaging unit from a user, and an image captured by the imaging unit And a display means for displaying image data, wherein a face area of a person included in the image data picked up by the image pickup means is detected before a shooting instruction is given by the operation means. And a face detection step of detecting a face area of a person included in the image data imaged by the imaging means after the imaging instruction is given by the operating means, and image data before and after the imaging instruction by the operating means is given. In comparison, if there is no face area after the shooting instruction is given at the position where the face area was before the shooting instruction is given, the shooting instruction is And a control step for controlling the display means so as to distinguishably display the face area before being.

本発明によれば、撮影後に煩雑な操作を行うことなく、被写体の目瞑りなどの望ましくない撮影結果をユーザが素早く認知できるようになる。   According to the present invention, it becomes possible for a user to quickly recognize an undesired shooting result such as eye meditation of a subject without performing a complicated operation after shooting.

以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

[第1の実施形態]
図1は、本発明に係る第1の実施形態の電子カメラのブロック図である。
[First Embodiment]
FIG. 1 is a block diagram of an electronic camera according to a first embodiment of the present invention.

図1において、101は後述する撮像素子112の撮像面上に焦点を合わせるためのフォーカスレンズである。102はフォーカスレンズ101の初期位置を検出するフォトインタラプタである。103はフォーカスレンズ101を駆動するフォーカスレンズ駆動モータである。104はフォーカスレンズ駆動モータ103に駆動信号を入力してフォーカスレンズ101を動作させるフォーカスレンズ駆動回路である。105は絞りやシャッタなどの光量調節部材である。106は光量調節部材105を駆動する光量調節部材駆動モータである。107は光量調節部材駆動モータ106に駆動信号を入力して光量調節部材105を動作させる光量調節部材駆動回路である。108は撮影レンズの焦点距離を変更するズームレンズである。109はズームレンズ108の初期位置を検出するフォトインタラプタである。110はズームレンズ108を駆動するズームレンズ駆動モータである。111はズームレンズ駆動モータ110に駆動信号を入力してズームレンズ108を動作させるズームレンズ駆動回路である。   In FIG. 1, reference numeral 101 denotes a focus lens for focusing on an imaging surface of an image sensor 112 described later. Reference numeral 102 denotes a photo interrupter that detects the initial position of the focus lens 101. A focus lens driving motor 103 drives the focus lens 101. Reference numeral 104 denotes a focus lens drive circuit for operating the focus lens 101 by inputting a drive signal to the focus lens drive motor 103. Reference numeral 105 denotes a light amount adjusting member such as an aperture or a shutter. A light amount adjusting member driving motor 106 drives the light amount adjusting member 105. Reference numeral 107 denotes a light amount adjusting member driving circuit for operating the light amount adjusting member 105 by inputting a driving signal to the light amount adjusting member driving motor 106. A zoom lens 108 changes the focal length of the photographing lens. Reference numeral 109 denotes a photo interrupter that detects the initial position of the zoom lens 108. A zoom lens driving motor 110 drives the zoom lens 108. Reference numeral 111 denotes a zoom lens drive circuit that operates the zoom lens 108 by inputting a drive signal to the zoom lens drive motor 110.

112は被写体からの反射光を電気信号に変換する撮像素子である。113は撮像素子112から出力されるアナログ信号をデジタル信号に変換するA/D変換器である。114は撮像素子112やA/D変換器113を動作させるために必要なタイミング信号を発生するタイミング信号発生回路(以下、TG)である。115はA/D変換器113から入力された画像データに所定の処理を施す画像処理プロセッサである。116は画像処理プロセッサ115で処理された画像データを一時的に記憶するバッファメモリである。117は後述する記録媒体との接続のためのインターフェースである。118はメモリカードやハードディスクなどの記録媒体である。119は撮影シーケンスなどシステムを制御するためのマイクロコントローラ(以下、CPU)である。   An image sensor 112 converts reflected light from the subject into an electrical signal. Reference numeral 113 denotes an A / D converter that converts an analog signal output from the image sensor 112 into a digital signal. Reference numeral 114 denotes a timing signal generation circuit (hereinafter referred to as TG) that generates timing signals necessary for operating the image sensor 112 and the A / D converter 113. Reference numeral 115 denotes an image processing processor that performs predetermined processing on the image data input from the A / D converter 113. A buffer memory 116 temporarily stores image data processed by the image processor 115. Reference numeral 117 denotes an interface for connection to a recording medium to be described later. Reference numeral 118 denotes a recording medium such as a memory card or a hard disk. Reference numeral 119 denotes a microcontroller (hereinafter referred to as CPU) for controlling the system such as a photographing sequence.

120はユーザによるズーム動作の開始および停止の操作指示に応じた信号をCPU119に入力するズームSW(スイッチ)である。121はAFやAE等の撮影準備を指示するためのスイッチ(以下、SW1)である。122は撮影準備指示SW1の操作を受け付けた後、本露光及び画像データの記録等の撮影処理を指示するための撮影指示スイッチ(以下、SW2)である。123はシステムに電源を投入するためのメインSWである。124はカメラの動作モードを設定するモードSWである。125はCPU119で実行されるプログラムが記憶されているプログラムメモリである。126はCPU119がプログラムメモリ125に記憶されているプログラムに従い処理を行う際に必要な各種データを書き込み及び読み出しするワークメモリである。127はカメラの動作状態や各種警告表示を行う操作表示部である。128は画像を表示する電子ビューファインダ(以下、EVF)である。129は各種設定を行う設定SWである。   Reference numeral 120 denotes a zoom SW (switch) that inputs a signal to the CPU 119 in response to an operation instruction to start and stop the zoom operation by the user. Reference numeral 121 denotes a switch (hereinafter referred to as SW1) for instructing shooting preparation such as AF and AE. Reference numeral 122 denotes a photographing instruction switch (hereinafter referred to as SW2) for instructing photographing processing such as main exposure and recording of image data after receiving an operation of the photographing preparation instruction SW1. A main switch 123 is used to power on the system. Reference numeral 124 denotes a mode SW for setting the operation mode of the camera. A program memory 125 stores a program executed by the CPU 119. A work memory 126 writes and reads various data necessary for the CPU 119 to perform processing in accordance with a program stored in the program memory 125. Reference numeral 127 denotes an operation display unit for displaying an operation state of the camera and various warnings. Reference numeral 128 denotes an electronic viewfinder (hereinafter, EVF) that displays an image. Reference numeral 129 denotes a setting SW for performing various settings.

130は操作表示部127やEVF128に表示されたメニュー項目の選択やAF枠位置の移動指示等の操作指示を行うための十字SWである。131は撮影処理により生成された画像データから人物の顔領域を検出する顔検出部である。132はAF枠位置の移動を指示するAF枠移動SWである。133はEVF128に表示された画像の拡大を指示する画像拡大指示SWである。   Reference numeral 130 denotes a cross switch SW for performing an operation instruction such as selection of a menu item displayed on the operation display unit 127 or the EVF 128 and an instruction to move the AF frame position. Reference numeral 131 denotes a face detection unit that detects a person's face area from image data generated by photographing processing. Reference numeral 132 denotes an AF frame movement SW for instructing movement of the AF frame position. Reference numeral 133 denotes an image enlargement instruction SW for instructing enlargement of the image displayed on the EVF 128.

<撮影動作>
次に、図2のフローを参照して、本実施形態の電子カメラの撮影動作について説明する。
<Shooting operation>
Next, the photographing operation of the electronic camera of this embodiment will be described with reference to the flow of FIG.

図2において、S201では撮影準備指示SW1の状態を判定し、ONならばS206へ、ONでなければS202へ進む。S202では後述する手順に従い顔検出処理を行う。S203では光量調節部材105やシャッタースピードを制御してEVF128に表示される画像の明るさが適正になるようAE動作を行う。S204では光源の色温度によらずEVF128に表示される画像が適切な色バランスになるようオートホワイトバランス(AWB)処理を行う。S205では撮像素子112から読み出した画像信号に所定の処理を施してEVF128へ表示する。S206では後述する手順に従い撮影処理を行う。   In FIG. 2, in S201, the state of the shooting preparation instruction SW1 is determined. If ON, the process proceeds to S206, and if not ON, the process proceeds to S202. In S202, face detection processing is performed according to the procedure described later. In S203, the AE operation is performed so that the brightness of the image displayed on the EVF 128 becomes appropriate by controlling the light amount adjusting member 105 and the shutter speed. In S204, an auto white balance (AWB) process is performed so that an image displayed on the EVF 128 has an appropriate color balance regardless of the color temperature of the light source. In S205, the image signal read from the image sensor 112 is subjected to predetermined processing and displayed on the EVF 128. In S206, a photographing process is performed according to a procedure described later.

<顔検出処理>
図3は図2のS202での顔検出処理の詳細なフローチャートである。
<Face detection processing>
FIG. 3 is a detailed flowchart of the face detection process in S202 of FIG.

図3において、S301では撮像素子112から画像信号を読み出す。S302では、S301で読み出した画像信号から、顔検出部131により被写体の顔領域を検出する。顔検出方法としては、背景技術で述べたような技術を適用する。S303ではS302で検出された顔領域の個数をワークメモリ126に記憶する。S304ではS302で検出された顔領域の、表示画面内における水平および垂直方向の各位置をワークメモリ126に記憶する。ここではS303で記憶した顔領域の個数分の位置を記憶するものとする。S305ではS302で検出された顔領域の中から主被写体の顔(以下、主顔)を1つ選択する。ここで主顔の選択は顔の位置や大きさを判定して行うものとする。つまり、顔領域の位置が画面の中心に最も近いものや顔領域の大きさが最も大きいものを主顔とする。S306ではS305で選択された主顔の位置をワークメモリ126に記憶する。   In FIG. 3, an image signal is read from the image sensor 112 in S301. In S302, the face detection unit 131 detects the face area of the subject from the image signal read in S301. As the face detection method, the technique described in the background art is applied. In step S303, the number of face areas detected in step S302 is stored in the work memory 126. In S304, the horizontal and vertical positions in the display screen of the face area detected in S302 are stored in the work memory 126. Here, the positions corresponding to the number of face areas stored in S303 are stored. In S305, one face of the main subject (hereinafter, main face) is selected from the face areas detected in S302. Here, the main face is selected by determining the position and size of the face. That is, the face whose position is closest to the center of the screen or whose face area is the largest is the main face. In step S <b> 306, the position of the main face selected in step S <b> 305 is stored in the work memory 126.

<撮影処理>
図4は図2のS206での撮影処理の詳細なフローチャートである。
<Shooting process>
FIG. 4 is a detailed flowchart of the photographing process in S206 of FIG.

図4において、S401では本露光用AE動作を行う。S402では後述する手順に従い本露光用AF動作を行う。S403では撮影指示スイッチSW2の状態を判定し、ONならばS405へ、ONでなければS404へ進む。S404では撮影準備指示SW1の状態を判定し、ONならばS403へ、ONでなければ本処理を終了する。S405では後述する手順に従い本露光及び記録を行う。   In FIG. 4, the main exposure AE operation is performed in S401. In S402, the main exposure AF operation is performed according to the procedure described later. In S403, the state of the photographing instruction switch SW2 is determined. If it is ON, the process proceeds to S405, and if it is not ON, the process proceeds to S404. In S404, the state of the shooting preparation instruction SW1 is determined. If it is ON, the process proceeds to S403. In step S405, the main exposure and recording are performed according to the procedure described later.

<AF動作>
図5は図4のS402での本露光用AF動作の詳細を示すフローチャートである。
<AF operation>
FIG. 5 is a flowchart showing details of the main-exposure AF operation in S402 of FIG.

図5において、S501ではフォーカスレンズ101をスキャン開始位置へ移動する。ここでスキャン開始位置は、例えば合焦可能領域の無限端とする。S502では図3のS304で記憶した顔領域の位置に測距枠を設定する。   In FIG. 5, in S501, the focus lens 101 is moved to the scan start position. Here, the scan start position is, for example, the infinite end of the focusable area. In S502, a distance measurement frame is set at the position of the face area stored in S304 of FIG.

S503では撮像素子112から読み出されたアナログ信号をA/D変換器113によりデジタル信号に変換する。さらにそのデジタル信号から画像処理プロセッサ115により輝度信号の高周波成分を抽出し、これを焦点評価値としてワークメモリ126に記憶する。ここでS502で設定したそれぞれの測距枠について測距枠内の画像信号を用いて焦点評価値を算出し記憶する。S504ではフォーカスレンズ101の現在位置を取得しワークメモリ126に記憶する。フォーカスレンズ駆動モータ103にステッピングモータを適用した場合は、フォトインタラプタ102により検出される初期位置からの相対駆動パルス数を用いてフォーカスレンズ101の位置とする。なお、図示しないロータリエンコーダなどを用いて絶対位置を測定しても良い。   In step S <b> 503, the analog signal read from the image sensor 112 is converted into a digital signal by the A / D converter 113. Further, a high-frequency component of the luminance signal is extracted from the digital signal by the image processor 115 and stored in the work memory 126 as a focus evaluation value. Here, a focus evaluation value is calculated and stored for each distance measurement frame set in S502 using the image signal in the distance measurement frame. In S504, the current position of the focus lens 101 is acquired and stored in the work memory 126. When a stepping motor is applied to the focus lens drive motor 103, the position of the focus lens 101 is determined using the relative drive pulse number from the initial position detected by the photo interrupter 102. The absolute position may be measured using a rotary encoder (not shown).

S505ではフォーカスレンズ101の現在位置がスキャン終了位置と等しいか判定し、等しければS507へ、等しくなければS506へ進む。このスキャン終了位置は、例えば合焦可能領域の至近端とする。S506ではフォーカスレンズ101をスキャン終了方向へ向けて所定量移動する。S507ではS503で取得した主顔位置に設定した測距枠(以下、主顔枠)の焦点評価値の中から最大のものを算出する。S508ではS507で算出した焦点評価値の最大値を取得した時のフォーカスレンズ101の位置(以下、ピーク位置)をワークメモリ126に記憶する。S509では測距枠インデックスを0としてワークメモリ126に記憶する。この測距枠インデックスは、例えば図6のように図3のS303で記憶した顔領域の個数が画面内に5つであり、それぞれの顔領域に対して測距枠が設定されている場合、それぞれの測距枠を識別するために用いられる。   In S505, it is determined whether the current position of the focus lens 101 is equal to the scan end position. If they are equal, the process proceeds to S507, and if they are not equal, the process proceeds to S506. The scan end position is, for example, the closest end of the focusable area. In step S506, the focus lens 101 is moved by a predetermined amount in the scan end direction. In S507, the maximum one is calculated from the focus evaluation values of the distance measurement frames (hereinafter referred to as main face frames) set in the main face position acquired in S503. In step S <b> 508, the position of the focus lens 101 (hereinafter, peak position) when the maximum focus evaluation value calculated in step S <b> 507 is acquired is stored in the work memory 126. In step S509, the distance measurement frame index is set to 0 and stored in the work memory 126. For example, when the number of face areas stored in S303 in FIG. 3 is five in the screen and distance measurement frames are set for each face area, as shown in FIG. Used to identify each distance measurement frame.

以下では、図6のように主顔枠を除く、左上の枠から順番に0,1,2,・・・というように番号を付与し、測距枠インデックスに対応した番号の測距枠について処理を行うものとする。なお、以下の説明では、測距枠インデックス0に対応した測距枠を測距枠0、測距枠インデックス1に対応した測距枠を測距枠1というように、測距枠インデックスの番号と測距枠の番号とを対応付けて呼ぶものとする。   In the following, numbers such as 0, 1, 2,... Are added in order from the upper left frame except the main face frame as shown in FIG. Processing shall be performed. In the following description, the distance measurement frame index number such that the distance measurement frame corresponding to the distance measurement frame index 0 is the distance measurement frame 0, and the distance measurement frame corresponding to the distance measurement frame index 1 is the distance measurement frame 1. And the distance measurement frame number are called in association with each other.

S510では現在設定されている測距枠インデックスに対応する測距枠の焦点評価値の中から最大のものを算出する。S511ではS510で算出した測距枠のピーク位置をワークメモリ126に記憶する。S512では、現在記憶している測距枠インデックスに1を加える。S513では現在記憶している測距枠インデックスが図3のS303で記憶した顔個数−1と等しいか判定し、等しければS514へ、等しくなければS510へ進む。ここで測距枠インデックスについて図3のS303で記憶された顔個数−1と比較しているのは、主顔枠は測距枠インデックスの数に含めないためである。S514ではS508で記憶されたピーク位置へフォーカスレンズ101を移動する。S515では後述する手順に従い合焦枠表示判定を行う。S516ではS515での判定結果に従い合焦枠を表示する。   In S510, the maximum one of the focus evaluation values of the distance measurement frame corresponding to the currently set distance measurement frame index is calculated. In S511, the peak position of the distance measurement frame calculated in S510 is stored in the work memory 126. In S512, 1 is added to the currently stored distance measuring frame index. In S513, it is determined whether or not the currently stored distance measurement frame index is equal to the number of faces stored in S303 in FIG. 3, and if equal, the process proceeds to S514, and if not equal, the process proceeds to S510. The reason why the distance measurement frame index is compared with the number of faces stored in S303 in FIG. 3 is that the main face frame is not included in the number of distance measurement frame indexes. In S514, the focus lens 101 is moved to the peak position stored in S508. In S515, in-focus frame display determination is performed according to a procedure described later. In S516, a focusing frame is displayed according to the determination result in S515.

<合焦枠表示判定処理>
図7は図5のS515での合焦枠表示判定処理の詳細を示すフローチャートである。
<In-focus frame display determination process>
FIG. 7 is a flowchart showing details of the focus frame display determination process in S515 of FIG.

図7において、S701では測距枠インデックスを0としてワークメモリ126に記憶する。この測距枠インデックスは、図5で説明したものと同じものである。S702では、図5のS508で記憶されたピーク位置(以下、主顔ピーク位置)と、現在設定されている測距枠インデックスに対応する測距枠のピーク位置との差を求め、その差が所定値以下ならS703へ、所定値以下でなければS704へ進む。ここで所定値は焦点深度をフォーカスレンズ101の移動量に換算した値とする。例えばフォーカスレンズ駆動モータ103にステッピングモータを適用する場合は、焦点深度をステッピングモータの駆動ステップ数に換算した値とする。S703では現在設定されている測距枠インデックスを合焦OKとしてワークメモリ126に記憶する。S704では現在記憶している測距枠インデックスに1を加える。S705では現在記憶している測距枠インデックスが図3のS303で記憶された顔個数−1と等しいか判定し、等しければ本処理を終了し、等しくなければS702へ進む。ここで測距枠インデックスを図3のS303で記憶された顔個数−1と比較しているのは、図5のS513で述べた理由と同じである。   In FIG. 7, the distance measurement frame index is set to 0 and stored in the work memory 126 in S701. This distance measurement frame index is the same as that described in FIG. In S702, a difference between the peak position stored in S508 in FIG. 5 (hereinafter, main face peak position) and the peak position of the distance measurement frame corresponding to the currently set distance measurement frame index is obtained, and the difference is obtained. If it is less than the predetermined value, the process proceeds to S703, and if not less than the predetermined value, the process proceeds to S704. Here, the predetermined value is a value obtained by converting the depth of focus into the amount of movement of the focus lens 101. For example, when a stepping motor is applied to the focus lens driving motor 103, the depth of focus is set to a value converted into the number of stepping motor driving steps. In step S703, the currently set distance measurement frame index is stored in the work memory 126 as in-focus OK. In S704, 1 is added to the distance measurement frame index currently stored. In S705, it is determined whether or not the currently stored distance measurement frame index is equal to the number of faces stored in S303 in FIG. 3. If this is the case, the process ends. If not, the process proceeds to S702. Here, the distance measurement frame index is compared with the number of faces stored in S303 in FIG. 3 for the same reason as described in S513 in FIG.

このようにして、図5のS502で設定したそれぞれの顔領域の位置に対応する測距枠の中から合焦表示が可能な測距枠を選択する。こうして選択された測距枠と主顔枠をEVF128に表示する。   In this way, a distance measurement frame that can be displayed in focus is selected from the distance measurement frames corresponding to the positions of the respective face areas set in S502 of FIG. The distance measuring frame and main face frame thus selected are displayed on the EVF 128.

<本露光処理>
図8は図4のS405での本露光処理の詳細を示すフローチャートである。
<Main exposure processing>
FIG. 8 is a flowchart showing details of the main exposure process in S405 of FIG.

図8において、S801では撮像素子112へ露光を行う。S802では撮像素子112に蓄積されたデータを読み出す。S803ではA/D変換器113により撮像素子112から読み出したアナログ信号をデジタル信号に変換する。S804では画像処理プロセッサ115によりA/D変換器113から出力されるデジタル信号に各種画像処理を施す。S805では後述する手順に従いEVF128に画像を表示する。S806ではS804で処理した画像をJPEGなどのフォーマットに従い圧縮する。S807ではS806で圧縮したデータを記録媒体インターフェース117を介して電子カメラ本体に装着されたメモリカードなどの記録媒体118へ記録する。   In FIG. 8, the image sensor 112 is exposed in S801. In S802, data stored in the image sensor 112 is read. In S803, the analog signal read from the image sensor 112 by the A / D converter 113 is converted into a digital signal. In step S804, the image processor 115 performs various types of image processing on the digital signal output from the A / D converter 113. In step S805, an image is displayed on the EVF 128 according to a procedure described later. In S806, the image processed in S804 is compressed according to a format such as JPEG. In S807, the data compressed in S806 is recorded on the recording medium 118 such as a memory card attached to the electronic camera body via the recording medium interface 117.

<画像表示処理>
図9は図8のS805での画像表示処理の詳細を示すフローチャートである。
<Image display processing>
FIG. 9 is a flowchart showing details of the image display processing in S805 of FIG.

図9において、S901では図8のS804で処理した画像から、顔検出部131により被写体の顔領域を検出する。顔検出方法としては、図3のS302と同様に背景技術で述べたような技術を適用する。S902ではS901で検出した顔領域の位置をワークメモリ126に記憶する。S903では測距枠インデックスを0に設定してワークメモリ126に記憶する。この測距枠インデックスは、図6で説明したものと同様である。   In FIG. 9, in step S901, the face area of the subject is detected by the face detection unit 131 from the image processed in step S804 of FIG. As the face detection method, the technique described in the background art is applied as in S302 of FIG. In step S902, the position of the face area detected in step S901 is stored in the work memory 126. In step S903, the distance measurement frame index is set to 0 and stored in the work memory 126. This distance measurement frame index is the same as that described with reference to FIG.

S904では現在の測距枠インデックスに対応する図3のS304で記憶した顔位置について最も近い顔位置をS902で記憶した顔位置の中から選び、その差を算出する。つまり、同一の被写体の顔領域の撮影前後の位置の差を算出する。S905ではS904で算出した顔位置の差が所定値未満か判定し、所定値未満であればS906へ、所定値以上であればS907へ進む。ここで所定値は、例えば縦横共に50画素とする。S906では現在の測距枠インデックスに対応する表示インデックスをOKとしてワークメモリ126に記憶する。S907では現在の測距枠インデックスに対応する表示インデックスをNGとしてワークメモリ126に記憶する。S908では、現在の測距枠インデックスに1を加えてワークメモリ126に記憶する。S909では現在の測距枠インデックスが図3のS303で記憶され顔領域の個数と等しいか判定し、等しければS910へ、等しくなければS904へ進む。   In S904, the face position closest to the face position stored in S304 of FIG. 3 corresponding to the current distance measurement frame index is selected from the face positions stored in S902, and the difference is calculated. That is, the difference between the positions of the face area of the same subject before and after shooting is calculated. In S905, it is determined whether the difference between the face positions calculated in S904 is less than a predetermined value. If it is less than the predetermined value, the process proceeds to S906, and if it is greater than the predetermined value, the process proceeds to S907. Here, the predetermined value is, for example, 50 pixels both vertically and horizontally. In step S906, the display index corresponding to the current distance measurement frame index is stored in the work memory 126 as OK. In S907, the display index corresponding to the current distance measurement frame index is stored in the work memory 126 as NG. In step S908, 1 is added to the current distance measurement frame index, and the result is stored in the work memory 126. In S909, it is determined whether or not the current distance measurement frame index is equal to the number of face areas stored in S303 of FIG. 3, and if equal, the process proceeds to S910, and if not equal, the process proceeds to S904.

このようにして順次、図5のS502で設定した測距枠ごとに撮影前後の顔位置を比較していく。なお、図6のように画面内に顔領域が5つあり、主顔以外にインデックスを0から3として付与した場合、S908の後、測距枠インデックスが4となった場合は、その後のS904での処理では主顔について位置の比較を行うものとする。つまり、測距枠0,1,2,3,主顔の順に位置を比較していく。   In this way, the face positions before and after photographing are compared sequentially for each distance measurement frame set in S502 of FIG. As shown in FIG. 6, when there are five face areas in the screen and the index is assigned from 0 to 3 other than the main face, after S908, when the distance measurement frame index is 4, the subsequent S904 In the processing at, it is assumed that the position of the main face is compared. That is, the positions are compared in the order of the distance measurement frames 0, 1, 2, 3, and the main face.

S910では図8のS804で処理した画像をEVF128に表示するとともに、S906及びS907で記憶された表示インデックスに従い、図3のS304で記憶された顔位置に測距枠を表示する。   In S910, the image processed in S804 of FIG. 8 is displayed on the EVF 128, and a distance measurement frame is displayed at the face position stored in S304 of FIG. 3 according to the display index stored in S906 and S907.

S911では画像拡大指示SW133の状態を判定し、ONならばS912へ、ONでなければ本処理を終了する。S912ではS910でEVF128に表示した画像を、S907で表示インデックスがNGとされた測距枠を中心に拡大する。   In S911, the state of the image enlargement instruction SW133 is determined. If it is ON, the process proceeds to S912. If it is not ON, this process ends. In S912, the image displayed on the EVF 128 in S910 is enlarged centering on the distance measurement frame whose display index is NG in S907.

ここで、図9のS910での画像と測距枠の表示方法について説明する。   Here, the display method of the image and the distance measurement frame in S910 of FIG. 9 will be described.

図10は図6の測距枠に対する撮影画像を表している。ここで、測距枠0,2,3及び主顔の顔位置は、撮影前後の位置の差が所定値未満でかつ測距枠1の顔位置の撮影前後の位置の差は所定値以上であるとする。また、図7で説明した合焦枠表示判定は、全ての測距枠が合焦OKと判定されているものとする。   FIG. 10 shows a photographed image for the distance measurement frame of FIG. Here, as for the face positions of the distance measurement frames 0, 2, 3 and the main face, the difference between the positions before and after the photographing is less than a predetermined value, and the difference between the positions of the distance measurement frame 1 before and after the photographing is a predetermined value or more. Suppose there is. Further, in the focusing frame display determination described with reference to FIG. 7, it is assumed that all the ranging frames are determined to be in focus.

図10において、顔位置の差が所定値未満の測距枠0,2,3及び主顔の表示インデックスはOKとなる。表示インデックスがOKのときの表示形式は、図10のように顔位置に実線の矩形枠を表示するものとする。このとき合焦状態であることが識別可能なように矩形枠を緑色にする。一方、顔位置の差が所定値以上である測距枠1の表示インデックスはNGとなるので、このときの表示形式は、図10のように矩形枠を点線とする。また、このとき矩形枠の色を顔位置の差が所定値未満のときに用いた緑色とは別の黄色にして、顔位置のずれ量が所定範囲を超えていることを識別可能に表示する。さらに点線の矩形枠を点滅させる。このように矩形枠の形態や色を変えたり、点滅させるのはユーザに警告するためである。また、この状態で画像拡大指示SW133がONされると、測距枠1を中心に画像が拡大される。これによって、ユーザは顔位置がずれた画像をより詳細に確認することができる。   In FIG. 10, the distance measurement frames 0, 2, 3 and the main face display index whose face position difference is less than a predetermined value are OK. As a display format when the display index is OK, a solid rectangular frame is displayed at the face position as shown in FIG. At this time, the rectangular frame is made green so that it can be identified that it is in focus. On the other hand, the display index of the ranging frame 1 whose face position difference is equal to or larger than a predetermined value is NG, and the display format at this time is a rectangular frame as shown in FIG. At this time, the color of the rectangular frame is changed to yellow other than the green color used when the difference between the face positions is less than a predetermined value, so that it can be identified that the amount of deviation of the face position exceeds the predetermined range. . Further, the dotted rectangular frame is blinked. The reason for changing the form and color of the rectangular frame and blinking in this way is to warn the user. Further, when the image enlargement instruction SW133 is turned on in this state, the image is enlarged with the distance measurement frame 1 as the center. As a result, the user can check the image whose face position is shifted in more detail.

[変形例]
図10では測距枠1の顔位置が撮影前後でずれた場合を説明した。これに対して、以下では、被写体が目を瞑るなどして撮影画像から顔領域が検出できなかった場合の表示方法について図11を参照して説明する。
[Modification]
In FIG. 10, the case where the face position of the distance measuring frame 1 is shifted before and after the photographing has been described. On the other hand, hereinafter, a display method in the case where the face area cannot be detected from the photographed image due to the subject meditating on the eyes will be described with reference to FIG.

図10と同様に、測距枠0,2,3及び主顔の顔位置は、撮影前後の位置の差が所定値未満であるとする。一方、測距枠1に対応する撮影画像の顔領域は、目を瞑っているために検出できないものとする。この場合は測距枠1に最も近い顔は主顔となる。このとき測距枠1と主顔枠との位置の差が所定値以上であったとすると、撮影前後の顔位置の差が所定値以上になるので、表示インデックスはNGとなる。よって、図10と同様に、測距枠1は点線の矩形枠となり、色は黄色で点滅表示される。これらも図10と同様に、警告のため表示インデックスOKのときとは異なる表示としている。この状態で画像拡大指示SW133がONになると、測距枠1を中心に画像を拡大する。これにより、目を瞑った顔をより詳細に確認することができる。   As in FIG. 10, it is assumed that the distance between frames 0, 2, and 3 and the face position of the main face is less than a predetermined value before and after shooting. On the other hand, it is assumed that the face area of the captured image corresponding to the distance measuring frame 1 cannot be detected because the eyes are meditated. In this case, the face closest to the distance measurement frame 1 is the main face. At this time, if the difference in position between the distance measurement frame 1 and the main face frame is greater than or equal to a predetermined value, the difference in face position before and after shooting is greater than or equal to the predetermined value, so the display index is NG. Therefore, as in FIG. 10, the distance measurement frame 1 is a dotted rectangular frame, and the color is blinking yellow. Similar to FIG. 10, these are also displayed differently from the display index OK for warning. When the image enlargement instruction SW133 is turned on in this state, the image is enlarged centering on the distance measuring frame 1. As a result, the face with the eyes closed can be confirmed in more detail.

以上説明したように、撮影前後で検出された顔位置がずれていたり、目を瞑るなどして顔検出ができなかった場合に、撮影前後の顔の状態が異なることをユーザが煩雑な操作を行うことなく簡単に認知することができる。すなわち、ユーザは目瞑りなどの失敗撮影を簡単に認知することができ、さらに画像拡大スイッチを操作するだけで、撮影前の状態とは異なった顔、つまり位置がずれたり、目を瞑った顔を拡大して表示するので、失敗画像の確認を簡単に行うことができる。   As described above, when the face position detected before and after shooting is shifted, or when face detection cannot be performed by meditating the eyes, the user needs to perform a complicated operation that the state of the face before and after shooting is different. You can easily recognize without doing. In other words, the user can easily recognize the failed shooting such as eye meditation, and even by operating the image enlargement switch, the face is different from the pre-shooting state, that is, the face is displaced or the eyes are meditated. Is displayed in an enlarged manner, so that a failed image can be easily confirmed.

[第2の実施形態]
第1の実施形態では、撮影後にEVF128に画像を表示する際に、一旦全画面を表示した後、ユーザの操作によって画像を拡大していた。これに対して、第2の実施形態では、このような動作を自動で行うようにした場合について説明する。
[Second Embodiment]
In the first embodiment, when an image is displayed on the EVF 128 after shooting, the image is enlarged by a user operation after the full screen is once displayed. On the other hand, in the second embodiment, a case where such an operation is automatically performed will be described.

図12は第2の実施形態の画像表示処理を示し、図9に対応するフローチャートである。   FIG. 12 is a flowchart corresponding to FIG. 9 showing the image display processing of the second embodiment.

図12において、S1201〜S1209では、図9のS901〜S909と同様の処理を行う。そして、S1210ではS1207において表示インデックスがNGとなった測距枠があるか判定する。S1210でNGの枠があれば、S1211に進み、S1207で表示インデックスがNGとされた測距枠の位置を中心に画像を拡大してEVF128に表示する。一方、S1210でNGの枠がなければ、S1212に進み、画像を拡大せずにEVF128に表示する。   12, in S1201 to S1209, the same processing as S901 to S909 in FIG. 9 is performed. In step S1210, it is determined whether there is a ranging frame whose display index is NG in step S1207. If there is an NG frame in S1210, the process proceeds to S1211, and the image is enlarged and displayed on the EVF 128 around the position of the distance measurement frame whose display index is NG in S1207. On the other hand, if there is no NG frame in S1210, the process proceeds to S1212 and the image is displayed on the EVF 128 without being enlarged.

ここで、図12のS1211での画像と測距枠の表示方法について説明する。   Here, a display method of the image and the distance measurement frame in S1211 of FIG. 12 will be described.

図13は図12のS1211での画像と測距枠を表している。ここでは図11と同様に画面内に顔が表示され、測距枠1に対応する顔が目を瞑っているものとする。この場合は、測距枠1の表示インデックスがNGとなる。すると、S1210において表示インデックスNGの枠がありと判定され、S1211において測距枠1を中心に拡大した画像をEVF128に表示する。   FIG. 13 shows an image and a distance measurement frame in S1211 of FIG. Here, it is assumed that a face is displayed on the screen as in FIG. 11, and the face corresponding to the distance measuring frame 1 is meditating. In this case, the display index of the distance measurement frame 1 is NG. Then, in S1210, it is determined that there is a frame of the display index NG, and in S1211, an image enlarged around the distance measuring frame 1 is displayed on the EVF 128.

図13は図11での測距枠1の位置にある目を瞑っている顔を拡大した状態である。この場合の表示形式は図11と同様に、矩形枠を点線で表示し、矩形枠の色を黄色とし、矩形枠を点滅させる。   FIG. 13 shows a state in which the face meditating at the position of the distance measuring frame 1 in FIG. 11 is enlarged. The display format in this case is the same as in FIG. 11, in which a rectangular frame is displayed with a dotted line, the color of the rectangular frame is yellow, and the rectangular frame is blinked.

なお、本例では撮影画像から検出された顔が目を瞑っている場合には自動的に拡大していたが、第1の実施形態のように撮影前後で顔位置がずれているときに拡大するようにしても良い。   In this example, the face detected from the photographed image is automatically magnified when the eyes are meditated, but the face is magnified when the face position is shifted before and after photographing as in the first embodiment. You may make it do.

以上説明したように、撮影画像から検出された顔が目を瞑っていたり、顔位置がずれているときに拡大して表示することによって、ユーザに画像の失敗画像をより明確に認知されることができる。さらに撮影後、特別な操作を行うことなく拡大表示できるので、ユーザは煩雑な操作を行うことなく、簡単に失敗画像を確認することができる。   As described above, when the face detected from the photographed image is meditated or when the face position is shifted, the enlarged image is displayed so that the user can clearly recognize the failed image of the image. Can do. Furthermore, since the image can be enlarged and displayed without performing a special operation after shooting, the user can easily confirm the failed image without performing a complicated operation.

[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給しても達成可能である。すなわち、そのシステムあるいは装置のコンピュータ(CPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
[Other Embodiments]
The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that this can also be achieved by the computer (CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性の半導体メモリカード、ROMなどを用いることができる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合もある。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile semiconductor memory card, ROM, or the like can be used. . Further, the functions of the above-described embodiments may be realized by executing the program code read by the computer.

しかし、さらにプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   However, there is a case where an OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Needless to say, it is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる場合も有得る。その後、プログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, the program code read from the storage medium may be written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Needless to say.

本発明に係る第1の実施形態の電子カメラの構成を示すブロック図である。It is a block diagram which shows the structure of the electronic camera of 1st Embodiment which concerns on this invention. 本実施形態の電子カメラによる撮影動作を示すフローチャートである。It is a flowchart which shows the imaging | photography operation | movement by the electronic camera of this embodiment. 図2の顔検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the face detection process of FIG. 図2の撮影処理の詳細を示すフローチャートである。3 is a flowchart showing details of imaging processing in FIG. 2. 図4の本露光用AF処理の詳細を示すフローチャートである。6 is a flowchart showing details of the main exposure AF process of FIG. 4. 図5の測距枠と顔位置との対応を例示する図である。FIG. 6 is a diagram illustrating correspondence between a distance measurement frame and a face position in FIG. 5. 図5の合焦枠表示判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the focusing frame display determination process of FIG. 図4の本露光処理の詳細を示すフローチャートである。5 is a flowchart showing details of the main exposure process of FIG. 4. 図8の画像表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the image display process of FIG. 撮影前後で顔位置がずれている場合の測距枠と顔位置との関係を例示する図である。It is a figure which illustrates the relationship between a ranging frame and face position when the face position has shifted | deviated before and after imaging | photography. 撮影後の顔が目を瞑っている場合の測距枠と顔位置との関係を例示する図である。It is a figure which illustrates the relationship between a ranging frame and a face position in case the face after imaging has closed eyes. 第2の実施形態の画像表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the image display process of 2nd Embodiment. 撮影後の顔が目を瞑っている場合の拡大表示を例示する図である。It is a figure which illustrates the enlarged display when the face after imaging has closed eyes.

符号の説明Explanation of symbols

101 フォーカスレンズ
102 フォトインタラプタ
103 フォーカスレンズ駆動モータ
104 フォーカスレンズ駆動回路
105 光量調節部材
106 光量調節部材駆動モータ
107 光量調節部材駆動回路
108 ズームレンズ
109 フォトインタラプタ
110 ズームレンズ駆動モータ
111 ズームレンズ駆動回路
112 撮像素子
113 A/D変換器
114 タイミング信号発生回路
115 画像処理プロセッサ
116 バッファメモリ
117 記録媒体I/F
118 記録媒体
119 システム制御用CPU
120 ズームSW
121 SW1
122 SW2
123 メインSW
124 モードSW
125 プログラムメモリ
126 ワークメモリ
127 操作表示部
128 電子ビューファインダ
129 設定SW
130 十字SW
131 顔検出部
132 AF枠移動SW
133 画像拡大指示SW
DESCRIPTION OF SYMBOLS 101 Focus lens 102 Photo interrupter 103 Focus lens drive motor 104 Focus lens drive circuit 105 Light quantity adjustment member 106 Light quantity adjustment member drive motor 107 Light quantity adjustment member drive circuit 108 Zoom lens 109 Photo interrupter 110 Zoom lens drive motor 111 Zoom lens drive circuit 112 Imaging Element 113 A / D converter 114 Timing signal generation circuit 115 Image processor 116 Buffer memory 117 Recording medium I / F
118 Recording Medium 119 System Control CPU
120 Zoom SW
121 SW1
122 SW2
123 Main SW
124 Mode SW
125 Program memory 126 Work memory 127 Operation display unit 128 Electronic viewfinder 129 Setting SW
130 cross switch
131 Face Detection Unit 132 AF Frame Movement SW
133 Image enlargement instruction SW

Claims (9)

被写体を撮像して画像データを生成する撮像手段と、
ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、
前記撮像手段により撮像された画像データを表示する表示手段と、
前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出手段と、
前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御手段と、を有することを特徴とする撮像装置。
Imaging means for imaging a subject and generating image data;
Operating means for receiving an instruction to shoot a subject by the imaging means from a user;
Display means for displaying image data picked up by the image pickup means;
An image captured by the imaging means after detecting a human face area included in the image data imaged by the imaging means before the imaging instruction is given by the operating means, and after the imaging instruction is given by the operating means Face detection means for detecting a face area of a person included in the data;
Compare the image data before and after the shooting instruction is given by the operation means, and if there is no face area after the shooting instruction is given at the position where the face area was before the shooting instruction is given, the shooting instruction An image pickup apparatus comprising: control means for controlling the display means so as to display the face area before the identification is performed in an identifiable manner.
前記制御手段は、前記操作手段による撮影指示がなされる前に顔領域があった位置から所定範囲に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を前記表示手段に識別可能に表示して警告を行うことを特徴とする請求項1に記載の撮像装置。   The control means is a face before the shooting instruction is given when there is no face area after the shooting instruction is given within a predetermined range from the position where the face area was before the shooting instruction is given by the operating means. The imaging apparatus according to claim 1, wherein a warning is given by displaying the area on the display unit in an identifiable manner. 前記制御手段は、前記操作手段による撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域が検出できない場合に、前記撮影指示がなされる前の顔領域を前記表示手段に識別可能に表示して警告を行うことを特徴とする請求項1に記載の撮像装置。   When the face area cannot be detected after the shooting instruction is given at the position where the face area was before the shooting instruction is given by the operation means, the control means determines the face area before the shooting instruction is given. The image pickup apparatus according to claim 1, wherein a warning is given by displaying the display unit so as to be identifiable. 前記表示手段は、前記顔検出手段により検出された顔領域に枠を表示し、
前記制御手段は、前記撮影指示がなされる前の顔領域の枠の形態及び色の少なくともいずれかを変更することで前記警告を行うことを特徴とする請求項2又は3に記載の撮像装置。
The display means displays a frame in the face area detected by the face detection means;
The imaging apparatus according to claim 2 or 3, wherein the control unit performs the warning by changing at least one of a form and a color of a frame of a face area before the photographing instruction is given.
前記表示手段は、前記顔検出手段により検出された顔領域に枠を表示し、
前記制御手段は、前記撮影指示がなされる前の顔領域の枠を点滅することで、前記警告を行うことを特徴とする請求項2乃至4のいずれか1項に記載の撮像装置。
The display means displays a frame in the face area detected by the face detection means;
5. The imaging apparatus according to claim 2, wherein the control unit performs the warning by blinking a frame of a face area before the photographing instruction is given.
前記表示手段は、所定の操作指示に応じて警告表示された顔領域を拡大して表示することを特徴とする請求項2乃至5のいずれか1項に記載の撮像装置。   6. The imaging apparatus according to claim 2, wherein the display unit enlarges and displays a warning-displayed face area in accordance with a predetermined operation instruction. 前記表示手段は、前記所定の操作指示にかかわらず警告表示される顔領域を拡大して表示することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the display unit enlarges and displays a face area displayed as a warning regardless of the predetermined operation instruction. 被写体を撮像して画像データを生成する撮像手段と、
ユーザからの前記撮像手段による被写体の撮影指示を受け付ける操作手段と、
前記撮像手段により撮像された画像データを表示する表示手段と、を有する撮像装置の制御方法であって、
前記操作手段により撮影指示がなされる前に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出するとともに、前記操作手段により撮影指示がなされた後に前記撮像手段により撮像された画像データに含まれる人物の顔領域を検出する顔検出工程と、
前記操作手段による撮影指示がなされる前後の画像データを比較し、当該撮影指示がなされる前に顔領域があった位置に、撮影指示がなされた後において顔領域がない場合に、前記撮影指示がなされる前の顔領域を識別可能に表示するように前記表示手段を制御する制御工程と、を有することを特徴とする撮像装置の制御方法。
Imaging means for imaging a subject and generating image data;
Operating means for receiving an instruction to shoot a subject by the imaging means from a user;
A display means for displaying image data picked up by the image pickup means, and a control method for the image pickup apparatus,
An image captured by the imaging means after detecting a human face area included in the image data imaged by the imaging means before the imaging instruction is given by the operating means, and after the imaging instruction is given by the operating means A face detection step for detecting a human face area included in the data;
Compare the image data before and after the shooting instruction is given by the operation means, and if there is no face area after the shooting instruction is given at the position where the face area was before the shooting instruction is given, the shooting instruction And a control step of controlling the display means so as to display the face area before the identification is performed in an identifiable manner.
請求項8に記載の制御方法を撮像装置のコンピュータに実行させるためのプログラム。   A program for causing a computer of an imaging apparatus to execute the control method according to claim 8.
JP2008204770A 2008-08-07 2008-08-07 Imaging apparatus, control method therefor, and program Expired - Fee Related JP5210084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008204770A JP5210084B2 (en) 2008-08-07 2008-08-07 Imaging apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008204770A JP5210084B2 (en) 2008-08-07 2008-08-07 Imaging apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2010041621A true JP2010041621A (en) 2010-02-18
JP5210084B2 JP5210084B2 (en) 2013-06-12

Family

ID=42013642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008204770A Expired - Fee Related JP5210084B2 (en) 2008-08-07 2008-08-07 Imaging apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP5210084B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179874A (en) * 2013-03-15 2014-09-25 Casio Comput Co Ltd Imaging device, display method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005102175A (en) * 2003-08-25 2005-04-14 Fuji Photo Film Co Ltd Digital camera
JP2007274207A (en) * 2006-03-30 2007-10-18 Fujifilm Corp Image display device, image pickup device, and image display method
JP2007295183A (en) * 2006-04-24 2007-11-08 Fujifilm Corp Device, method, and program for reproducing image, and image sensing device
JP2008022280A (en) * 2006-07-12 2008-01-31 Fujifilm Corp Imaging apparatus, method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005102175A (en) * 2003-08-25 2005-04-14 Fuji Photo Film Co Ltd Digital camera
JP2007274207A (en) * 2006-03-30 2007-10-18 Fujifilm Corp Image display device, image pickup device, and image display method
JP2007295183A (en) * 2006-04-24 2007-11-08 Fujifilm Corp Device, method, and program for reproducing image, and image sensing device
JP2008022280A (en) * 2006-07-12 2008-01-31 Fujifilm Corp Imaging apparatus, method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179874A (en) * 2013-03-15 2014-09-25 Casio Comput Co Ltd Imaging device, display method, and program

Also Published As

Publication number Publication date
JP5210084B2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
JP4674471B2 (en) Digital camera
US9277112B2 (en) Auto focusing apparatus and auto focusing method, and image sensing apparatus
JP3728241B2 (en) Focus adjustment apparatus, imaging apparatus, focusing method, program, and storage medium
JP5043736B2 (en) Imaging apparatus and control method thereof
JP5398182B2 (en) Imaging apparatus, automatic focus detection method, and program
US8300137B2 (en) Image sensing apparatus providing driving direction of focus lens for attaining in-focus state and control method therefor
JP5713055B2 (en) Imaging apparatus, imaging method, and program
JP2008288911A (en) Imaging apparatus, face area detection program, and face area detection method
JP2008176152A (en) Imaging apparatus
JP5030022B2 (en) Imaging apparatus and program thereof
JP4853707B2 (en) Imaging apparatus and program thereof
JP2008017169A (en) Electronic camera
JP4906582B2 (en) FOCUS ADJUSTMENT DEVICE, ITS CONTROL METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM
JP5367129B2 (en) Imaging apparatus, control apparatus, and control method thereof
JP4845696B2 (en) Focus adjustment device, imaging device, and control method thereof
JP2009081530A (en) Imaging apparatus and imaging method
JP5210084B2 (en) Imaging apparatus, control method therefor, and program
JP6274779B2 (en) Focus adjustment device, imaging device, and focus adjustment method
JP2009198975A (en) Focus adjustment device and focus adjustment method therefor
JP5780750B2 (en) Automatic focusing device, control method thereof, and program
JP4235416B2 (en) Automatic focusing device, control method thereof, program and recording medium
JP4510436B2 (en) Automatic focus adjustment apparatus and imaging apparatus having the same
JP2015118337A (en) Image capturing device, control method therefor, program, and storage medium
JP5245604B2 (en) Image processing apparatus and program
JP5225477B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees