Nothing Special   »   [go: up one dir, main page]

JP2022027841A - Electronic apparatus, program, and storage medium - Google Patents

Electronic apparatus, program, and storage medium Download PDF

Info

Publication number
JP2022027841A
JP2022027841A JP2021197868A JP2021197868A JP2022027841A JP 2022027841 A JP2022027841 A JP 2022027841A JP 2021197868 A JP2021197868 A JP 2021197868A JP 2021197868 A JP2021197868 A JP 2021197868A JP 2022027841 A JP2022027841 A JP 2022027841A
Authority
JP
Japan
Prior art keywords
face
detected
pupil
subject
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021197868A
Other languages
Japanese (ja)
Inventor
誠司 小川
Seiji Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021197868A priority Critical patent/JP2022027841A/en
Publication of JP2022027841A publication Critical patent/JP2022027841A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Viewfinders (AREA)

Abstract

PROBLEM TO BE SOLVED: To control display of an AF result according to an operation mode set by a user to perform display of the AF result along an intention of the user.
SOLUTION: An electronic apparatus detects the face of a subject and an organ on the face from an image, when an area in the image is designated according to a user instruction, controls to perform AF for an AF target corresponding to the designated area, and displays, on a display, display of the AF target superimposed on the image. When a first operation mode is set in which either one of the face and the organ of the subject is designated as the AF target according to an area designated according to the user instruction in a partial area corresponding to the face of the subject in the image or in a specific area including the organ on the face, even if the partial area is designated, when the organ included in the face of the subject is detected, the electronic apparatus uses the detected organ as the AF target and performs display of the AF target for the detected organ.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は撮像装置に関し、顔や顔の器官(瞳など)を検出可能な撮像装置に関するものである。 The present invention relates to an image pickup device, and relates to an image pickup device capable of detecting a face and facial organs (pupil, etc.).

従来のデジタルカメラは、カメラが自動的に検出した被写体や、ユーザが任意で選択した被写体に対してオートフォーカス(AF)可能なものが多い。特に近年は、被写体として顔を検出するだけでなく、顔の器官(例えば瞳など)を検出可能とし、より被写体の精密な位置へのAF(以下、瞳AF)を実現したカメラも知られている。 Many conventional digital cameras are capable of autofocus (AF) on a subject automatically detected by the camera or a subject arbitrarily selected by the user. Particularly in recent years, cameras that not only detect the face as a subject but also detect facial organs (for example, pupils) and realize AF to a more precise position of the subject (hereinafter referred to as pupil AF) are also known. There is.

こうしたカメラにおいては、AF対象位置を顔と瞳から選択し分けられるようにすることで、よりユーザーの意図を反映できるような仕様にすることが重要である。例えば特許文献1では、ユーザーがLCD画面上をタッチすることで、その位置にあるのが顔か瞳かを判断し、AF対象として選択する技術が述べられている。これによりユーザーが撮影シーンに応じて手軽にAF対象位置を指定できるため、ユーザビリティの高いカメラを実現している。 In such a camera, it is important to make the specifications so that the user's intention can be reflected more by making it possible to select the AF target position from the face and the pupil. For example, Patent Document 1 describes a technique in which a user touches an LCD screen to determine whether the position is a face or a pupil and selects it as an AF target. This allows the user to easily specify the AF target position according to the shooting scene, thus realizing a camera with high usability.

特開2013-070164号公報Japanese Unexamined Patent Publication No. 2013-07164

しかしながら、上記の特許文献に開示された技術のように、瞳を選択した場合はAF対象位置も必ず瞳、顔を選択した場合はAF対象位置も必ず顔、という構成にした場合、瞳AFの入/切を切り替え可能なカメラにおいて不都合が生じる。例えば、瞳AF入(瞳をAF対象とした動作を行う動作モード)を設定しているユーザーは、選択した被写体の瞳で適切にAFが行われることを期待するはずである。しかし、顔選択時は必ず顔付近にAF枠表示するようにしてしまうと、ユーザーとしては瞳でAFしなかったと感じてしまい、AF操作を繰り返し、いつまでも撮影が行えない可能性がある。 However, as in the technique disclosed in the above patent document, when the pupil is selected, the AF target position is always the pupil, and when the face is selected, the AF target position is always the face. Inconvenience occurs with cameras that can be switched on / off. For example, a user who has set the pupil AF on (an operation mode in which an operation targeting the pupil is performed) should expect that AF is appropriately performed with the pupil of the selected subject. However, if the AF frame is always displayed near the face when the face is selected, the user may feel that AF has not been performed with the eyes, and the AF operation may be repeated and shooting may not be possible indefinitely.

本発明は、上記課題に鑑みてなされたものであり、ユーザーが設定した動作モードに応じてAFの結果表示を制御することにより、ユーザーの意図に沿ったAFの結果表示を行えるようにすることを目的とする。 The present invention has been made in view of the above problems, and by controlling the AF result display according to the operation mode set by the user, it is possible to display the AF result according to the user's intention. With the goal.

本発明の一態様による電子機器は以下の構成を備える。すなわち、
画像内から被写体の顔と顔の器官を検出する検出手段と、
ユーザー指示に応じて、画像内の領域を指定する指定手段と、
前記指定手段により指定された領域に対応するAF対象についてAFを行うように制御するAF制御手段と、
検出された画像内の被写体の顔に対応する領域を一部領域、検出された顔の器官が含まれる領域を特定領域とし、前記一部領域もしくは前記一部領域に含まれる前記特定領域のうち前記指定手段により指定された領域に応じて、前記被写体の顔と前記器官のいずれかをAF対象として指定できる第1の動作モードを含む複数の動作モードのうち、いずれかを設定する設定手段と、
AF対象の表示を前記画像に重畳して表示部に表示させる表示制御手段と、を備え、
前記第1の動作モードが設定されている場合、前記AF制御手段は、前記指定手段により前記一部領域が指定されていても前記一部領域に対応する顔に含まれる器官が前記検出手段により検出された場合には該検出された器官をAF対象として用い、前記表示制御手段は、AF対象の表示を前記検出された器官に対して行う。
The electronic device according to one aspect of the present invention has the following configurations. That is,
A detection means that detects the subject's face and facial organs from within the image,
A designated means for designating an area in an image according to user instructions,
AF control means that controls AF target corresponding to the area designated by the designated means so as to perform AF, and
The region corresponding to the face of the subject in the detected image is defined as a partial region, the region including the detected facial organs is defined as a specific region, and the partial region or the specific region included in the partial region is included. A setting means for setting one of a plurality of operation modes including a first operation mode in which either the face of the subject or the organ can be designated as an AF target according to the area designated by the designating means. ,
A display control means for superimposing the display of the AF target on the image and displaying it on the display unit is provided.
When the first operation mode is set, in the AF control means, even if the partial area is designated by the designated means, the organ included in the face corresponding to the partial area is detected by the detection means. When it is detected, the detected organ is used as an AF target, and the display control means displays the AF target on the detected organ.

本発明によれば、ユーザーが設定した動作モードに応じてAFの結果表示を制御することにより、ユーザーの意図に沿ったAFの結果表示が行われる。したがって、例えば、指定可能なAF対象が異なる複数の動作モードの設定のぞれぞれにおいて、ユーザーが違和感を感じにくい適切なAF結果の通知を行うことができる。 According to the present invention, by controlling the AF result display according to the operation mode set by the user, the AF result display is performed according to the user's intention. Therefore, for example, in each of the settings of a plurality of operation modes having different AF targets that can be specified, it is possible to notify an appropriate AF result that the user does not feel a sense of discomfort.

実施形態におけるカメラの外観図。The external view of the camera in embodiment. 実施形態におけるカメラの構成例を示す機能ブロック図。The functional block diagram which shows the configuration example of the camera in Embodiment. 実施形態における撮影モード処理を示すフローチャート。The flowchart which shows the shooting mode processing in embodiment. 実施形態における撮影モード処理を示すフローチャート。The flowchart which shows the shooting mode processing in embodiment. 実施形態における枠表示処理を示すフローチャート。The flowchart which shows the frame display process in an embodiment. 実施形態における枠表示処理を示すフローチャート。The flowchart which shows the frame display process in an embodiment. 実施形態における枠表示処理を示すフローチャート。The flowchart which shows the frame display process in an embodiment. 実施形態におけるAF処理を示すフローチャート。The flowchart which shows the AF process in an embodiment. 実施形態におけるAF処理を示すフローチャート。The flowchart which shows the AF process in an embodiment. 実施形態における画面例を示す模式図。The schematic diagram which shows the screen example in an embodiment. 実施形態における画面例を示す模式図。The schematic diagram which shows the screen example in an embodiment. 実施形態における画面例を示す模式図。The schematic diagram which shows the screen example in an embodiment. 実施形態におけるタッチ反応領域を示す模式図。The schematic diagram which shows the touch reaction area in an embodiment.

以下、図面を参照して本発明の実施形態を説明する。なお、以下に説明する実施形態では、本発明による電子機器およびその制御方法を、静止画・動画の撮影が可能なデジタルカメラに適用した場合を例としている。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the embodiment described below, the case where the electronic device according to the present invention and the control method thereof are applied to a digital camera capable of shooting still images / moving images is taken as an example.

図1に本実施形態による撮像装置の一例としてのデジタルカメラ100の背面外観図を示す。表示部28は画像や各種情報を表示する表示部である。表示部28には、図2で説明されるように背面表示パネル28aと、ファインダー内の表示部である電子ビューファインダー28bが含まれる。シャッターボタン61は撮影指示を行うための操作部である。モード切り替えスイッチ60は各種モードを切り替えるための操作部である。コネクタ112は、パーソナルコンピュータやプリンタなどの外部機器と接続するための接続ケーブル111とデジタルカメラ100とを接続するためのコネクタである。操作部70はユーザーからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材より成る。コントローラホイール73は操作部70に含まれる回転操作可能な操作部材である。電源スイッチ72は、電源オン、電源オフを切り替えるための押しボタンである。 FIG. 1 shows a rear view of the digital camera 100 as an example of the image pickup apparatus according to the present embodiment. The display unit 28 is a display unit that displays images and various information. The display unit 28 includes a rear display panel 28a and an electronic viewfinder 28b, which is a display unit in the finder, as described with reference to FIG. The shutter button 61 is an operation unit for giving a shooting instruction. The mode changeover switch 60 is an operation unit for switching various modes. The connector 112 is a connector for connecting a connection cable 111 for connecting to an external device such as a personal computer or a printer and a digital camera 100. The operation unit 70 includes operation members such as various switches, buttons, and a touch panel that receive various operations from the user. The controller wheel 73 is a rotation-operable operating member included in the operating unit 70. The power switch 72 is a push button for switching between power on and power off.

記録媒体200は、例えばメモリカードやハードディスク等を含み、デジタルカメラ100により撮影された画像等を格納する。記録媒体スロット201は記録媒体200を着脱可能に格納するためのスロットである。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となり、記録や再生が可能となる。蓋202は記録媒体スロット201の蓋である。図1においては、蓋202を開けて記録媒体スロット201から記録媒体200の一部を取り出して露出させた状態を示している。 The recording medium 200 includes, for example, a memory card, a hard disk, or the like, and stores an image or the like taken by the digital camera 100. The recording medium slot 201 is a slot for detachably storing the recording medium 200. The recording medium 200 stored in the recording medium slot 201 can communicate with the digital camera 100, and can record and play back. The lid 202 is the lid of the recording medium slot 201. FIG. 1 shows a state in which a lid 202 is opened and a part of the recording medium 200 is taken out from the recording medium slot 201 to be exposed.

図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図2において、撮影レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター101は絞り機能を備えるシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア102は、デジタルカメラ100の、撮影レンズ103を含む撮像系を覆うことにより、撮影レンズ103、シャッター101、撮像部22を含む撮像系の汚れや破損を防止する。 FIG. 2 is a block diagram showing a configuration example of the digital camera 100 according to the present embodiment. In FIG. 2, the photographing lens 103 is a lens group including a zoom lens and a focus lens. The shutter 101 is a shutter having an aperture function. The image pickup unit 22 is an image pickup device composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23 converts an analog signal into a digital signal. The A / D converter 23 is used to convert an analog signal output from the image pickup unit 22 into a digital signal. The barrier 102 covers the imaging system including the photographing lens 103 of the digital camera 100 to prevent the imaging system including the photographing lens 103, the shutter 101, and the imaging unit 22 from being soiled or damaged.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。 The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. In addition, the image processing unit 24 performs predetermined arithmetic processing using the captured image data. The system control unit 50 performs exposure control and distance measurement control based on the calculation result obtained by the image processing unit 24. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-flash) processing are performed. The image processing unit 24 further performs a predetermined calculation process using the captured image data, and performs a TTL method AWB (auto white balance) process based on the obtained calculation result.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、例えば、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。 The output data from the A / D converter 23 is written directly to the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The memory 32 stores, for example, image data obtained by the image pickup unit 22 and converted into digital data by the A / D converter 23, and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、スルー画像表示(ライブビュー表示(LV表示))を行える。以下、ライブビューで表示される画像をLV画像と称する。 Further, the memory 32 also serves as a memory (video memory) for displaying an image. The D / A converter 13 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28. In this way, the image data for display written in the memory 32 is displayed by the display unit 28 via the D / A converter 13. The display unit 28 displays on a display such as an LCD according to the analog signal from the D / A converter 13. The digital signal once A / D converted by the A / D converter 23 and stored in the memory 32 is analog-converted by the D / A converter 13 and sequentially transferred to the display unit 28 for display, thereby displaying a through image (through image display). Live view display (LV display)) can be performed. Hereinafter, the image displayed in the live view is referred to as an LV image.

不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。 The non-volatile memory 56 is a memory as a recording medium that can be electrically erased and recorded, and for example, EEPROM or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a computer program for executing various flowcharts described later in this embodiment.

システム制御部50は、デジタルカメラ100全体を制御する少なくとも1つのプロセッサーまたは回路である。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。 The system control unit 50 is at least one processor or circuit that controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment described later is realized. For example, RAM is used as the system memory 52. In the system memory 52, constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded. The system control unit 50 also controls the display by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切り替えスイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。 The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock. The mode changeover switch 60, the shutter button 61, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50.

モード切り替えスイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切り替えスイッチ60により、ユーザーはこれらのモードのいずれかに直接切り替えることができる。あるいは、モード切り替えスイッチ60でメニューボタンに一旦切り換えた後に、メニューボタンに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, a reproduction mode, and the like. The modes included in the still image recording mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, various scene modes for shooting settings for each shooting scene, a program AE mode, a custom mode, and the like. The mode selector switch 60 allows the user to switch directly to any of these modes. Alternatively, after switching to the menu button once with the mode changeover switch 60, the mode may be switched to any of these modes included in the menu button by using another operating member. Similarly, the moving image shooting mode may include a plurality of modes.

シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を有する。第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The shutter button 61 has a first shutter switch 62 and a second shutter switch 64. The first shutter switch 62 is turned on by a so-called half-pressing (shooting preparation instruction) during the operation of the shutter button 61 provided on the digital camera 100, and the first shutter switch signal SW1 is generated. The first shutter switch signal SW1 starts operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing. The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, that is, when the shutter button 61 is fully pressed (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processes from reading the signal from the image pickup unit 22 to writing the image data to the recording medium 200 by the second shutter switch signal SW2.

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。 Each operation member of the operation unit 70 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 28, and acts as various function buttons. Examples of the function button include an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various configurable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28 and the up / down / left / right four-way buttons and the SET button.

コントローラホイール73は、操作部70に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。コントローラホイール73を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部50はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラホイール73が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、ユーザーの回転操作に応じてコントローラホイール73自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材で、コントローラホイール73自体は回転せず、コントローラホイール73上でのユーザーの指の回転動作などを検出するものであってもよい(いわゆる、タッチホイール)。 The controller wheel 73 is a rotation-operable operation member included in the operation unit 70, and is used when instructing a selection item together with a direction button. When the controller wheel 73 is rotated, an electrical pulse signal is generated according to the amount of operation, and the system control unit 50 controls each unit of the digital camera 100 based on this pulse signal. From this pulse signal, it is possible to determine the angle at which the controller wheel 73 is rotated, the number of rotations, and the like. The controller wheel 73 may be any operation member as long as it can detect the rotation operation. For example, the controller wheel 73 itself may be a dial operation member that rotates in response to a user's rotation operation to generate a pulse signal. Further, the operation member including the touch sensor may be one that does not rotate the controller wheel 73 itself and detects the rotational movement of the user's finger on the controller wheel 73 (so-called touch wheel).

電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。 The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.

記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号等の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。 The recording medium I / F 18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, an optical disk, a magnetic disk, or the like. The communication unit 54 is connected by a wireless or wired cable to transmit and receive video signals, audio signals, and the like. The communication unit 54 can also be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 54 can transmit an image (including a through image) captured by the image pickup unit 22 and an image recorded on the recording medium 200, and can also receive image data and other various information from an external device. can.

姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。 The posture detection unit 55 detects the posture of the digital camera 100 with respect to the direction of gravity. Whether the image taken by the image pickup unit 22 based on the posture detected by the posture detection unit 55 is an image taken by holding the digital camera 100 horizontally or an image taken by holding the digital camera 100 vertically. Can be determined. The system control unit 50 can add orientation information according to the posture detected by the posture detection unit 55 to the image file of the image captured by the image pickup unit 22, or rotate and record the image. be. As the attitude detection unit 55, an acceleration sensor, a gyro sensor, or the like can be used.

接眼検知部57は目(物体)の接近(接眼)を検知する。システム制御部は、接眼検知部57で検知された状態に応じて、背面表示パネル28aと電子ビューファインダー28bの表示/非表示を切り替える。すなわち、接眼検知部57が接眼を検知している場合は表示先を電子ビューファインダー28bとし、接眼検知部57が接眼を検知していない場合は表示先を背面表示パネル28aとする。 The eyepiece detection unit 57 detects the approach (eyepiece) of the eye (object). The system control unit switches between display / non-display of the rear display panel 28a and the electronic viewfinder 28b according to the state detected by the eyepiece detection unit 57. That is, when the eyepiece detection unit 57 detects the eyepiece, the display destination is the electronic viewfinder 28b, and when the eyepiece detection unit 57 does not detect the eyepiece, the display destination is the rear display panel 28a.

なお操作部70の一つとして、背面表示パネル28aに対する接触(位置)を検知可能なタッチパネル70aを有する。タッチパネル70aと背面表示パネル28aとは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が背面表示パネル28aの表示を妨げないように構成され、背面表示パネル28aの表示画面の内部に組み込まれる内蔵型(インセル型)とすることができる。タッチパネル70aにおける入力座標と、背面表示パネル28aの表示画面上の表示座標とを対応付けることで、恰もユーザーが背面表示パネル28aの表示画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50はタッチパネル70aへの以下のユーザー操作、あるいは状態を検出できる。 As one of the operation units 70, there is a touch panel 70a capable of detecting contact (position) with respect to the rear display panel 28a. The touch panel 70a and the rear display panel 28a can be integrally configured. For example, the touch panel 70a can be a built-in type (in-cell type) that is configured so that the light transmittance does not interfere with the display of the rear display panel 28a and is incorporated inside the display screen of the rear display panel 28a. By associating the input coordinates on the touch panel 70a with the display coordinates on the display screen of the rear display panel 28a, it is as if the user can directly operate the display screen of the rear display panel 28a GUI (graphical user). Interface) can be provided. The system control unit 50 can detect the following user operations or states on the touch panel 70a.

・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)の検出。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)の検出。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)の検出。
・タッチパネル70aへタッチしていた指やペンを離したこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)の検出。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)の検出。
-Detection that a finger or pen that has not touched the touch panel 70a newly touches the touch panel 70a, that is, the start of touch (hereinafter referred to as "touch-down").
-Detection that the touch panel 70a is in a state of being touched with a finger or a pen (hereinafter referred to as "Touch-On").
-Detection that the touch panel 70a is moving while being touched with a finger or a pen (hereinafter referred to as "Touch-Move").
-Detection that the finger or pen that was touching the touch panel 70a is released, that is, the end of the touch (hereinafter referred to as "Touch-Up") is detected.
-Detection of a state in which nothing is touched on the touch panel 70a (hereinafter referred to as "touch-off").

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている間である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When a touchdown is detected, it is also detected that it is touch-on. After a touchdown, touch-on usually continues to be detected unless touch-up is detected. The touch move is also detected while the touch-on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作が行なわれたかを判定する。例えば、タッチムーブに関して、システム制御部50は、タッチパネル70a上で移動する指やペンの移動方向を、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。またタッチパネル70a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。 These operations / states and the position coordinates of the finger or pen touching the touch panel 70a are notified to the system control unit 50 through the internal bus, and the system control unit 50 determines which on the touch panel 70a based on the notified information. Determine if such an operation has been performed. For example, regarding the touch move, the system control unit 50 can determine the moving direction of the finger or the pen moving on the touch panel 70a for each vertical component / horizontal component on the touch panel 70a based on the change in the position coordinates. Further, it is assumed that a stroke is drawn when the touch panel 70a is touched up from the touch down through a certain touch move.

素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。 The operation of drawing a stroke quickly is called flicking. Flicking is an operation in which a finger is quickly moved on the touch panel 70a by a certain distance while being touched, and then released as it is, in other words, an operation in which the touch panel 70a is swiftly traced with a finger. It can be determined that the flick has been performed when it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is. In addition, if it is detected that the touch move is performed at a speed equal to or longer than a predetermined distance, it is determined that the drag has been performed. Further, a touch operation in which a plurality of points (for example, two points) are touched at the same time to bring the touch positions closer to each other is called a pinch-in, and a touch operation to move the touch positions away from each other is called a pinch-out. Pinch out and pinch in are collectively called pinch operation (or simply pinch).

タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式のものがあるが、いずれの方式でもよい。 The touch panel 70a may use any of various touch panels such as a resistance film method, a capacitance method, a surface acoustic wave method, an infrared ray method, an electromagnetic induction method, an image recognition method, and an optical sensor method. good. Depending on the method, there are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but either method may be used. ..

デジタルカメラ100は、少なくとも画像を再生するための再生モードと、撮影を行うための撮影モードとで、切り替えて使用することができ、撮影モードとして、オートモード、マニュアルモード、および複数のシーン別撮影モードを備えている。オートモードは、カメラの各種パラメータが、計測された露出値に基づきデジタルカメラ100に組み込まれたプログラムにより自動的に決定されるモードである。マニュアルモードは、カメラの各種パラメータをユーザーが自由に変更可能なモードである。シーン別撮影モードとは、撮影シーン別にその撮影シーンに適したシャッター速度や絞り値、ストロボ発光状態、感度設定、ホワイトバランス(WB)設定等を組み合わせることによって各種パラメータが決定される撮影モードである。デジタルカメラ100は、例えば、以下に記す(1)~(3)のシーン別撮影モードを備えている。但し、これらのシーン別撮影モードに限定されるものではない。撮影者は、撮影モード選択メニューからデジタルカメラ100を所望の撮影モードに設定して撮影を行うことができる。 The digital camera 100 can be used by switching between a playback mode for reproducing at least an image and a shooting mode for shooting, and the shooting modes include an auto mode, a manual mode, and shooting for each of a plurality of scenes. It has a mode. The auto mode is a mode in which various parameters of the camera are automatically determined by a program incorporated in the digital camera 100 based on the measured exposure value. The manual mode is a mode in which the user can freely change various parameters of the camera. The shooting mode for each scene is a shooting mode in which various parameters are determined by combining the shutter speed, aperture value, strobe light emission state, sensitivity setting, white balance (WB) setting, etc. suitable for the shooting scene. .. The digital camera 100 has, for example, the scene-specific shooting modes (1) to (3) described below. However, it is not limited to these scene-specific shooting modes. The photographer can set the digital camera 100 to a desired shooting mode from the shooting mode selection menu and shoot.

(1)ポートレート撮影モード:背景をぼかして人物を浮き立たせるようにして人物撮影に特化したモード。
(2)花撮影モード:マクロモードに設定し、彩度も高めに設定するモード。
(3)スポーツ撮影モード:動きの早い被写体をとるのに特化した設定とする撮影モード。
(1) Portrait shooting mode: A mode specialized for portrait shooting by blurring the background to make the person stand out.
(2) Flower shooting mode: A mode in which the macro mode is set and the saturation is set high.
(3) Sports shooting mode: A shooting mode with settings specialized for shooting fast-moving subjects.

上述したデジタルカメラ100では中央1点AFや顔AF、瞳AFを用いた撮影が可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。瞳AFとは顔検出機能の一種でもある器官検出機能によって検出された撮影画面内の顔に含まれる瞳に対してAFを行うことである。 With the above-mentioned digital camera 100, it is possible to take a picture using the central one-point AF, the face AF, and the pupil AF. The central 1-point AF is to perform AF on the central position 1 point in the shooting screen. Face AF is to perform AF on the face in the shooting screen detected by the face detection function. Eye AF is to perform AF on the pupil included in the face in the photographing screen detected by the organ detection function, which is also a kind of face detection function.

顔検出機能について説明する。システム制御部50は、画像から顔および該顔の器官(目、鼻、口、耳など)を検出可能な検出部として機能する。システム制御部50は顔検出対象の画像データを画像処理部24に送る。システム制御部50の制御下で画像処理部24は、画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は、画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタを適用することにより、画像データからエッジ成分が検出される。 The face detection function will be described. The system control unit 50 functions as a detection unit capable of detecting the face and the facial organs (eyes, nose, mouth, ears, etc.) from the image. The system control unit 50 sends the image data of the face detection target to the image processing unit 24. Under the control of the system control unit 50, the image processing unit 24 causes a horizontal bandpass filter to act on the image data. Further, under the control of the system control unit 50, the image processing unit 24 applies a vertical bandpass filter to the image data. By applying these horizontal and vertical bandpass filters, edge components are detected from the image data.

その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳などの顔の器官の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを目と判断し、目の候補群の絞り込みを行う。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳などの器官)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。システム制御部50は、顔の検出結果に応じて、検出された顔の数、各顔の位置、大きさ、向き、内容する器官(目、鼻、口、耳)などの位置や大きさ等の顔情報を出力し、処理を終了する。このとき、システム制御部50は、顔の数などの特徴量をシステムメモリ52に記憶する。一旦顔として検出された領域は、コントラストや色、大きさ等の条件が合致していれば所定期間(1秒程度)は顔として検出し続ける。これによって、一時的に被写体が後ろを向いた、目を瞑った等によって顔の器官が検出されなくなっても、顔として検出し続けることが可能である。 After that, the system control unit 50 performs pattern matching on the detected edge components, and extracts candidate groups of facial organs such as eyes, nose, mouth, and ears. Then, the system control unit 50 determines from the extracted eye candidate groups that the eyes satisfy preset conditions (for example, the distance between two eyes, the inclination, etc.), and narrows down the eye candidate groups. I do. Then, the system control unit 50 associates the narrowed-down eye candidate group with other parts (organs such as the nose, mouth, and ears) that form the corresponding face, and sets a preset non-face condition filter. By passing it through, the face is detected. The system control unit 50 determines the number of detected faces, the position, size, orientation of each face, the position and size of the internal organs (eyes, nose, mouth, ears), etc., according to the face detection result. Outputs the face information of and ends the process. At this time, the system control unit 50 stores a feature amount such as the number of faces in the system memory 52. The area once detected as a face continues to be detected as a face for a predetermined period (about 1 second) if conditions such as contrast, color, and size are met. As a result, even if the facial organs are not detected due to the subject temporarily facing backward, closing the eyes, etc., it is possible to continue to detect the face as a face.

システム制御部50は、上述の顔検出機能によって検出された顔について抽出済みとなっている目を、検出された目(瞳)として確定し、瞳検出結果として瞳情報を出力する。瞳情報には、例えば、画像中における目の位置、顔における目の位置、大きさ等、また、目の位置と大きさに基づく瞳領域が含まれる。瞳検出は、顔の要素(パーツ)を検出する器官検出の一種である。 The system control unit 50 determines the eyes that have been extracted for the face detected by the above-mentioned face detection function as the detected eyes (pupils), and outputs the pupil information as the pupil detection result. The pupil information includes, for example, the position of the eyes in the image, the position of the eyes on the face, the size, and the like, and the pupil region based on the position and size of the eyes. Eye detection is a type of organ detection that detects facial elements (parts).

以上のようにライブビュー表示あるいは再生表示される画像データを画像解析して、画像データの特徴量を抽出して、顔や瞳などの特定の被写体情報を検出することが可能である。 As described above, it is possible to perform image analysis on the image data displayed in the live view or reproduced, extract the feature amount of the image data, and detect specific subject information such as a face and eyes.

なお、顔AFと同時に顔AE,顔FE、顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のWBを最適化することである。 Face AE, face FE, and face WB can be performed at the same time as face AF. Face AE is to optimize the exposure of the entire screen according to the detected brightness of the face. Face FE is to adjust the flash around the detected face. The face WB is to optimize the WB of the entire screen according to the detected face color.

さらに、システム制御部50は、画像処理部24を用いて、色、コントラスト、動きベクトルなどの条件によって、主要被写体と想定されるモノ(人物の顔と器官以外のモノ)を検出することも可能である。 Further, the system control unit 50 can also use the image processing unit 24 to detect an object (an object other than a person's face and organs) that is assumed to be the main subject depending on conditions such as color, contrast, and motion vector. Is.

また、デジタルカメラ100では、撮影時のオートフォーカス(AF)の動作モードとして、複数のAFモードからユーザー操作に応じて1つのAFモードを設定することが可能である。AFモードの設定は、設定メニュー画面における、AFモードを設定するためのメニュー項目が選択されて表示されるAFモード設定画面でのユーザー操作に基づいて行われる。AFを行う位置の決定方式ごとに複数のAFモードが用意されている。本実施形態では、AFモードとして、一点AFモードと、追尾優先モードのいずれかが設定できるものとする。 Further, in the digital camera 100, it is possible to set one AF mode from a plurality of AF modes according to the user operation as the operation mode of the autofocus (AF) at the time of shooting. The AF mode setting is performed based on the user operation on the AF mode setting screen in which the menu item for setting the AF mode is selected and displayed on the setting menu screen. A plurality of AF modes are prepared for each AF position determination method. In the present embodiment, either the one-point AF mode or the tracking priority mode can be set as the AF mode.

一点AFモードは、撮影範囲の中央、あるいはユーザーが指定した一点に焦点調節位置を表すAF枠を設定するAFモードである。一点AFモードでは、AF枠は被写体に変化があっても移動せず、顔などの被写体が検出されているか否かに関わらず、AF枠の位置から得られた情報(コントラスト値や位相差AF用のデフォーカス量)に基づいてAFが行われる。 The one-point AF mode is an AF mode in which an AF frame representing the focus adjustment position is set at the center of the shooting range or at one point designated by the user. In the one-point AF mode, the AF frame does not move even if the subject changes, and the information obtained from the position of the AF frame (contrast value and phase difference AF) regardless of whether or not a subject such as a face is detected. AF is performed based on the defocus amount for.

追尾優先モードでは、ユーザーからの追尾指定がない場合(追尾待機状態、追尾解除状態)は、デジタルカメラ100が自動的に主被写体と判定した被写体がAF対象(焦点調節位置)となる。人物の顔が検出された場合は、検出された人物の瞳または顔を優先して主被写体としてAF対象にする。人物の顔が検出されていない場合は、動体、コントラスト値の高い被写体、中央に近い被写体などの所定の条件に従って主被写体をデジタルカメラ100が自動的に決定してAF対象とする。また、ユーザーからの追尾指定がなされた後は、LV画像中で指定された被写体を追尾し続け、追尾している被写体の撮影範囲内での位置が変わっても、追尾している被写体をAF対象とする。例えばユーザーが人物Aの瞳または顔を追尾指定した場合(追尾中)は、LV画像上で人物Aが移動しても人物Aの瞳または顔を追い続け、AF対象とする。 In the tracking priority mode, when there is no tracking designation from the user (tracking standby state, tracking release state), the subject automatically determined by the digital camera 100 as the main subject is the AF target (focus adjustment position). When a person's face is detected, the eyes or face of the detected person is given priority and the AF target is set as the main subject. When the face of a person is not detected, the digital camera 100 automatically determines the main subject according to predetermined conditions such as a moving object, a subject having a high contrast value, and a subject close to the center, and sets it as an AF target. In addition, after the tracking is specified by the user, the subject specified in the LV image is continuously tracked, and even if the position of the tracked subject within the shooting range changes, the tracked subject is AF. set to target. For example, when the user specifies to track the pupil or face of the person A (during tracking), even if the person A moves on the LV image, the person A continues to follow the pupil or face of the person A and makes it an AF target.

また、人物以外を追尾対象とすることも可能であり(モノ追尾)、追尾指定された位置の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。すなわち、追尾優先モードは追尾を行うことによるAF位置の決定が可能なAFモードである。なお、AFモードは一点AFモードと追尾モードに限るものではない。例えばユーザーが指定した限定領域内で追尾を行うAFモード(「ゾーンAF」)などがあってもよい。設定したAFモードは、不揮発性メモリ56に記憶され、撮影モード処理においてはシステムメモリ52に読み出される。 It is also possible to track other than a person (mono tracking), and even if the same subject moves in the LV image, it will continue to be tracked, subject to the color, contrast, shape, etc. of the position specified for tracking. Target for AF. That is, the tracking priority mode is an AF mode in which the AF position can be determined by performing tracking. The AF mode is not limited to the one-point AF mode and the tracking mode. For example, there may be an AF mode (“zone AF”) in which tracking is performed within a limited area specified by the user. The set AF mode is stored in the non-volatile memory 56, and is read out in the system memory 52 in the shooting mode processing.

図3A、図3Bは、本実施形態によるデジタルカメラ100の撮影モード処理に関するフローチャートである。図3A~3Bの処理、及び後述する図4A~4C,図5A~5Bの処理は、不揮発性メモリ56に記録されたプログラムを、システムメモリ52をワークメモリとしてとしてシステム制御部50が実行することにより実現される。デジタルカメラ100をライブビュー撮影モードで起動すると図3A~3Bの処理を開始する。なお、図3A~3Bの処理は、AFモードが追尾優先モードに設定されている場合の処理である。1点AFモードに設定されている場合の処理については説明を省略する。 3A and 3B are flowcharts relating to the shooting mode processing of the digital camera 100 according to the present embodiment. In the processing of FIGS. 3A to 3B and the processing of FIGS. 4A to 4C and 5A to 5B described later, the system control unit 50 executes the program recorded in the non-volatile memory 56 with the system memory 52 as the work memory. Is realized by. When the digital camera 100 is started in the live view shooting mode, the processes of FIGS. 3A to 3B are started. The processes of FIGS. 3A to 3B are processes when the AF mode is set to the tracking priority mode. The description of the processing when the one-point AF mode is set will be omitted.

なお、追尾優先モードでは、画像から顔および顔の器官を検出し、検出された顔または器官は、ユーザー操作(本実施形態ではタッチ操作)によりAF対象(追尾対象)として指定される候補となる。また、そのようなタッチ操作により指定可能なAF対象が異なる複数の動作モードが用意されており、ユーザーはそれのうちの何れかをMENU画面から設定することができる。以下では、画像から検出される顔の器官を目(瞳)とし、指定可能なAF対象が異なる複数の動作モードとして、顔と瞳をAF対象に指定できる瞳AF入と顔をAF対象に指定できる(瞳は指定できない)瞳AF切を設定可能な撮像装置について説明する。 In the tracking priority mode, the face and facial organs are detected from the image, and the detected face or organ is a candidate designated as an AF target (tracking target) by user operation (touch operation in this embodiment). .. Further, a plurality of operation modes having different AF targets that can be specified by such a touch operation are prepared, and the user can set any of them from the MENU screen. In the following, the facial organs detected from the image are the eyes (pupils), and the face and pupil can be designated as AF targets as multiple operation modes with different AF targets that can be specified. Eye AF on and face are designated as AF targets. An image pickup device that can set the pupil AF off (the pupil cannot be specified) will be described.

S301(図3A)において、システム制御部50は、撮影モード初期化処理を行った後、撮像部22を通して取得された映像を、表示部28にライブビューとして表示(LV表示)する。この時の表示先は、表示先切替が「自動」に設定されていて接眼を検知していない場合は背面表示パネル28aであり、接眼を検知している場合は電子ビューファインダー28bである。また、表示先切替が「手動」で、表示先が背面表示パネル28aに設定されている場合は背面表示パネル28aであり、表示先が電子ビューファインダー28bに設定されている場合は電子ビューファインダー28bである。ここで、撮影モード初期化処理とは、フラグや制御変数等を含むパラメータや設定値、設定モードを不揮発性メモリ56から読み出す等の処理である。また記録媒体200の状態を確認し、異常等があれば、ライブビューに重畳して警告等を表示する。 In S301 (FIG. 3A), the system control unit 50 displays the image acquired through the image pickup unit 22 as a live view (LV display) on the display unit 28 after performing the shooting mode initialization process. The display destination at this time is the rear display panel 28a when the display destination switching is set to "automatic" and the eyepiece is not detected, and the electronic viewfinder 28b when the eyepiece is detected. If the display destination is switched to "manual" and the display destination is set to the rear display panel 28a, the rear display panel 28a is used. If the display destination is set to the electronic viewfinder 28b, the electronic viewfinder 28b is used. Is. Here, the shooting mode initialization process is a process of reading parameters, setting values, and setting modes including flags and control variables from the non-volatile memory 56. Further, the state of the recording medium 200 is confirmed, and if there is an abnormality or the like, a warning or the like is displayed by superimposing it on the live view.

S302において、システム制御部50は、瞳、顔、モノを検出中であることを示す枠、もしくは、追尾中であることを示す枠を表示するための枠表示処理を行なう。枠表示処理については、図4A~4Cを用いて後述する。 In S302, the system control unit 50 performs a frame display process for displaying a frame indicating that the pupil, face, or object is being detected, or a frame indicating that tracking is in progress. The frame display process will be described later with reference to FIGS. 4A to 4C.

S303において、システム制御部50は、操作部70に含まれるMENUボタンが押下されたか否かを判断する。MENUボタンが押下されたと判断された場合、処理はS304へ進み、そうでなければ処理はS305へ進む。S304において、システム制御部50は、MENU画面を表示する。MENU画面には、瞳AFの設定項目が含まれており、ユーザーによって瞳AFの設定項目が選択されると、瞳AFの設定画面が表示部28に表示される。瞳AFの設定画面では、設定候補として「入(オン)」と「切(オフ)」の選択肢が表示され、ユーザーはいずれかを選択して瞳AFの入か切のいずれかを設定することが可能である。ユーザー操作によって瞳AFの入/切の設定が変更されると、変更された設定値を不揮発性メモリ56に記憶して設定する。 In S303, the system control unit 50 determines whether or not the MENU button included in the operation unit 70 has been pressed. If it is determined that the MENU button has been pressed, the process proceeds to S304, otherwise the process proceeds to S305. In S304, the system control unit 50 displays the MENU screen. The MENU screen includes the pupil AF setting items, and when the user selects the pupil AF setting items, the pupil AF setting screen is displayed on the display unit 28. On the pupil AF setting screen, the choices of "on" and "off" are displayed as setting candidates, and the user can select either one to set either on or off of pupil AF. Is possible. When the ON / OFF setting of the pupil AF is changed by the user operation, the changed setting value is stored in the non-volatile memory 56 and set.

S305において、システム制御部50は、タッチパネル70aに対するタッチ操作(位置指定操作)を検出したか否かを判断する。タッチ操作を検出した場合はS306(図3Bの(a))へ進み、そうでなければS316(図3A)へ進む。S306からS315では、瞳AFの入/切と、タッチ操作による表示画面上の指定位置とに基づいて追尾対象を設定する処理が行われる。なお、ここで検出するタッチ操作による位置指定操作は、表示先が背面表示パネル28aである場合はタッチダウンとし、表示先が電子ビューファインダー28bである場合はタッチアップとする。電子ビューファインダー28bへ表示出力している際は、一般的にユーザーはタッチパネル上のタッチ位置を目視できないため、確定操作をタッチダウン後のタッチアップとすることで、目的の位置を確定しやすくなるためである。 In S305, the system control unit 50 determines whether or not a touch operation (position designation operation) for the touch panel 70a is detected. If a touch operation is detected, the process proceeds to S306 ((a) in FIG. 3B), otherwise the process proceeds to S316 (FIG. 3A). In S306 to S315, processing for setting the tracking target is performed based on the on / off of the pupil AF and the designated position on the display screen by the touch operation. The position designation operation by the touch operation detected here is touch-down when the display destination is the rear display panel 28a, and touch-up when the display destination is the electronic viewfinder 28b. When displaying and outputting to the electronic viewfinder 28b, the user generally cannot visually check the touch position on the touch panel. Therefore, by performing the confirmation operation as a touch-up after touchdown, it becomes easier to confirm the target position. Because.

S306(図3Bの(a))において、システム制御部50は、瞳AFの設定が入であるか否か(瞳AF入か瞳AF切か)を判断する。瞳AF入であれば処理はS307へ進み、そうでなければS308へ進む。S307において、システム制御部50は、ライブビュー画像から瞳が検出されており、かつ、S305でタッチ操作を検出した際の指定位置(以下、タッチ操作の位置ともいう)が、検出されている瞳の位置か(瞳領域内であるか)否かを判断する。タッチ操作の位置が瞳領域内であれば処理はS308へ進み、そうでなければS311へ進む。なお、S307では、瞳AF入動作モードにおいて、被写体の右側の瞳と左側の瞳を区別して指定することが可能である。 In S306 (in FIG. 3B (a)), the system control unit 50 determines whether or not the pupil AF setting is on (whether the pupil AF is on or the pupil AF is off). If the pupil AF is on, the process proceeds to S307, and if not, the process proceeds to S308. In S307, the system control unit 50 detects the pupil from the live view image, and the designated position when the touch operation is detected in S305 (hereinafter, also referred to as the touch operation position) is detected. Judge whether it is in the position of (whether it is in the pupil area) or not. If the position of the touch operation is within the pupil region, the process proceeds to S308, and if not, the process proceeds to S311. In S307, it is possible to distinguish between the right pupil and the left pupil of the subject in the pupil AF on operation mode.

なお、表示先が背面表示パネル28aである場合は、背面表示パネル28aに表示されているライブビューにおける、検出されている瞳に対応する領域内にタッチダウンがされた場合に、タッチ操作の位置が検出されている瞳領域内であると判断する。また、表示先が電子ビューファインダー28bである場合は、指定位置を示すカーソルをタッチムーブによって電子ビューファインダー28bに表示されたライブビューにおいて移動し、タッチアップした時のカーソルの位置をタッチ操作の位置とする。従って、電子ビューファインダー28bに表示されたライブビューの検出されている瞳に対応する領域内にカーソルを移動させた状態でタッチアップされた場合に、タッチ操作の位置が検出されている瞳領域内であると判断する。 When the display destination is the rear display panel 28a, the position of the touch operation when the touchdown is performed within the area corresponding to the detected pupil in the live view displayed on the rear display panel 28a. Is determined to be within the detected pupil area. If the display destination is the electronic view finder 28b, the cursor indicating the specified position is moved in the live view displayed on the electronic view finder 28b by the touch move, and the position of the cursor when touched up is the position of the touch operation. And. Therefore, when the cursor is moved to the area corresponding to the detected pupil of the live view displayed on the electronic viewfinder 28b and touched up, the position of the touch operation is detected in the pupil area. Judge that.

S308において、システム制御部50は、S307で判定した指定位置が、ライブビュー上の被写体に対して、ユーザーから見て右側の瞳(被写体の左目)の選択領域内(後述の右上領域703内)か否かを判断する。右側の瞳であれば、S309へ進む。そうでない場合、すなわち、S307で判定した指定位置が、ライブビュー上の被写体に対して、ユーザーから見て左側の瞳(被写体の右目)の選択領域内(後述の左上領域702内)である場合は、処理はS310へ進む。 In S308, the system control unit 50 determines that the designated position in S307 is within the selection area of the pupil (left eye of the subject) on the right side of the subject on the live view (in the upper right area 703 described later). Judge whether or not. If it is the pupil on the right side, proceed to S309. In other cases, that is, when the designated position determined in S307 is within the selection area (inside the upper left area 702 described later) of the left pupil (right eye of the subject) when viewed from the user with respect to the subject on the live view. The process proceeds to S310.

S309において、システム制御部50は、指定位置で検出されている顔の右側の瞳(検出された顔の左目)を追尾対象として追尾する。S310において、システム制御部50は、指定位置で検出されている顔の左側の瞳(検出された顔の右目)を追尾対象として追尾する。 In S309, the system control unit 50 tracks the right pupil of the face detected at the designated position (the left eye of the detected face) as a tracking target. In S310, the system control unit 50 tracks the left pupil of the face detected at the designated position (the right eye of the detected face) as a tracking target.

一方、S307で指定位置が瞳領域でなかった場合、S311において、システム制御部50は、タッチ操作による指定位置が、検出されている顔の位置か(顔領域内か)否かを判断する。顔の位置であれば(後述する顔領域701、701a、701b内である場合)、処理はS312へ進み、そうでなければS313へ進む。S312において、システム制御部50は、タッチ操作の指定位置において検出されている顔を追尾対象として追尾する。 On the other hand, when the designated position is not the pupil region in S307, in S311 the system control unit 50 determines whether or not the designated position by the touch operation is the detected face position (inside the face region). If it is the position of the face (in the case of the face areas 701, 701a, and 701b described later), the process proceeds to S312, and if not, the process proceeds to S313. In S312, the system control unit 50 tracks the face detected at the designated position of the touch operation as the tracking target.

S307、S308、S311における処理について、図7を使って詳細に解説する。図7(a)~(e)は、表示先が背面表示パネル28aである場合のデジタルカメラ100における顔または瞳を選択するためのタッチ反応領域を示す模式図であり、ライブビューから検出された1つの顔の部分のみを抽出して説明した図である。実際にはライブビュー画像には顔の外側の領域や他の顔などが含まれるが、図7の説明ではそれらは省略する。 The processing in S307, S308, and S311 will be described in detail with reference to FIG. 7. 7 (a) to 7 (e) are schematic views showing a touch reaction region for selecting a face or pupil in the digital camera 100 when the display destination is the rear display panel 28a, and are detected from the live view. It is a figure which extracted and explained only one face part. Actually, the live view image includes an area outside the face, other faces, and the like, but these are omitted in the description of FIG. 7.

図7(a)は、顔のみが検出されている状態のタッチ反応領域を示す図である。瞳は、目を瞑っている等の理由で検出されていないものとする。このとき、ユーザーが選択できるのは顔のみであるため、タッチ反応領域となる顔領域701は顔全体を覆う正方形の領域(高さ、幅ともに長さL)として設定される。このように、システム制御部50は、画像から顔が検出されると、表示画面上の顔の領域に対応する顔領域を設定し、検出された顔と顔領域を関連づける。よって、この状態で顔領域701上においてユーザーのタッチ操作が検出されると、顔が選択される。 FIG. 7A is a diagram showing a touch reaction region in a state where only the face is detected. It is assumed that the pupil is not detected because the eyes are closed. At this time, since only the face can be selected by the user, the face area 701, which is the touch reaction area, is set as a square area (both height and width L) that covers the entire face. As described above, when the face is detected from the image, the system control unit 50 sets the face area corresponding to the face area on the display screen, and associates the detected face with the face area. Therefore, when the user's touch operation is detected on the face area 701 in this state, the face is selected.

システム制御部50は、検出された顔から所定の器官(本実施形態では瞳)が検出されると、設定した顔領域を複数の領域に分割し、各領域を顔と所定の器官に関連づける。図7(b)は顔と左右の両目が検出されている状態である。このとき、ユーザーが選択できるのは顔と、被写体に対して右側の瞳、左側の瞳の3つとなる。このため、図7(b)のように顔領域701を3つに分割し、それぞれ左上タッチ反応領域である左上領域702を左側の瞳、右上タッチ反応領域である右上領域703を右側の瞳、下半分タッチ反応領域である下領域704を顔の選択領域として設定する。なお、本実施形態では、顔に対して口、鼻よりも瞳が存在する側を上方向としている。 When a predetermined organ (pupil in the present embodiment) is detected from the detected face, the system control unit 50 divides the set face region into a plurality of regions and associates each region with the face and the predetermined organ. FIG. 7B shows a state in which the face and both the left and right eyes are detected. At this time, the user can select three, the face, the pupil on the right side of the subject, and the pupil on the left side. Therefore, as shown in FIG. 7B, the face area 701 is divided into three parts, the upper left area 702, which is the upper left touch reaction area, is the left pupil, and the upper right area 703, which is the upper right touch reaction area, is the right pupil. The lower region 704, which is the lower half touch reaction region, is set as the face selection region. In this embodiment, the side where the pupil is located is upward from the mouth and nose with respect to the face.

なお、顔領域の分割は、器官の検出時の大きさに関わらず、所定の規則に従って行われる。例えば、検出された顔や器官の大きさに応じて顔領域や器官の領域の大きさが変化しても、顔領域と複数の領域の面積の比率および位置関係を維持するように顔領域の分割が行われる。さらに具体的に例示する、本実施形態では、左上領域702,右上領域703,下領域704の高さと幅は、検出された顔に対する瞳の相対的な大きさ(割合)に関わらず顔領域701の大きさに対して一定の割合であり、次のように設定する。すなわち、左上領域702,右上領域703,下領域704の高さは互いに同じとする(長さL/2、すなわち顔領域701の高さの半分)。また、左上領域702と右上領域703の幅は互いに同じ長さとする(長さL/2。すなわち顔領域701の幅の半分)。下領域704の幅は左上領域702,右上領域703の2倍である(長さL)。これは、顔領域701を上下左右に等分に4分割し、左上の部分、右上の部分、下側の2つの部分をそれぞれ左側の瞳、右側の瞳、顔に対応するタッチ反応領域としたものである。顔と瞳とで反応領域の高さを揃えることで、ユーザーは顔と瞳を同じ操作感で選択することが可能となる。また左右の瞳の反応領域の幅を揃えることで、顔が斜めを向いて片方の瞳が小さく検出された場合でも、両方の瞳を同じ操作感で選択することが可能となる。 It should be noted that the division of the face region is performed according to a predetermined rule regardless of the size at the time of detection of the organ. For example, even if the size of the face area or organ area changes depending on the size of the detected face or organ, the face area may maintain the ratio and positional relationship between the areas of the face area and the multiple areas. The division is done. More specifically, in the present embodiment, the height and width of the upper left region 702, the upper right region 703, and the lower region 704 are the face region 701 regardless of the relative size (ratio) of the pupil to the detected face. It is a fixed ratio to the size of, and is set as follows. That is, the heights of the upper left region 702, the upper right region 703, and the lower region 704 are the same as each other (length L / 2, that is, half the height of the face region 701). Further, the widths of the upper left region 702 and the upper right region 703 are the same as each other (length L / 2, that is, half the width of the face region 701). The width of the lower region 704 is twice the width of the upper left region 702 and the upper right region 703 (length L). This divides the face area 701 into four equal parts vertically and horizontally, and the upper left part, the upper right part, and the lower two parts are the left pupil, the right pupil, and the touch reaction region corresponding to the face, respectively. It is a thing. By aligning the height of the reaction area between the face and the pupil, the user can select the face and the pupil with the same operation feeling. In addition, by aligning the widths of the reaction areas of the left and right pupils, even if the face faces diagonally and one pupil is detected small, both pupils can be selected with the same operation feeling.

図7(c)は顔と片方の瞳(ここでは左側の瞳)のみが検出されている状態である。このときは、図7(b)における右上のタッチ反応領域である右上領域703は、下半分のタッチ反応領域である下領域704と組み合わせて、顔タッチ反応領域705のように設定する。つまり、検出されていない瞳の領域をユーザーがタッチした場合は、顔が選択されることとなる。 FIG. 7C shows a state in which only the face and one pupil (here, the left pupil) are detected. At this time, the upper right region 703, which is the upper right touch reaction region in FIG. 7B, is set as the face touch reaction region 705 in combination with the lower region 704, which is the lower half touch reaction region. That is, when the user touches an undetected pupil area, the face is selected.

瞳AFにおいては、ピントを合わせたい瞳が検出されていない場合、撮影者または被写体立ち位置、向きを調節して、瞳が検出されるようにするユースケースがあるが、この行為をしている最中に他の被写体が主被写体として検出されてしまう可能性があり煩わしい。そこで本実施形態では、非検出な瞳をタッチした際には顔を追尾する。このような制御により、主被写体から別の被写体への乗り移りを防ぐことが可能となる。これにより撮影者は、狙った瞳が非検出であっても、自身や被写体を動かして所望な瞳へピントを合わせやすくなる。 In pupil AF, there is a use case where the photographer or the subject standing position and orientation are adjusted so that the pupil is detected when the pupil to be focused is not detected. It is annoying because other subjects may be detected as the main subject during the process. Therefore, in the present embodiment, the face is tracked when the non-detected pupil is touched. Such control makes it possible to prevent transfer from the main subject to another subject. This makes it easier for the photographer to move himself or the subject to focus on the desired pupil even if the targeted pupil is not detected.

なお、図7(a)~図7(c)では顔領域701を正方形としたが、検出する被写体に応じて長方形、ひし形、円形、楕円形など別の形にしてもよい。例えば、人間の顔は実際にはひし形や円形に近いため、図7(d)のようなひし形の顔領域701a、図7(e)のような円形の顔領域701bをタッチ反応領域としても良い。図7(d)、図7(e)の場合、左上タッチ反応領域である領域706,709が左側の瞳、右上タッチ反応領域である領域707,710が右側の瞳、下半分タッチ反応領域である領域708,711が顔の選択領域として設定され得る。また、図7(a)~図7(c)で、左上領域702と右上領域703の幅、および左上領域702と右上領域703と下領域704の高さを同じ長さとしているが、どちらか一方だけ実施するものでもよい。例えば、図7(f)に示されるように、左上領域702および右上領域703と、下領域704の上下方向の大きさ(高さ)をLa、Lb(La≠Lb,La+Lb=L)で分割するようにしてもよい。 Although the face area 701 is a square in FIGS. 7 (a) to 7 (c), it may have a different shape such as a rectangle, a rhombus, a circle, or an ellipse depending on the subject to be detected. For example, since the human face is actually close to a rhombus or a circle, the diamond-shaped face region 701a as shown in FIG. 7D and the circular face region 701b as shown in FIG. 7E may be used as the touch reaction region. .. In the case of FIGS. 7 (d) and 7 (e), the upper left touch reaction area 706 and 709 are the left pupil, and the upper right touch reaction area 707 and 710 are the right pupil and the lower half touch reaction region. Certain areas 708,711 may be set as face selection areas. Further, in FIGS. 7 (a) to 7 (c), the width of the upper left region 702 and the upper right region 703, and the heights of the upper left region 702, the upper right region 703, and the lower region 704 are the same length, but either of them has the same length. It may be carried out only on one side. For example, as shown in FIG. 7 (f), the vertical size (height) of the upper left region 702 and the upper right region 703 and the lower region 704 is divided by La and Lb (La ≠ Lb, La + Lb = L). You may try to do it.

なお、表示先が電子ビューファインダー28bであった場合には、タッチアップされた際に、指定位置を示すカーソルが、電子ビューファインダー28bに表示されたLV中の顔のうち、図7で説明したどの領域内の位置であるかを判定する。さらに、S307,S308,S311では、背面表示パネル28aを表示先としている場合にタッチダウン位置(タッチダウンされた際のタッチ位置)に基づいて領域を判定したが、タッチダウン位置には基づかず、タッチアップ位置に基づく判定としても良い。 When the display destination is the electronic viewfinder 28b, the cursor indicating the designated position when touched up is described with reference to FIG. 7 among the faces in the LV displayed on the electronic viewfinder 28b. Determine in which area the position is. Further, in S307, S308, and S311, when the rear display panel 28a is the display destination, the area is determined based on the touchdown position (touch position when touched down), but the area is not based on the touchdown position. The judgment may be based on the touch-up position.

S313(図3Bの(a))において、システム制御部50は、タッチ操作がなされた位置が、後述の解除タッチボタンの位置か否かを判断する。解除タッチボタンの位置でなければ処理はS314へ進み、解除タッチボタンの位置であればS315へ進む。S314において、システム制御部50は、指定位置の被写体を追尾対象としてモノ追尾を実行する。すなわち、LV画像中で指定位置にある被写体の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。S315において、システム制御部50は、追尾状態を解除して、追尾待機状態になる。 In S313 ((a) of FIG. 3B), the system control unit 50 determines whether or not the position where the touch operation is performed is the position of the release touch button described later. If it is not the position of the release touch button, the process proceeds to S314, and if it is the position of the release touch button, the process proceeds to S315. In S314, the system control unit 50 executes mono-tracking with the subject at the designated position as the tracking target. That is, even if the same subject moves in the LV image, it continues to follow and is targeted for AF, subject to the color, contrast, shape, and the like of the subject at the designated position in the LV image. In S315, the system control unit 50 releases the tracking state and enters the tracking standby state.

S316(図3A)において、システム制御部50は、シャッターボタン61が半押しされ第1シャッタースイッチ62がオンとなったか(撮影準備指示がなされたか)否かを判断する。シャッターボタン61が半押しされた場合は、処理はS317(図3Bの(b))へ進み、そうでなければS324へ進む。 In S316 (FIG. 3A), the system control unit 50 determines whether or not the shutter button 61 is half-pressed and the first shutter switch 62 is turned on (whether or not a shooting preparation instruction is given). If the shutter button 61 is pressed halfway, the process proceeds to S317 ((b) in FIG. 3B), otherwise the process proceeds to S324.

S317~S323(図3Bの(b))では、シャッターボタン61の半押しによる撮影準備動作が実行され、シャッターボタン61の全押しの検出に応じて撮影処理が実行される。まず、S317において、システム制御部50は、後述のAF処理を行う。AF処理については図5A~5Bを用いて後述する。S318において、システム制御部50は、測光処理を行う。S319において、システム制御部50は、シャッターボタン61が全押しされ第2シャッタースイッチ64がオンとなったか否かを判断する。シャッターボタン61が全押しされた場合は、処理はS321へ進み、そうでなければS320へ進む。S320において、システム制御部50は、第1シャッタースイッチ62のオン(シャッターボタン61の半押し)が維持されているか否かを判断する。維持されている場合は、処理はS319へ進み、そうでなければS302へ進む。 In S317 to S323 ((b) in FIG. 3B), the shooting preparation operation is executed by half-pressing the shutter button 61, and the shooting process is executed according to the detection of the full-pressing of the shutter button 61. First, in S317, the system control unit 50 performs AF processing described later. The AF process will be described later with reference to FIGS. 5A to 5B. In S318, the system control unit 50 performs photometric processing. In S319, the system control unit 50 determines whether or not the shutter button 61 is fully pressed and the second shutter switch 64 is turned on. If the shutter button 61 is fully pressed, the process proceeds to S321, otherwise the process proceeds to S320. In S320, the system control unit 50 determines whether or not the first shutter switch 62 is kept on (half-pressing the shutter button 61). If it is maintained, the process proceeds to S319, otherwise it proceeds to S302.

S319で第2シャッタースイッチ64がオンである(シャッターボタン61の全押し状態)と判断された場合、S321において、システム制御部50は、撮影処理を行う。これは、ライブビュー撮影のための撮影ではなく、記録媒体に画像ファイルとして画像を記録するための本撮影である。設定された露光条件(シャッター速度、絞り値)で露光を行い、撮像部22から信号読み出しを行い、画像処理を施して記録媒体200に記録するための画像を生成する。S322において、システム制御部50は、S321で撮影した画像を記録媒体200へ記録する。なお、システム制御部50は、これと同時に、S323でLV表示を再開する前に、撮影された画像を確認表示するクイックレビュー(レックレビュー)表示を行っても良い。S323において、システム制御部50は、LV画像の撮像を再開し、表示部28にライブビュー画像表示を行なう。 When it is determined in S319 that the second shutter switch 64 is on (the shutter button 61 is fully pressed), the system control unit 50 performs a shooting process in S321. This is not a shooting for live view shooting, but a main shooting for recording an image as an image file on a recording medium. Exposure is performed under the set exposure conditions (shutter speed, aperture value), a signal is read out from the image pickup unit 22, image processing is performed, and an image for recording on the recording medium 200 is generated. In S322, the system control unit 50 records the image taken in S321 on the recording medium 200. At the same time, the system control unit 50 may perform a quick review (REC review) display for confirming and displaying the captured image before restarting the LV display in S323. In S323, the system control unit 50 restarts the imaging of the LV image and displays the live view image on the display unit 28.

S316(図3A)で、第1シャッタースイッチ62のオン(シャッターボタンの半押し状態)が検出さなかった場合、S324において、システム制御部50は、操作部70に対しその他の操作がなされたか否かを判断する。その他の操作がなされたと判断された場合は、処理はS325へ進み、そうでなければS326へ進む。S325において、システム制御部50は、その他の処理を行なう。例えば操作部70が操作されたことに応じて、シャッタースピードなどの撮影パラメータの変更などの処理を行なう。一方、S326では、システム制御部50は、操作部70に対し終了操作(電源オフ操作や、再生モード等の他の動作モードへの変更操作等)がなされたか否かを判断する。終了操作がなされたと判断された場合は、本処理は終了する。終了操作がなされていないと判断された場合は、処理はS302へ戻り、上述の動作が繰り返される。 If the on (half-pressed state of the shutter button) of the first shutter switch 62 is not detected in S316 (FIG. 3A), in S324, the system control unit 50 determines whether or not another operation has been performed on the operation unit 70. Judge. If it is determined that another operation has been performed, the process proceeds to S325, and if not, the process proceeds to S326. In S325, the system control unit 50 performs other processing. For example, in response to the operation of the operation unit 70, processing such as changing a shooting parameter such as a shutter speed is performed. On the other hand, in S326, the system control unit 50 determines whether or not an end operation (power off operation, change operation to another operation mode such as a reproduction mode, etc.) has been performed on the operation unit 70. If it is determined that the end operation has been performed, this process ends. If it is determined that the end operation has not been performed, the process returns to S302, and the above operation is repeated.

図4A~4Cは、図3A~3Bで説明したS302の枠表示処理の詳細を示すフローチャートである。また図6A~6Cは、本実施形態における画面例を示す模式図である。本実施形態では、被写体が検出された状態であることを示すアイテム(枠)および被写体が追尾されている状態であることを示すアイテム(枠)が、LV画像に重畳して表示される。 4A to 4C are flowcharts showing the details of the frame display process of S302 described with reference to FIGS. 3A to 3B. 6A to 6C are schematic views showing screen examples in this embodiment. In the present embodiment, an item (frame) indicating that the subject is detected and an item (frame) indicating that the subject is being tracked are superimposed and displayed on the LV image.

S401(図4A)において、システム制御部50は、不揮発性メモリ56に記録された設定情報を参照し、瞳AFの設定が入であるか否か(瞳AF入か瞳AF切か)を判断する。瞳AF入であれば処理はS408へ進み、そうでなければ(瞳AF切であれば)S402へ進む。S402において、システム制御部50は、被写体を追尾中か否かを判断する。被写体を追尾中の場合は、処理はS403へ進み、そうではなく追尾待機状態であればS404へ進む。 In S401 (FIG. 4A), the system control unit 50 refers to the setting information recorded in the non-volatile memory 56 and determines whether or not the pupil AF setting is on (whether the pupil AF is on or the pupil AF is off). do. If the pupil AF is on, the process proceeds to S408, otherwise (if the pupil AF is off), the process proceeds to S402. In S402, the system control unit 50 determines whether or not the subject is being tracked. If the subject is being tracked, the process proceeds to S403, and if the subject is in the tracking standby state, the process proceeds to S404.

S404において、システム制御部50は、顔またはモノが検出されているか否かを判断する。顔またはモノが検出されている場合、処理はS405へ進み、そうでない場合はS431へ進む。図6Aの(a)は追尾待機状態で、顔も検出していない場合のLV画像601表示例である。これは、S431へ進む条件を満たしている場合であって、シャッターボタン61が半押しされる前の表示状態に相当する。LV画像601に、撮影情報表示602が重畳して表示されている。LV画像601において、例として被写体603(人物の被写体603a、モノ(自動車)の被写体603b)が図示されているが、図6Aの(a)は仮にこれらが検出されなかった場合の表示例である。実際は壁や空のみといった、人物もモノも検出できない被写体が撮影されている場合にこの表示状態となる。S404で顔またはモノが検出されていると判定された場合、S405において、システム制御部50は、人物の顔が検出されているか否かを判断する。人物の顔が検出されている場合、処理は後述の図4CのS427(図6A(b)に示すような顔検出枠604が表示される)へ進み、そうでなければ後述の図4CのS429(図6B(h)に示すようなモノ検出枠610が表示される)へ進む。 In S404, the system control unit 50 determines whether or not a face or an object has been detected. If a face or an object is detected, the process proceeds to S405, and if not, the process proceeds to S431. FIG. 6A (a) is an example of displaying the LV image 601 in the tracking standby state when the face is not detected. This is a case where the condition for proceeding to S431 is satisfied, and corresponds to the display state before the shutter button 61 is half-pressed. The shooting information display 602 is superimposed and displayed on the LV image 601. In the LV image 601 as an example, the subject 603 (the subject 603a of a person and the subject 603b of a thing (automobile)) is shown, but (a) of FIG. 6A is a display example when these are not detected. .. Actually, this display state occurs when a subject such as a wall or the sky that cannot detect a person or an object is photographed. When it is determined in S404 that a face or an object is detected, in S405, the system control unit 50 determines whether or not the face of a person is detected. If a person's face is detected, the process proceeds to S427 of FIG. 4C described later (a face detection frame 604 as shown in FIG. 6A (b) is displayed), otherwise S429 of FIG. 4C described later. (The object detection frame 610 as shown in FIG. 6B (h) is displayed).

S402(図4A)において被写体を追尾中でないと判断された場合、S403において、システム制御部50は、被写体の顔を追尾中か否かを判断する。顔を追尾中の場合は、処理はS406へ進み、そうでなければS407へ進む。S406において、システム制御部50は、表示部28に顔追尾枠を表示して、処理を図4BのS418(追尾中の顔でコンティニュアスAFを行う)へ進める。図6Aの(c)は、被写体603aの顔を追尾している場合の表示例である。システム制御部50は、人物の顔を囲うように顔追尾枠605を表示し、追尾状態を解除するためのタッチボタンである追尾解除ボタン606を画面端に表示する。一方、図4AのS407では、システム制御部50は、表示部28にモノ追尾枠を表示して、処理を図4BのS420(追尾中のモノでコンティニュアスAFを行う)へ進める。図6Aの(d)はモノを追尾している場合の表示例である。車を囲うように、モノ追尾枠607が表示されている。 When it is determined in S402 (FIG. 4A) that the subject is not being tracked, in S403, the system control unit 50 determines whether or not the face of the subject is being tracked. If the face is being tracked, the process proceeds to S406, otherwise it proceeds to S407. In S406, the system control unit 50 displays the face tracking frame on the display unit 28, and proceeds to process in S418 of FIG. 4B (continuous AF is performed on the face being tracked). FIG. 6A (c) is a display example when the face of the subject 603a is being tracked. The system control unit 50 displays the face tracking frame 605 so as to surround the face of a person, and displays the tracking release button 606, which is a touch button for canceling the tracking state, at the edge of the screen. On the other hand, in S407 of FIG. 4A, the system control unit 50 displays the object tracking frame on the display unit 28, and advances the processing to S420 of FIG. 4B (continuous AF is performed by the object being tracked). FIG. 6A (d) is a display example when tracking an object. A mono tracking frame 607 is displayed so as to surround the car.

S401(図4A)で瞳AF入ではない(瞳AF切)と判断された場合、S408において、システム制御部50は、被写体を追尾中か否かを判断する。被写体を追尾中の場合は、処理はS409(図4B)へ進み、そうでなければS421(図4A)へ進む。S409(図4B)において、システム制御部50は、被写体の瞳を追尾中か否かを判断する。瞳を追尾中の場合は、処理はS410へ進み、そうでなければS413へ進む。 When it is determined in S401 (FIG. 4A) that the pupil AF is not on (pupil AF off), in S408, the system control unit 50 determines whether or not the subject is being tracked. If the subject is being tracked, the process proceeds to S409 (FIG. 4B), otherwise it proceeds to S421 (FIG. 4A). In S409 (FIG. 4B), the system control unit 50 determines whether or not the pupil of the subject is being tracked. If the pupil is being tracked, the process proceeds to S410, otherwise it proceeds to S413.

S410において、システム制御部50は、表示部28に瞳追尾枠を表示する。また瞳が検出されている場合は顔も検出されている。従って、S411において、システム制御部50は、表示部28において、LV画像601上の検出されている顔の位置に顔検出枠を重畳して表示する。図6Bの(e)は瞳を追尾している状態の表示例である。LV画像601において、瞳を囲うように、瞳追尾枠608が表示されている。また瞳が検出されている場合は顔も検出されているため、LV画像601上に顔検出枠604も表示されている。 In S410, the system control unit 50 displays the pupil tracking frame on the display unit 28. If the pupil is detected, the face is also detected. Therefore, in S411, the system control unit 50 superimposes and displays the face detection frame on the position of the detected face on the LV image 601 on the display unit 28. FIG. 6B (e) is a display example of a state in which the pupil is being tracked. In the LV image 601 the pupil tracking frame 608 is displayed so as to surround the pupil. Further, when the pupil is detected, the face is also detected, so that the face detection frame 604 is also displayed on the LV image 601.

S412において、システム制御部50は、追尾中の瞳の位置をコンティニュアスAFの対象位置(AF位置)に設定し、コンティニュアスAFを行う。ここでは、検出されている顔の右目と左目のうち、ユーザーによって追尾対象として指定された側の瞳がコンティニュアスAFの対象となる。すなわち、デジタルカメラ100までの距離が近い方の目か否か、あるいはサイズの大きい方の目であるか否かに関わらず、ユーザーが追尾対象として指定した方の目がAFの対象となる。このように瞳を追尾対象とすることで、よりユーザーの意図通りの瞳をAFの対象とすることができる。ここでのコンティニュアスAFとは、撮影操作がなされていない待機中に、継続的に、被写体の位置に応じて自動的にピントを合わせ続ける機能を指す。 In S412, the system control unit 50 sets the position of the pupil during tracking to the target position (AF position) of continuous AF, and performs continuous AF. Here, of the detected right and left eyes of the face, the pupil on the side designated as the tracking target by the user is the target of continuous AF. That is, regardless of whether the eye is closer to the digital camera 100 or the eye is larger in size, the eye designated by the user as the tracking target is the target of AF. By targeting the pupil in this way, the pupil as intended by the user can be targeted for AF. The continuous AF here refers to a function that continuously and automatically focuses on the subject according to the position of the subject during standby when no shooting operation is performed.

S409で瞳を追尾中ではないと判断された場合、S413において、システム制御部50は、被写体の顔を追尾中か否かを判断する。被写体の顔を追尾中の場合は、処理はS414へ進み、そうでなければS419へ進む。S414では、システム制御部50は、表示部28に顔追尾枠を表示する。図6Aの(c)に示されるように、LV画像601上の追尾中の顔を囲うように顔追尾枠605が表示される。S415において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されている場合は、処理はS416へ進み、そうでなければS418へ進む。 When it is determined in S409 that the pupil is not being tracked, in S413, the system control unit 50 determines whether or not the face of the subject is being tracked. If the subject's face is being tracked, the process proceeds to S414, otherwise it proceeds to S419. In S414, the system control unit 50 displays the face tracking frame on the display unit 28. As shown in FIG. 6A (c), the face tracking frame 605 is displayed so as to surround the tracking face on the LV image 601. In S415, the system control unit 50 determines whether or not the pupil of the subject is detected. If the pupil is detected, the process proceeds to S416, otherwise it proceeds to S418.

S416において、システム制御部50は、顔追尾枠に加えて、表示部28に瞳検出枠を表示する。図6Bの(f)は瞳を検出し、顔を追尾している状態の表示例である。LV画像601において、瞳を囲うように、瞳検出枠609を表示している。また顔が追尾されているため、S414で表示された顔追尾枠605が引き続き表示されている。その後、S417において、システム制御部50は、検出されている瞳の位置をコンティニュアスAFの対象位置に設定し、コンティニュアスAFを行う。このように、瞳追尾中でなくても、顔を追尾しており、瞳も検出されているのであれば、検出されている瞳にAFが行われる。ただし、ここでAF対象となる瞳は、追尾している顔の右目と左目のうち、システム制御部50が自動的に主被写体と判定して選択した瞳となる。システム制御部50は、基本的にはデジタルカメラ100までの距離が近い方の目(至近側の目)、あるいはサイズの大きい方の目を選択してAF対象とする。 In S416, the system control unit 50 displays the pupil detection frame on the display unit 28 in addition to the face tracking frame. FIG. 6B (f) is a display example of a state in which the pupil is detected and the face is tracked. In the LV image 601 the pupil detection frame 609 is displayed so as to surround the pupil. Further, since the face is tracked, the face tracking frame 605 displayed in S414 is still displayed. After that, in S417, the system control unit 50 sets the position of the detected pupil to the target position of the continuous AF, and performs the continuous AF. In this way, even if the pupil is not being tracked, if the face is being tracked and the pupil is also detected, AF is performed on the detected pupil. However, the pupil to be AF here is the pupil selected by the system control unit 50 from the right eye and the left eye of the tracking face, which are automatically determined to be the main subject. Basically, the system control unit 50 selects the eye closer to the digital camera 100 (closest eye) or the eye with the larger size as the AF target.

S415で瞳が検出されていないと判断された場合、S418において、システム制御部50は、追尾中の顔の位置をコンティニュアスAFの対象位置に設定し、コンティニュアスAFを行う。ここでは、瞳が検出されていないため、AFの対象は顔全体、あるいは顔の中央1点といった、瞳の位置に関わらない位置を対象としてAFが行われる。 When it is determined in S415 that the pupil is not detected, in S418, the system control unit 50 sets the position of the face being tracked to the target position of continuous AF, and performs continuous AF. Here, since the pupil is not detected, the AF target is the entire face or one point in the center of the face, which is not related to the position of the pupil.

瞳も顔も追尾中ではないと判断された場合(S409およびS413でNOの場合)、S419では、システム制御部50は、表示部28にモノ追尾枠を表示する。モノ追尾枠の表示例は、前述の図6Aの(d)で示した通りである。S420において、システム制御部50は、追尾中のモノの位置をコンティニュアスAFの対象位置に設定し、コンティニュアスAFを行う。 When it is determined that neither the pupil nor the face is being tracked (NO in S409 and S413), in S419, the system control unit 50 displays the mono tracking frame on the display unit 28. A display example of the mono tracking frame is as shown in FIG. 6A (d) described above. In S420, the system control unit 50 sets the position of the object being tracked to the target position of continuous AF, and performs continuous AF.

S408(図4A)で追尾中の被写体が存在しないと判断された場合、S421において、システム制御部50は、人物の顔、瞳、モノのいずれかの被写体が検出されているか否かを判断する。そのような被写体が検出されていると判断された場合は、処理はS422(図4C)へ進み、そうでなければ(すなわち、顔、人、モノの何れも検出されていない状態であれば)S431(図4A)へ進む。 When it is determined in S408 (FIG. 4A) that the subject being tracked does not exist, in S421, the system control unit 50 determines whether or not any of the human face, pupil, and object is detected. .. If it is determined that such a subject has been detected, the process proceeds to S422 (FIG. 4C), otherwise (that is, if none of the face, person, or object is detected). Proceed to S431 (FIG. 4A).

S422(図4C)において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。被写体の瞳が検出されている場合は、処理はS423へ進み、そうでなければS426へ進む。S423において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されている顔の瞳の位置に瞳検出枠を表示する。また瞳が検出されている場合は顔も検出されているため、S424において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されている顔の位置に顔検出枠を表示する。図6Bの(g)は、S424において顔と瞳を検出している状態における表示例である。顔と瞳をそれぞれ囲うように、顔検出枠604、瞳検出枠609が表示されている。S425において、システム制御部50は、S417と同様に、検出されている瞳の位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。ここでAF対象となる瞳は、追尾している顔の右目と左目のうち、システム制御部50が自動的に主被写体と判定して選択した瞳となる。 In S422 (FIG. 4C), the system control unit 50 determines whether or not the pupil of the subject is detected. If the pupil of the subject is detected, the process proceeds to S423, otherwise the process proceeds to S426. In S423, the system control unit 50 superimposes on the live view displayed on the display unit 28, and displays the pupil detection frame at the position of the pupil of the detected face. If the pupil is detected, the face is also detected. Therefore, in S424, the system control unit 50 superimposes on the live view displayed on the display unit 28 and detects the face at the detected face position. Display the frame. FIG. 6B (g) is a display example in a state where the face and the pupil are detected in S424. A face detection frame 604 and a pupil detection frame 609 are displayed so as to surround the face and the pupil, respectively. In S425, the system control unit 50 sets the detected pupil position to the continuous AF position and performs continuous AF, as in S417. Here, the pupil to be AF is the pupil selected by the system control unit 50 from the right eye and the left eye of the tracking face, which are automatically determined to be the main subject.

S422で瞳が検出されていないと判断された場合、S426において、システム制御部50は、人物の顔を検出しているか否かを判断する。顔を検出していると判断された場合は、処理はS427へ進み、そうでなければS429へ進む。S427において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されている顔の位置に顔検出枠を表示する。図6Aの(b)は、顔検出枠604が表示された状態を示している。S428において、システム制御部50は、検出されている顔の位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。 When it is determined in S422 that the pupil is not detected, in S426, the system control unit 50 determines whether or not the face of the person is detected. If it is determined that the face is detected, the process proceeds to S427, and if not, the process proceeds to S429. In S427, the system control unit 50 superimposes on the live view displayed on the display unit 28 and displays the face detection frame at the position of the detected face. FIG. 6A (b) shows a state in which the face detection frame 604 is displayed. In S428, the system control unit 50 sets the detected face position to the continuous AF position and performs continuous AF.

検出中の被写体が瞳でも顔でもない場合(S422、S426でNO)、S429において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されているモノの位置にモノ検出枠を表示する。図6Bの(h)はモノを検出している状態を示す図である。車(被写体603b)を囲うように、モノ検出枠610が表示されている。S430において、システム制御部50は、検出されているモノの位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。 When the subject being detected is neither a pupil nor a face (NO in S422 and S426), in S429, the system control unit 50 superimposes on the live view displayed on the display unit 28 to the position of the detected object. Display the object detection frame. FIG. 6B (h) is a diagram showing a state in which an object is detected. The object detection frame 610 is displayed so as to surround the car (subject 603b). In S430, the system control unit 50 sets the position of the detected object to the continuous AF position and performs continuous AF.

瞳AFの入/切の状態に関わらず、被写体を追尾中でも検出中でもない場合(S404でNOまたはS421でNO)、S431において、システム制御部50は、その他の位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。 When the subject is not being tracked or detected (NO in S404 or NO in S421) regardless of the on / off state of the pupil AF, the system control unit 50 sets other positions to the continuous AF position in S431. Then, perform continuous AF.

なお、検出された被写体を示すアイテム(被写体が検出状態であることを示すアイテム)である顔検出枠604、瞳検出枠609、モノ検出枠610には、検出された範囲を示す一重の枠が用いられている。このように、検出された状態であることを示すアイテムには、被写体に関わらず同一の表現が用いられる。また、追尾対象に指定された状態であることを示すアイテムである顔追尾枠605、モノ追尾枠607、瞳追尾枠608には、追尾対象の被写体の範囲を示す二重の枠が用いられている。このように、追尾対象に指定された状態であることを示すアイテムには、被写体に関わらず同一の表現が用いられるが、検出された状態を示すアイテムとは異なる表現となっている。なお、検出状態および追尾状態を示すアイテムの表示形態は、上記例(一重枠と二重枠)に限られるものではない。 The face detection frame 604, the pupil detection frame 609, and the mono detection frame 610, which are items indicating the detected subject (items indicating that the subject is in the detection state), have a single frame indicating the detected range. It is used. In this way, the same expression is used for the item indicating that the item is in the detected state, regardless of the subject. Further, in the face tracking frame 605, the mono tracking frame 607, and the pupil tracking frame 608, which are items indicating that the state is designated as the tracking target, a double frame indicating the range of the subject to be tracked is used. There is. As described above, the same expression is used for the item indicating the state designated as the tracking target regardless of the subject, but the expression is different from the item indicating the detected state. The display form of the item indicating the detection state and the tracking state is not limited to the above example (single frame and double frame).

図5A~5Bは、本実施形態によるデジタルカメラ100のAF処理に関するフローチャートである。 5A to 5B are flowcharts relating to AF processing of the digital camera 100 according to the present embodiment.

S501(図5A)において、システム制御部50は、不揮発性メモリ56に記録された設定情報を参照し、瞳AFの設定が入であるか否かを判断する。瞳AF入であればS513(図5B)へ進み、そうでなければS502(図5A)へ進む。S502~S512(図5A)の処理は、瞳AF切におけるAF処理である。また、S513~S526(図5B)の処理は、瞳AF入におけるAF処理である。 In S501 (FIG. 5A), the system control unit 50 refers to the setting information recorded in the non-volatile memory 56 and determines whether or not the pupil AF setting is on. If the pupil AF is on, the process proceeds to S513 (FIG. 5B), otherwise the process proceeds to S502 (FIG. 5A). The processing of S502 to S512 (FIG. 5A) is the AF processing in the pupil AF off. Further, the processing of S513 to S526 (FIG. 5B) is the AF processing in the pupil AF input.

S502(図5A)において、システム制御部50は、被写体の顔を追尾中か否かを判断する。顔を追尾中の場合はS503へ進み、そうでなければS507へ進む。S503において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されている場合はS504へ進み、そうでなければS505へ進む。S504において、システム制御部50は、検出されている瞳の位置をAF位置に設定し、AFを行う。ここでAF対象となる瞳は、追尾している顔の右目と左目のうち、システム制御部50が自動的に主被写体と判定して選択した瞳となる。一方、S505では、システム制御部50は、追尾中の顔の位置をAF位置に設定し、AFを行う。 In S502 (FIG. 5A), the system control unit 50 determines whether or not the face of the subject is being tracked. If the face is being tracked, proceed to S503, otherwise proceed to S507. In S503, the system control unit 50 determines whether or not the pupil of the subject is detected. If the pupil is detected, the process proceeds to S504, otherwise the process proceeds to S505. In S504, the system control unit 50 sets the detected pupil position to the AF position and performs AF. Here, the pupil to be AF is the pupil selected by the system control unit 50 from the right eye and the left eye of the tracking face, which are automatically determined to be the main subject. On the other hand, in S505, the system control unit 50 sets the position of the face being tracked to the AF position and performs AF.

S506において、システム制御部50は、表示部28に、S504でAFを行った瞳の位置、または、S505でAFを行った顔の位置に、AF結果枠を表示する。シャッターボタン61の半押しに応じたAFが実行されると、検出された状態であることを示すアイテム(顔、瞳、モノ検出枠)および指定された状態であることを示すアイテム(顔、瞳、モノ追尾枠)は非表示とされ、AF結果枠が表示される。例えば、図6Bの(f)の状態から、AFが完了すると、追尾枠、検出枠は非表示となり、図6Cの(j)のようにAF結果枠が表示される。図6Cの(j)はLV画像601の顔の位置に顔AF結果枠612を表示した場合の表示例である。顔を囲うように、顔AF結果枠612を表示している。なお、S504を経てS506へ到達した場合においても、瞳AF結果枠ではなく顔AF結果枠612を表示している。これは、ユーザーが瞳AFの設定を切にしているために、ユーザーとしては被写体の顔全体でAFをすることを期待していると想定されるためである。 In S506, the system control unit 50 displays the AF result frame on the display unit 28 at the position of the pupil subjected to AF in S504 or the position of the face subjected to AF in S505. When AF is executed in response to the half-pressing of the shutter button 61, an item indicating that the shutter button 61 is in the detected state (face, pupil, object detection frame) and an item indicating that the shutter button 61 is in the specified state (face, pupil). , Mono tracking frame) is hidden and the AF result frame is displayed. For example, when AF is completed from the state of (f) in FIG. 6B, the tracking frame and the detection frame are hidden, and the AF result frame is displayed as shown in (j) of FIG. 6C. FIG. 6C (j) is a display example when the face AF result frame 612 is displayed at the position of the face in the LV image 601. The face AF result frame 612 is displayed so as to surround the face. Even when the S506 is reached via S504, the face AF result frame 612 is displayed instead of the pupil AF result frame. This is because it is assumed that the user expects the entire face of the subject to perform AF because the user has turned off the pupil AF setting.

仮にここで顔ではなく瞳に対してAF結果枠を表示すると、ユーザーは、瞳AFの設定を切にしているにも関わらず、その設定が反映されなかったために瞳AFが行われてしまったと誤認する可能性がある。あるいは、ユーザーは顔にAF結果枠が表示されると想定していたのに瞳にAF結果枠が表示されることで違和感を持つ可能性がある。このような誤認や違和感が生じると、ユーザーは、期待通り顔にAF結果枠が表示されるまで、シャッターボタン61の半押し状態を解除して再度シャッターボタン61を半押ししてAFを行う(再AFを行う)ことを繰り返してしまう可能性もある。その場合、ユーザーはシャッターチャンスを逃してしまうこともある。このような事態を未然に防止し、ユーザーの想定に合わせるために、本実施形態ではS504を経てS506へ到達した場合も、瞳ではなく顔を囲うようにAF結果枠を表示する。これによって、ユーザーにとって違和感の無いAF結果の通知を実現でき、その後の撮影動作をスムーズに行うことが可能となる。 If the AF result frame is displayed for the pupil instead of the face here, the user says that the pupil AF was performed because the setting was not reflected even though the pupil AF setting was turned off. There is a possibility of misunderstanding. Alternatively, the user may feel uncomfortable because the AF result frame is displayed on the pupil even though the user expected the AF result frame to be displayed on the face. When such a misunderstanding or discomfort occurs, the user releases the half-pressed state of the shutter button 61 and presses the shutter button 61 halfway again until the AF result frame is displayed on the face as expected (the user performs AF). (Re-AF) may be repeated. In that case, the user may miss a photo opportunity. In order to prevent such a situation and to meet the user's assumption, in the present embodiment, even when the S506 is reached via S504, the AF result frame is displayed so as to surround the face instead of the pupil. As a result, it is possible to realize the notification of the AF result that is not uncomfortable for the user, and it is possible to smoothly perform the subsequent shooting operation.

S502で顔を追尾中ではないと判断された場合、S507において、システム制御部50は、モノを追尾中か否かを判断する。モノを追尾中と判断された場合は、処理はS511へ進み、そうでなければS508へ進む。S508では、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されていると判断された場合は、処理は上述のS504(自動選択した瞳でAFを行う)へ進み、そうでなければS509へ進む。S509において、システム制御部50は、被写体の顔が検出されているか否かを判断する。被写体の顔が検出されている場合は、処理は上述のS505(追尾中の顔でAF)へ進み、そうでなければS510へ進む。 When it is determined in S502 that the face is not being tracked, in S507, the system control unit 50 determines whether or not the object is being tracked. If it is determined that the object is being tracked, the process proceeds to S511, otherwise it proceeds to S508. In S508, the system control unit 50 determines whether or not the pupil of the subject is detected. If it is determined that the pupil has been detected, the process proceeds to S504 (performing AF with the automatically selected pupil) described above, and if not, the process proceeds to S509. In S509, the system control unit 50 determines whether or not the face of the subject is detected. If the face of the subject is detected, the process proceeds to S505 (AF for the face being tracked) described above, and if not, the process proceeds to S510.

S510において、システム制御部50は、その他の位置(顔、瞳、モノのいずれも検出されていないので、顔、瞳、モノの何れでも無い、システム制御部50が主被写体として自動的に決定した位置)をAF位置に設定し、AFを行う。モノを追尾中である場合(S507でYES)は、S511において、システム制御部50は、追尾中のモノの位置をAF位置に設定し、AFを行う。S512において、システム制御部50は、表示部28に、AF位置として設定されたモノまたはその他の位置に対してAF結果枠を表示する。図6Cの(l)は、処理がS510を経てS512へ到達した場合の、その他の位置でのAF結果枠を表示した場合の表示例である。LV画像601の全面の中でカメラが自動的に検出した位置に対して、多点AF結果枠614を表示している。また図6Cの(k)は、処理がS511を経てS512へ到達した場合の、追尾中のモノ位置に対してAF結果枠を表示した場合の表示例である。モノ(被写体603b)を囲うように、モノAF結果枠613を表示している。 In S510, the system control unit 50 automatically determines the other positions (because none of the face, pupil, or object is detected, the system control unit 50, which is neither face, pupil, or object) as the main subject. Position) is set to the AF position, and AF is performed. When the object is being tracked (YES in S507), in S511, the system control unit 50 sets the position of the object being tracked to the AF position and performs AF. In S512, the system control unit 50 displays the AF result frame on the display unit 28 for the object or other position set as the AF position. FIG. 6C (l) is a display example when the AF result frame at another position is displayed when the process reaches S512 via S510. The multi-point AF result frame 614 is displayed for the position automatically detected by the camera on the entire surface of the LV image 601. Further, FIG. 6C (k) is a display example when the AF result frame is displayed for the mono position being tracked when the process reaches S512 via S511. The mono AF result frame 613 is displayed so as to surround the object (subject 603b).

次に、瞳AF入の場合(S501でYES)のAF動作について説明する。まず、S513(図5B)において、システム制御部50は、被写体の瞳を追尾中か否かを判断する。瞳を追尾中と判断された場合は、処理はS514へ進み、そうでなければS516へ進む。S514において、システム制御部50は、追尾中の瞳の位置をAF位置に設定し、AFを行う。そしてS515において、システム制御部50は、表示部28に、AF位置として設定された被写体の瞳(追尾中の瞳)に対してAF結果枠を表示する。図6Cの(i)は瞳にAF結果枠を表示している状態を示す図である。瞳を囲うように、瞳AF結果枠611を表示している。 Next, the AF operation when the pupil AF is on (YES in S501) will be described. First, in S513 (FIG. 5B), the system control unit 50 determines whether or not the pupil of the subject is being tracked. If it is determined that the pupil is being tracked, the process proceeds to S514, otherwise it proceeds to S516. In S514, the system control unit 50 sets the position of the pupil during tracking to the AF position and performs AF. Then, in S515, the system control unit 50 displays the AF result frame on the display unit 28 with respect to the pupil (the pupil being tracked) of the subject set as the AF position. FIG. 6C (i) is a diagram showing a state in which the AF result frame is displayed in the pupil. The pupil AF result frame 611 is displayed so as to surround the pupil.

S513で瞳を追尾中ではないと判断された場合、S516において、システム制御部50は、人物の顔を追尾中か否かを判断する。顔を追尾中であると判断された場合は、処理はS517へ進み、そうでなければS521へ進む。S517において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されていると判断された場合は、処理はS518へ進み、そうでなければS519へ進む。S518において、システム制御部50は、検出されている瞳の位置をAF位置に設定し、AFを行う。続いてS515へ進み、AFを行った位置に瞳AF結果枠を表示する。S518を経てS515へ到達した場合(瞳追尾中ではない場合)においても、瞳AF結果枠を表示しているのは、ユーザーが瞳AFの設定を入にしているために、ユーザーとしては被写体の瞳でAFをすることを期待していると予想されるためである。顔ではなく瞳を囲うようにAF結果枠を表示することで、ユーザーにとって違和感の無いAF結果の通知を実現でき、その後の撮影動作をスムーズに行うことが可能となる。 When it is determined in S513 that the pupil is not being tracked, in S516, the system control unit 50 determines whether or not the face of the person is being tracked. If it is determined that the face is being tracked, the process proceeds to S517, and if not, the process proceeds to S521. In S517, the system control unit 50 determines whether or not the pupil of the subject is detected. If it is determined that the pupil has been detected, the process proceeds to S518, and if not, the process proceeds to S519. In S518, the system control unit 50 sets the detected pupil position to the AF position and performs AF. Subsequently, the process proceeds to S515, and the pupil AF result frame is displayed at the position where AF is performed. Even when reaching S515 via S518 (when not in pupil tracking), the pupil AF result frame is displayed because the user has set the pupil AF setting, so the user can see the subject. This is because it is expected that AF will be performed with the eyes. By displaying the AF result frame so as to surround the eyes instead of the face, it is possible to realize the notification of the AF result that is not uncomfortable for the user, and it is possible to smoothly perform the subsequent shooting operation.

被写体の顔を追尾中であるが瞳が検出されていない場合(S517でNO)、S519において、システム制御部50は、追尾中の顔の位置をAF位置に設定し、AFを行う。そして、S520において、システム制御部50は、表示部28に、AF位置として設定された被写体の顔(追尾中の顔)に対してAF結果枠を表示する。 When the face of the subject is being tracked but the pupil is not detected (NO in S517), in S519, the system control unit 50 sets the position of the face being tracked to the AF position and performs AF. Then, in S520, the system control unit 50 displays the AF result frame on the display unit 28 with respect to the face of the subject (the face being tracked) set as the AF position.

S513、S516により瞳も顔も追尾中でないと判断された場合、S521において、システム制御部50は、モノを追尾中か否かを判断する。モノを追尾中の場合はS525へ進み、そうでなければS522へ進む。S522において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されていると判断された場合は、処理は上述のS518へ進み、そうでなければS523へ進む。S523において、システム制御部50は、被写体の顔が検出されているか否かを判断する。顔が検出されていると判断された場合は、処理は上述のS519へ進み、そうでなければS524へ進む。 When it is determined by S513 and S516 that neither the pupil nor the face is being tracked, in S521, the system control unit 50 determines whether or not the object is being tracked. If the object is being tracked, proceed to S525, otherwise proceed to S522. In S522, the system control unit 50 determines whether or not the pupil of the subject is detected. If it is determined that the pupil has been detected, the process proceeds to S518 described above, and if not, the process proceeds to S523. In S523, the system control unit 50 determines whether or not the face of the subject is detected. If it is determined that the face has been detected, the process proceeds to S519 described above, and if not, the process proceeds to S524.

S524において、システム制御部50は、S510と同様に、その他の位置をAF位置に設定する。一方、S521でモノを追尾中であると判断された場合、S525において、システム制御部50は、上述のS511と同様に、追尾中のモノの位置をAF位置に設定する。そして、S526において、システム制御部50は、上述のS512と同様に、表示部28に、AF位置として設定されたモノまたはその他の位置に対してAF結果枠を表示する。 In S524, the system control unit 50 sets other positions to the AF position as in S510. On the other hand, when it is determined in S521 that the object is being tracked, in S525, the system control unit 50 sets the position of the object being tracked to the AF position in the same manner as in S511 described above. Then, in S526, the system control unit 50 displays the AF result frame on the display unit 28 for the object or other position set as the AF position, similarly to the above-mentioned S512.

なお、上述のS506,S512,S515,S520,S526で表示される各種AF結果枠は、AFを行った結果、合焦出来た場合と合焦出来なかった場合とで異なる表示形態で表示される。例えば、合焦した場合は緑色でAF結果枠を表示し、合焦できずに非合焦となった場合はグレーでAF結果枠を表示する。さらに、各種AF結果枠の表示と共に、AF結果通知音を発音させてもよい。この場合も、AFを行った結果として合焦出来た場合と合焦出来なかった場合とで異なる音で通知するものとする。例えば、合焦した場合は「ピピッ」と発音し、合焦できずに非合焦となった場合は「ピッ」と発音する。 It should be noted that the various AF result frames displayed in S506, S512, S515, S520, and S526 described above are displayed in different display formats depending on whether the focus is achieved or not as a result of AF. .. For example, the AF result frame is displayed in green when it is in focus, and the AF result frame is displayed in gray when it is out of focus because it cannot be focused. Further, the AF result notification sound may be sounded together with the display of various AF result frames. In this case as well, the notification shall be made with different sounds depending on whether the focus is achieved or not as a result of AF. For example, when it is in focus, it is pronounced as "pip", and when it cannot be focused and is out of focus, it is pronounced as "pip".

以上説明した上記実施形態によれば、瞳AFにおいて、顔領域を上下に等分し、上半分を瞳/下半分を顔選択領域とすることで、顔/瞳両方の選択を行いやすくし、利便性の高い撮像装置が提供される。また、瞳AFの入切設定に応じて適切なAF結果枠表示を行うことができ、ユーザーに対し違和感を抱かせないようにし、集中して撮影に臨んでもらうことが可能となる。 According to the above-described embodiment, in the pupil AF, the face region is divided into upper and lower equal parts, and the upper half is the pupil / lower half as the face selection region, so that both the face and the pupil can be easily selected. A highly convenient image pickup device is provided. In addition, it is possible to display an appropriate AF result frame according to the on / off setting of the pupil AF, so that the user does not feel uncomfortable and it is possible to concentrate on shooting.

なお、上記実施形態では、顔、瞳、モノの検出枠・追尾枠は、それぞれ同じ形状としたがこれに限られるものではなく、被写体の種類に応じて異なる形状の枠を表示するようにしてもよい。同じ形状の枠を用いた場合、顔、瞳、モノの全てを互いに等価な対象として選択するUIとなり、ユーザーにとっては被写体を気軽に切替えて撮影を楽しむことが可能となる。また、被写体の種類に応じて異なる形状の枠を用いる場合、どの対象が検出・追尾されているのかが明確に分かりやすくなる。もちろん、さらに瞳の左右で互いに異なる形状の枠を用いるようにしても良い。 In the above embodiment, the face, pupil, and object detection frame / tracking frame have the same shape, but the shape is not limited to this, and frames having different shapes are displayed depending on the type of subject. May be good. When a frame with the same shape is used, the UI selects all of the face, eyes, and objects as equivalent objects, and the user can easily switch the subject and enjoy shooting. Further, when frames having different shapes depending on the type of subject are used, it becomes easy to clearly understand which target is detected / tracked. Of course, frames having different shapes may be used on the left and right sides of the pupil.

なお、ここまで電子ビューファインダーを例に説明したが、光学ファインダーでもよい。また、ここまで述べた枠表現は、状況に応じて大きさが可変であってもよく、また一枠で構成されていなくてもよい。例えば光学ファインダーなど、予め表示部上に複数のAF点が表示されている場合には、タッチ位置を示す際にはタッチした指の位置および面積に応じて、複数のAF点の色を変更するなどして、タッチ位置を示すようにしても良い。 Although the electronic viewfinder has been described as an example so far, an optical viewfinder may also be used. Further, the frame representation described so far may be variable in size depending on the situation, and may not be composed of one frame. For example, when a plurality of AF points are displayed on the display unit in advance, such as in an optical viewfinder, when indicating the touch position, the colors of the plurality of AF points are changed according to the position and area of the touched finger. The touch position may be indicated by such means.

なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 It should be noted that the above-mentioned various controls described as those performed by the system control unit 50 may be performed by one hardware, or a plurality of hardware (for example, a plurality of processors and circuits) share the processing to be a device. The whole control may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiment thereof, the present invention is not limited to these specific embodiments, and various embodiments within the range not deviating from the gist of the present invention are also included in the present invention. included. Further, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be appropriately combined.

また、上述した実施形態においては、本発明を撮像装置に適用した場合を例にして説明したが、これはこの例に限定されるものではない。例えば、追尾枠や検出枠の表示に関しては、撮影された画像を表示する機能と画像上の位置を指定する機能を有した電子機器であれば適用可能である。例えば、撮影済みの画像を再生して顔、目、口、鼻を検出し、赤目補正する目を選ぶのか、別の理由で顔を選ぶのか(例えば人物名を入力する)といった際のタッチ操作に適用可能である。他にも、顔または器官を選択して行う処理としては次のようなものがある。顔全体または目を選択してモザイクまたはマスクをかける、目を選択して瞳の強調処理(大きくするなど)を行う、鼻を選択して大きく強調する画像処理を施す、顔全体または頬などを選択して美肌効果の画像処理を施す。口を選択して唇の赤みを強調する、光沢を付けるなどの画像処理を掛ける。これらのような場合の顔の器官の選択方法として、LV画像の変わりに、記録済み画像を対象として上述の処理を適用可能である。また、AF枠の表示に関しても、撮像機能がある各種電子機器に適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、シール印刷システムなどに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the image pickup apparatus has been described as an example, but the present invention is not limited to this example. For example, the display of the tracking frame and the detection frame can be applied to any electronic device having a function of displaying a captured image and a function of designating a position on the image. For example, a touch operation when playing back a captured image to detect the face, eyes, mouth, and nose and selecting the eyes for red-eye correction, or for another reason (for example, entering a person's name). Applicable to. Other processes for selecting a face or organ include the following. Select the entire face or eyes to apply a mosaic or mask, select the eyes to enhance the eyes (such as enlarging), select the nose to enhance the image, select the entire face or cheeks, etc. Select and apply image processing for skin-beautifying effect. Select the mouth and apply image processing such as emphasizing the redness of the lips and adding gloss. As a method for selecting facial organs in such cases, the above-mentioned processing can be applied to a recorded image instead of the LV image. Further, the display of the AF frame can also be applied to various electronic devices having an image pickup function. That is, the present invention can be applied to a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a printer device equipped with a display, a digital photo frame, a music player, a game machine, an electronic book reader, a sticker printing system, and the like. ..

また、上記実施形態ではタッチパネルへのタッチ操作により表示画面上の領域を指定したがこれに限られるものではなく、例えば、マウスによるマウスポインタの操作により画面上の領域(顔領域や瞳領域)を指定するようにしてもよい。また、上記実施形態では、追尾対象の器官として瞳を例示したが、これに限られるものではなく、例えば、鼻、口などの他の器官を追尾対象(AF対象)として指定可能としてもよい。例えば、口を追尾対象(AF対象)とする場合、顔領域を上下方向に半分に分け、下領域を口、上領域を顔というように関連づければよい。 Further, in the above embodiment, the area on the display screen is specified by the touch operation on the touch panel, but the present invention is not limited to this. For example, the area on the screen (face area or pupil area) is specified by operating the mouse pointer with the mouse. You may specify it. Further, in the above embodiment, the pupil is exemplified as the organ to be tracked, but the present invention is not limited to this, and for example, other organs such as the nose and mouth may be designated as the tracking target (AF target). For example, when the mouth is the tracking target (AF target), the face region may be divided in half in the vertical direction, the lower region may be associated with the mouth, and the upper region may be associated with the face.

また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。その場合、そのような制御装置は撮像装置のAF機構を制御するAF制御を実行することになる。すなわち、図5A、図5Bにより上述したAF処理は、撮像装置などの外部装置が有するAF機構を制御するためのAF制御であってもよい。 Further, the present invention can be applied not only to the image pickup device main body but also to a control device that communicates with an image pickup device (including a network camera) via wired or wireless communication and remotely controls the image pickup device. As a device for remotely controlling the image pickup device, for example, there is a device such as a smartphone, a tablet PC, or a desktop PC. The image pickup device can be controlled remotely by notifying the image pickup device of commands to perform various operations and settings from the control device side based on the operations performed on the control device side and the processing performed on the control device side. be. Further, the live view image taken by the image pickup device may be received via wired or wireless communication and displayed on the control device side. Further, the live view image taken by the image pickup device may be received via wired or wireless communication and displayed on the control device side. In that case, such a control device will execute AF control for controlling the AF mechanism of the image pickup device. That is, the AF process described above with reference to FIGS. 5A and 5B may be AF control for controlling the AF mechanism of an external device such as an image pickup device.

(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

28:表示パネル、28a背面表示パネル、28b:電子ビューファインダー、50:システム制御部、70:操作部、70a:タッチパネル、100:デジタルカメラ、200:記録媒体 28: Display panel, 28a rear display panel, 28b: Electronic viewfinder, 50: System control unit, 70: Operation unit, 70a: Touch panel, 100: Digital camera, 200: Recording medium

Claims (15)

画像内から被写体の顔と顔の器官を検出する検出手段と、
ユーザー指示に応じて、画像内の領域を指定する指定手段と、
前記指定手段により指定された領域に対応するAF対象についてAFを行うように制御するAF制御手段と、
検出された画像内の被写体の顔に対応する領域を一部領域、検出された顔の器官が含まれる領域を特定領域とし、前記一部領域もしくは前記一部領域に含まれる前記特定領域のうち前記指定手段により指定された領域に応じて、前記被写体の顔と前記器官のいずれかをAF対象として指定できる第1の動作モードを含む複数の動作モードのうち、いずれかを設定する設定手段と、
AF対象の表示を前記画像に重畳して表示部に表示させる表示制御手段と、を備え、
前記第1の動作モードが設定されている場合、前記AF制御手段は、前記指定手段により前記一部領域が指定されていても前記一部領域に対応する顔に含まれる器官が前記検出手段により検出された場合には該検出された器官をAF対象として用い、前記表示制御手段は、AF対象の表示を前記検出された器官に対して行うこと、を特徴とする電子機器。
A detection means that detects the subject's face and facial organs from within the image,
A designated means for designating an area in an image according to user instructions,
AF control means that controls AF target corresponding to the area designated by the designated means so as to perform AF, and
The region corresponding to the face of the subject in the detected image is defined as a partial region, the region including the detected facial organs is defined as a specific region, and the partial region or the specific region included in the partial region is included. A setting means for setting one of a plurality of operation modes including a first operation mode in which either the face of the subject or the organ can be designated as an AF target according to the area designated by the designating means. ,
A display control means for superimposing the display of the AF target on the image and displaying it on the display unit is provided.
When the first operation mode is set, in the AF control means, even if the partial area is designated by the designated means, the organ included in the face corresponding to the partial area is detected by the detection means. An electronic device characterized in that, when detected, the detected organ is used as an AF target, and the display control means displays the AF target on the detected organ.
前記被写体の顔をAF対象として指定する第2の動作モードが設定されている場合、前記指定手段により前記一部領域もしくは前記特定領域のいずれが指定されたとしても、前記AF制御手段は、前記検出手段により前記指定手段により指定された前記被写体の顔についての器官が検出された場合には該検出された器官をAF対象として用い、前記表示制御手段は、AF対象の表示を指定された前記被写体の顔に対して行うことを特徴とする請求項1に記載の電子機器。 When the second operation mode for designating the face of the subject as the AF target is set, the AF control means is the AF control means regardless of whether the designated means designates the partial area or the specific area. When an organ about the face of the subject designated by the designated means is detected by the detecting means, the detected organ is used as an AF target, and the display control means is designated to display the AF target. The electronic device according to claim 1, wherein the operation is performed on the face of a subject. 前記検出手段は、前記器官として瞳を検出することを特徴とする請求項1または2に記載の電子機器。 The electronic device according to claim 1 or 2, wherein the detection means detects the pupil as the organ. 前記検出手段は、被写体の右側の瞳と左側の瞳を区別して検出することが可能であり、前記指定手段は、前記第1の動作モードにおいて、被写体の右側の瞳に対応する第1の特定領域への指示が行われた場合は被写体の右側の瞳を、被写体の左側の瞳に対応する第2の特定領域への指示が行われた場合は被写体の左側の瞳を、区別して指定することが可能であることを特徴とする請求項3に記載の電子機器。 The detection means can detect the right pupil and the left pupil of the subject separately, and the designation means has the first identification corresponding to the right pupil of the subject in the first operation mode. When an instruction is given to an area, the right pupil of the subject is specified, and when an instruction is given to a second specific area corresponding to the left pupil of the subject, the left pupil of the subject is specified separately. The electronic device according to claim 3, characterized in that it is possible. 前記表示制御手段は、前記表示部に、前記検出手段により検出された状態であることを示すアイテムを前記画像の検出された顔または器官に対して表示させることを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。 Claims 1 to 4, wherein the display control means causes the display unit to display an item indicating that the state is detected by the detection means on the detected face or organ of the image. The electronic device according to any one of the above. 前記検出された状態であることを示すアイテムは、顔または器官について同一の表現であることを特徴とする請求項5に記載の電子機器。 The electronic device according to claim 5, wherein the item indicating the detected state has the same expression for a face or an organ. 前記表示制御手段は、前記表示部に、前記指定手段により指定された状態であることを示すアイテムを前記画像の指定された顔または器官に対して表示させることを特徴とする請求項5または6に記載の電子機器。 5. Electronic devices listed in. 前記指定された状態であることを示すアイテムは、顔または器官について同一の表現であり、
前記検出された状態であることを示すアイテムと前記指定された状態であることを示すアイテムの表現は異なることを特徴とする請求項7に記載の電子機器。
The item indicating the specified state is the same expression for the face or organ, and is
The electronic device according to claim 7, wherein the expression of the item indicating that the detected state and the item indicating the specified state are different.
前記AF対象の表現は、前記検出された状態であることを示すアイテムおよび前記指定された状態であることを示すアイテムとは異なる表現であることを特徴とする請求項7または8に記載の電子機器。 The electronic according to claim 7 or 8, wherein the expression of the AF target is a different expression from the item indicating the detected state and the item indicating the specified state. machine. 前記表示制御手段は、前記AF制御手段の制御によりAFが実行されると、前記検出された状態であることを示すアイテムおよび前記指定された状態であることを示すアイテムを非表示とすることを特徴とする請求項7乃至9のいずれか1項に記載の電子機器。 When AF is executed by the control of the AF control means, the display control means hides the item indicating the detected state and the item indicating the specified state. The electronic device according to any one of claims 7 to 9, wherein the electronic device is characterized. 前記指定手段はタッチパネルを含み、前記タッチパネルにより検出されたタッチ操作によって示される指定位置に基づいて、前記一部領域または前記特定領域を指定することを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。 One of claims 1 to 10, wherein the designating means includes a touch panel and designates the partial area or the specific area based on the designated position indicated by the touch operation detected by the touch panel. The electronic device described in the section. 前記表示部は第一の表示部と、前記第一の表示部とは異なる第二の表示部を有し、
前記指定手段は、前記第一の表示部へ前記画像を表示している間は、第一のタッチ操作によって前記第一の表示部の表示画面上における指定位置を決定し、
前記第二の表示部へ画像を表示している間は、前記第一のタッチ操作とは異なる第二のタッチ操作によって前記第二の表示部の表示画面上における指定位置を決定することを特徴とする請求項11に記載の電子機器。
The display unit has a first display unit and a second display unit different from the first display unit.
While the image is displayed on the first display unit, the designating means determines a designated position on the display screen of the first display unit by a first touch operation.
While the image is displayed on the second display unit, the designated position on the display screen of the second display unit is determined by a second touch operation different from the first touch operation. The electronic device according to claim 11.
画像内から被写体の顔と顔の器官を検出する検出ステップと、
ユーザー指示に応じて、画像内の領域を指定する指定ステップと、
前記指定ステップにより指定された領域に対応するAF対象についてAFを行うように制御するAF制御ステップと、
検出された画像内の被写体の顔に対応する領域を一部領域、検出された顔の器官が含まれる領域を特定領域とし、前記一部領域もしくは前記一部領域に含まれる前記特定領域のうち前記指定ステップにより指定された領域に応じて、前記被写体の顔と前記器官のいずれかをAF対象として指定できる第1の動作モードを含む複数の動作モードのうち、いずれかを設定する設定ステップと、
AF対象の表示を前記画像に重畳して表示部に表示させる表示制御ステップと、を備え、
前記第1の動作モードが設定されている場合、前記AF制御ステップは、前記指定ステップにより前記一部領域が指定されていても前記一部領域に対応する顔に含まれる器官が前記検出ステップにより検出された場合には該検出された器官をAF対象として用い、前記表示制御ステップは、AF対象の表示を前記検出された器官に対して行うこと、を特徴とする電子機器。
A detection step that detects the subject's face and facial organs from within the image,
A specification step that specifies an area in the image according to user instructions,
An AF control step that controls AF targets corresponding to the area designated by the designated step, and an AF control step that controls AF.
The region corresponding to the face of the subject in the detected image is defined as a partial region, the region including the detected facial organs is defined as a specific region, and the partial region or the specific region included in the partial region is included. A setting step for setting one of a plurality of operation modes including a first operation mode in which either the face of the subject or the organ can be designated as an AF target according to the area designated by the designation step. ,
A display control step for superimposing the display of the AF target on the image and displaying it on the display unit is provided.
When the first operation mode is set, in the AF control step, even if the partial area is designated by the designated step, the organ included in the face corresponding to the partial area is detected by the detection step. An electronic device characterized in that, when detected, the detected organ is used as an AF target, and the display control step displays the AF target on the detected organ.
コンピュータを、請求項1乃至12のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the electronic device according to any one of claims 1 to 12. コンピュータを、請求項1乃至12のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 12.
JP2021197868A 2017-10-17 2021-12-06 Electronic apparatus, program, and storage medium Pending JP2022027841A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021197868A JP2022027841A (en) 2017-10-17 2021-12-06 Electronic apparatus, program, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017201248A JP6991033B2 (en) 2017-10-17 2017-10-17 Electronic devices and their control methods
JP2021197868A JP2022027841A (en) 2017-10-17 2021-12-06 Electronic apparatus, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017201248A Division JP6991033B2 (en) 2017-10-17 2017-10-17 Electronic devices and their control methods

Publications (1)

Publication Number Publication Date
JP2022027841A true JP2022027841A (en) 2022-02-14

Family

ID=66544736

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017201248A Active JP6991033B2 (en) 2017-10-17 2017-10-17 Electronic devices and their control methods
JP2021197868A Pending JP2022027841A (en) 2017-10-17 2021-12-06 Electronic apparatus, program, and storage medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017201248A Active JP6991033B2 (en) 2017-10-17 2017-10-17 Electronic devices and their control methods

Country Status (1)

Country Link
JP (2) JP6991033B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024203796A1 (en) * 2023-03-29 2024-10-03 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, imaging apparatus, and control method for imaging apparatus

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021010070A1 (en) 2019-07-12 2021-01-21
JP7467071B2 (en) * 2019-10-24 2024-04-15 キヤノン株式会社 Electronic device, electronic device control method, program, and storage medium
JP7433860B2 (en) * 2019-11-26 2024-02-20 キヤノン株式会社 Electronic devices and control methods for electronic devices
JP7532042B2 (en) 2020-02-03 2024-08-13 キヤノン株式会社 IMAGING CONTROL DEVICE, CONTROL METHOD FOR IMAGING CONTROL DEVICE, PROG

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281385A (en) * 1996-04-11 1997-10-31 Canon Inc Camera provided with line-of-sight detection function
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2014017665A (en) * 2012-07-09 2014-01-30 Canon Inc Display control unit, control method for display control unit, program, and recording medium
JP2015096961A (en) * 2014-12-16 2015-05-21 オリンパスイメージング株式会社 Imaging device
JP2016197181A (en) * 2015-04-03 2016-11-24 キヤノン株式会社 Display control device and control method therefor
JP2016197177A (en) * 2015-04-03 2016-11-24 キヤノン株式会社 Display control device and control method of the same, and imaging device
JP2017123515A (en) * 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method therefor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298412B2 (en) 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2010186098A (en) 2009-02-13 2010-08-26 Panasonic Corp Imaging apparatus
JP5669549B2 (en) 2010-12-10 2015-02-12 オリンパスイメージング株式会社 Imaging device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281385A (en) * 1996-04-11 1997-10-31 Canon Inc Camera provided with line-of-sight detection function
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2014017665A (en) * 2012-07-09 2014-01-30 Canon Inc Display control unit, control method for display control unit, program, and recording medium
JP2015096961A (en) * 2014-12-16 2015-05-21 オリンパスイメージング株式会社 Imaging device
JP2016197181A (en) * 2015-04-03 2016-11-24 キヤノン株式会社 Display control device and control method therefor
JP2016197177A (en) * 2015-04-03 2016-11-24 キヤノン株式会社 Display control device and control method of the same, and imaging device
JP2017123515A (en) * 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024203796A1 (en) * 2023-03-29 2024-10-03 キヤノン株式会社 Image processing apparatus, control method for image processing apparatus, imaging apparatus, and control method for imaging apparatus

Also Published As

Publication number Publication date
JP2019075719A (en) 2019-05-16
JP6991033B2 (en) 2022-01-12

Similar Documents

Publication Publication Date Title
JP6991033B2 (en) Electronic devices and their control methods
JP6602361B2 (en) Electronic device and control method thereof
WO2018042824A1 (en) Imaging control apparatus, display control apparatus, and control method therefor
JP2019120748A (en) Electronic equipment and method of controlling the same
JP7009096B2 (en) Electronic devices and their control methods
US20210176404A1 (en) Electronic apparatus and method for controlling the same
JP6833505B2 (en) Imaging control device and its control method
JP6701145B2 (en) Electronic device and control method thereof
JP6397454B2 (en) IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7129294B2 (en) Electronics and area selection method
JP7049195B2 (en) Electronic devices and their control methods, programs, and storage media
JP6460868B2 (en) Display control apparatus and control method thereof
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP7049179B2 (en) Imaging control device and its control method, program and storage medium
JP2009060291A (en) Image processing apparatus, image processing method and program
JP6808480B2 (en) Imaging control device and its control method
JP6324278B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
JP6630337B2 (en) Electronic device and control method thereof
JP6765901B2 (en) Imaging device and its control method, program, and storage medium
JP6768449B2 (en) Imaging control device, control method and program of imaging device
JP6765902B2 (en) Display control device and its control method, program, and storage medium
JP6407017B2 (en) Display control apparatus and control method thereof
JP6779777B2 (en) Imaging control device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230105