JP2022027841A - Electronic apparatus, program, and storage medium - Google Patents
Electronic apparatus, program, and storage medium Download PDFInfo
- Publication number
- JP2022027841A JP2022027841A JP2021197868A JP2021197868A JP2022027841A JP 2022027841 A JP2022027841 A JP 2022027841A JP 2021197868 A JP2021197868 A JP 2021197868A JP 2021197868 A JP2021197868 A JP 2021197868A JP 2022027841 A JP2022027841 A JP 2022027841A
- Authority
- JP
- Japan
- Prior art keywords
- face
- detected
- pupil
- subject
- designated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000000056 organ Anatomy 0.000 claims abstract description 51
- 210000001747 pupil Anatomy 0.000 claims description 191
- 238000001514 detection method Methods 0.000 claims description 59
- 230000001815 facial effect Effects 0.000 claims description 15
- 238000000034 method Methods 0.000 description 102
- 230000008569 process Effects 0.000 description 86
- 238000012545 processing Methods 0.000 description 45
- 238000006243 chemical reaction Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 210000000887 face Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 210000005069 ears Anatomy 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Viewfinders (AREA)
Abstract
Description
本発明は撮像装置に関し、顔や顔の器官(瞳など)を検出可能な撮像装置に関するものである。 The present invention relates to an image pickup device, and relates to an image pickup device capable of detecting a face and facial organs (pupil, etc.).
従来のデジタルカメラは、カメラが自動的に検出した被写体や、ユーザが任意で選択した被写体に対してオートフォーカス(AF)可能なものが多い。特に近年は、被写体として顔を検出するだけでなく、顔の器官(例えば瞳など)を検出可能とし、より被写体の精密な位置へのAF(以下、瞳AF)を実現したカメラも知られている。 Many conventional digital cameras are capable of autofocus (AF) on a subject automatically detected by the camera or a subject arbitrarily selected by the user. Particularly in recent years, cameras that not only detect the face as a subject but also detect facial organs (for example, pupils) and realize AF to a more precise position of the subject (hereinafter referred to as pupil AF) are also known. There is.
こうしたカメラにおいては、AF対象位置を顔と瞳から選択し分けられるようにすることで、よりユーザーの意図を反映できるような仕様にすることが重要である。例えば特許文献1では、ユーザーがLCD画面上をタッチすることで、その位置にあるのが顔か瞳かを判断し、AF対象として選択する技術が述べられている。これによりユーザーが撮影シーンに応じて手軽にAF対象位置を指定できるため、ユーザビリティの高いカメラを実現している。
In such a camera, it is important to make the specifications so that the user's intention can be reflected more by making it possible to select the AF target position from the face and the pupil. For example,
しかしながら、上記の特許文献に開示された技術のように、瞳を選択した場合はAF対象位置も必ず瞳、顔を選択した場合はAF対象位置も必ず顔、という構成にした場合、瞳AFの入/切を切り替え可能なカメラにおいて不都合が生じる。例えば、瞳AF入(瞳をAF対象とした動作を行う動作モード)を設定しているユーザーは、選択した被写体の瞳で適切にAFが行われることを期待するはずである。しかし、顔選択時は必ず顔付近にAF枠表示するようにしてしまうと、ユーザーとしては瞳でAFしなかったと感じてしまい、AF操作を繰り返し、いつまでも撮影が行えない可能性がある。 However, as in the technique disclosed in the above patent document, when the pupil is selected, the AF target position is always the pupil, and when the face is selected, the AF target position is always the face. Inconvenience occurs with cameras that can be switched on / off. For example, a user who has set the pupil AF on (an operation mode in which an operation targeting the pupil is performed) should expect that AF is appropriately performed with the pupil of the selected subject. However, if the AF frame is always displayed near the face when the face is selected, the user may feel that AF has not been performed with the eyes, and the AF operation may be repeated and shooting may not be possible indefinitely.
本発明は、上記課題に鑑みてなされたものであり、ユーザーが設定した動作モードに応じてAFの結果表示を制御することにより、ユーザーの意図に沿ったAFの結果表示を行えるようにすることを目的とする。 The present invention has been made in view of the above problems, and by controlling the AF result display according to the operation mode set by the user, it is possible to display the AF result according to the user's intention. With the goal.
本発明の一態様による電子機器は以下の構成を備える。すなわち、
画像内から被写体の顔と顔の器官を検出する検出手段と、
ユーザー指示に応じて、画像内の領域を指定する指定手段と、
前記指定手段により指定された領域に対応するAF対象についてAFを行うように制御するAF制御手段と、
検出された画像内の被写体の顔に対応する領域を一部領域、検出された顔の器官が含まれる領域を特定領域とし、前記一部領域もしくは前記一部領域に含まれる前記特定領域のうち前記指定手段により指定された領域に応じて、前記被写体の顔と前記器官のいずれかをAF対象として指定できる第1の動作モードを含む複数の動作モードのうち、いずれかを設定する設定手段と、
AF対象の表示を前記画像に重畳して表示部に表示させる表示制御手段と、を備え、
前記第1の動作モードが設定されている場合、前記AF制御手段は、前記指定手段により前記一部領域が指定されていても前記一部領域に対応する顔に含まれる器官が前記検出手段により検出された場合には該検出された器官をAF対象として用い、前記表示制御手段は、AF対象の表示を前記検出された器官に対して行う。
The electronic device according to one aspect of the present invention has the following configurations. That is,
A detection means that detects the subject's face and facial organs from within the image,
A designated means for designating an area in an image according to user instructions,
AF control means that controls AF target corresponding to the area designated by the designated means so as to perform AF, and
The region corresponding to the face of the subject in the detected image is defined as a partial region, the region including the detected facial organs is defined as a specific region, and the partial region or the specific region included in the partial region is included. A setting means for setting one of a plurality of operation modes including a first operation mode in which either the face of the subject or the organ can be designated as an AF target according to the area designated by the designating means. ,
A display control means for superimposing the display of the AF target on the image and displaying it on the display unit is provided.
When the first operation mode is set, in the AF control means, even if the partial area is designated by the designated means, the organ included in the face corresponding to the partial area is detected by the detection means. When it is detected, the detected organ is used as an AF target, and the display control means displays the AF target on the detected organ.
本発明によれば、ユーザーが設定した動作モードに応じてAFの結果表示を制御することにより、ユーザーの意図に沿ったAFの結果表示が行われる。したがって、例えば、指定可能なAF対象が異なる複数の動作モードの設定のぞれぞれにおいて、ユーザーが違和感を感じにくい適切なAF結果の通知を行うことができる。 According to the present invention, by controlling the AF result display according to the operation mode set by the user, the AF result display is performed according to the user's intention. Therefore, for example, in each of the settings of a plurality of operation modes having different AF targets that can be specified, it is possible to notify an appropriate AF result that the user does not feel a sense of discomfort.
以下、図面を参照して本発明の実施形態を説明する。なお、以下に説明する実施形態では、本発明による電子機器およびその制御方法を、静止画・動画の撮影が可能なデジタルカメラに適用した場合を例としている。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the embodiment described below, the case where the electronic device according to the present invention and the control method thereof are applied to a digital camera capable of shooting still images / moving images is taken as an example.
図1に本実施形態による撮像装置の一例としてのデジタルカメラ100の背面外観図を示す。表示部28は画像や各種情報を表示する表示部である。表示部28には、図2で説明されるように背面表示パネル28aと、ファインダー内の表示部である電子ビューファインダー28bが含まれる。シャッターボタン61は撮影指示を行うための操作部である。モード切り替えスイッチ60は各種モードを切り替えるための操作部である。コネクタ112は、パーソナルコンピュータやプリンタなどの外部機器と接続するための接続ケーブル111とデジタルカメラ100とを接続するためのコネクタである。操作部70はユーザーからの各種操作を受け付ける各種スイッチ、ボタン、タッチパネル等の操作部材より成る。コントローラホイール73は操作部70に含まれる回転操作可能な操作部材である。電源スイッチ72は、電源オン、電源オフを切り替えるための押しボタンである。
FIG. 1 shows a rear view of the
記録媒体200は、例えばメモリカードやハードディスク等を含み、デジタルカメラ100により撮影された画像等を格納する。記録媒体スロット201は記録媒体200を着脱可能に格納するためのスロットである。記録媒体スロット201に格納された記録媒体200は、デジタルカメラ100との通信が可能となり、記録や再生が可能となる。蓋202は記録媒体スロット201の蓋である。図1においては、蓋202を開けて記録媒体スロット201から記録媒体200の一部を取り出して露出させた状態を示している。
The
図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図2において、撮影レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター101は絞り機能を備えるシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア102は、デジタルカメラ100の、撮影レンズ103を含む撮像系を覆うことにより、撮影レンズ103、シャッター101、撮像部22を含む撮像系の汚れや破損を防止する。
FIG. 2 is a block diagram showing a configuration example of the
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
The
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、例えば、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
The output data from the A /
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、スルー画像表示(ライブビュー表示(LV表示))を行える。以下、ライブビューで表示される画像をLV画像と称する。
Further, the
不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。
The
システム制御部50は、デジタルカメラ100全体を制御する少なくとも1つのプロセッサーまたは回路である。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。
The
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切り替えスイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。
The
モード切り替えスイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切り替えスイッチ60により、ユーザーはこれらのモードのいずれかに直接切り替えることができる。あるいは、モード切り替えスイッチ60でメニューボタンに一旦切り換えた後に、メニューボタンに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The
シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を有する。第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
Each operation member of the
コントローラホイール73は、操作部70に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。コントローラホイール73を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部50はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラホイール73が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、ユーザーの回転操作に応じてコントローラホイール73自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材で、コントローラホイール73自体は回転せず、コントローラホイール73上でのユーザーの指の回転動作などを検出するものであってもよい(いわゆる、タッチホイール)。
The
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
The power
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号等の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。
The recording medium I /
姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。
The posture detection unit 55 detects the posture of the
接眼検知部57は目(物体)の接近(接眼)を検知する。システム制御部は、接眼検知部57で検知された状態に応じて、背面表示パネル28aと電子ビューファインダー28bの表示/非表示を切り替える。すなわち、接眼検知部57が接眼を検知している場合は表示先を電子ビューファインダー28bとし、接眼検知部57が接眼を検知していない場合は表示先を背面表示パネル28aとする。
The eyepiece detection unit 57 detects the approach (eyepiece) of the eye (object). The system control unit switches between display / non-display of the
なお操作部70の一つとして、背面表示パネル28aに対する接触(位置)を検知可能なタッチパネル70aを有する。タッチパネル70aと背面表示パネル28aとは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が背面表示パネル28aの表示を妨げないように構成され、背面表示パネル28aの表示画面の内部に組み込まれる内蔵型(インセル型)とすることができる。タッチパネル70aにおける入力座標と、背面表示パネル28aの表示画面上の表示座標とを対応付けることで、恰もユーザーが背面表示パネル28aの表示画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50はタッチパネル70aへの以下のユーザー操作、あるいは状態を検出できる。
As one of the
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)の検出。
・タッチパネル70aを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)の検出。
・タッチパネル70aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)の検出。
・タッチパネル70aへタッチしていた指やペンを離したこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)の検出。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)の検出。
-Detection that a finger or pen that has not touched the touch panel 70a newly touches the touch panel 70a, that is, the start of touch (hereinafter referred to as "touch-down").
-Detection that the touch panel 70a is in a state of being touched with a finger or a pen (hereinafter referred to as "Touch-On").
-Detection that the touch panel 70a is moving while being touched with a finger or a pen (hereinafter referred to as "Touch-Move").
-Detection that the finger or pen that was touching the touch panel 70a is released, that is, the end of the touch (hereinafter referred to as "Touch-Up") is detected.
-Detection of a state in which nothing is touched on the touch panel 70a (hereinafter referred to as "touch-off").
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている間である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When a touchdown is detected, it is also detected that it is touch-on. After a touchdown, touch-on usually continues to be detected unless touch-up is detected. The touch move is also detected while the touch-on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作が行なわれたかを判定する。例えば、タッチムーブに関して、システム制御部50は、タッチパネル70a上で移動する指やペンの移動方向を、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。またタッチパネル70a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。
These operations / states and the position coordinates of the finger or pen touching the touch panel 70a are notified to the
素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。 The operation of drawing a stroke quickly is called flicking. Flicking is an operation in which a finger is quickly moved on the touch panel 70a by a certain distance while being touched, and then released as it is, in other words, an operation in which the touch panel 70a is swiftly traced with a finger. It can be determined that the flick has been performed when it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is. In addition, if it is detected that the touch move is performed at a speed equal to or longer than a predetermined distance, it is determined that the drag has been performed. Further, a touch operation in which a plurality of points (for example, two points) are touched at the same time to bring the touch positions closer to each other is called a pinch-in, and a touch operation to move the touch positions away from each other is called a pinch-out. Pinch out and pinch in are collectively called pinch operation (or simply pinch).
タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式のものがあるが、いずれの方式でもよい。 The touch panel 70a may use any of various touch panels such as a resistance film method, a capacitance method, a surface acoustic wave method, an infrared ray method, an electromagnetic induction method, an image recognition method, and an optical sensor method. good. Depending on the method, there are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but either method may be used. ..
デジタルカメラ100は、少なくとも画像を再生するための再生モードと、撮影を行うための撮影モードとで、切り替えて使用することができ、撮影モードとして、オートモード、マニュアルモード、および複数のシーン別撮影モードを備えている。オートモードは、カメラの各種パラメータが、計測された露出値に基づきデジタルカメラ100に組み込まれたプログラムにより自動的に決定されるモードである。マニュアルモードは、カメラの各種パラメータをユーザーが自由に変更可能なモードである。シーン別撮影モードとは、撮影シーン別にその撮影シーンに適したシャッター速度や絞り値、ストロボ発光状態、感度設定、ホワイトバランス(WB)設定等を組み合わせることによって各種パラメータが決定される撮影モードである。デジタルカメラ100は、例えば、以下に記す(1)~(3)のシーン別撮影モードを備えている。但し、これらのシーン別撮影モードに限定されるものではない。撮影者は、撮影モード選択メニューからデジタルカメラ100を所望の撮影モードに設定して撮影を行うことができる。
The
(1)ポートレート撮影モード:背景をぼかして人物を浮き立たせるようにして人物撮影に特化したモード。
(2)花撮影モード:マクロモードに設定し、彩度も高めに設定するモード。
(3)スポーツ撮影モード:動きの早い被写体をとるのに特化した設定とする撮影モード。
(1) Portrait shooting mode: A mode specialized for portrait shooting by blurring the background to make the person stand out.
(2) Flower shooting mode: A mode in which the macro mode is set and the saturation is set high.
(3) Sports shooting mode: A shooting mode with settings specialized for shooting fast-moving subjects.
上述したデジタルカメラ100では中央1点AFや顔AF、瞳AFを用いた撮影が可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。瞳AFとは顔検出機能の一種でもある器官検出機能によって検出された撮影画面内の顔に含まれる瞳に対してAFを行うことである。
With the above-mentioned
顔検出機能について説明する。システム制御部50は、画像から顔および該顔の器官(目、鼻、口、耳など)を検出可能な検出部として機能する。システム制御部50は顔検出対象の画像データを画像処理部24に送る。システム制御部50の制御下で画像処理部24は、画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は、画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタを適用することにより、画像データからエッジ成分が検出される。
The face detection function will be described. The
その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳などの顔の器官の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを目と判断し、目の候補群の絞り込みを行う。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳などの器官)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。システム制御部50は、顔の検出結果に応じて、検出された顔の数、各顔の位置、大きさ、向き、内容する器官(目、鼻、口、耳)などの位置や大きさ等の顔情報を出力し、処理を終了する。このとき、システム制御部50は、顔の数などの特徴量をシステムメモリ52に記憶する。一旦顔として検出された領域は、コントラストや色、大きさ等の条件が合致していれば所定期間(1秒程度)は顔として検出し続ける。これによって、一時的に被写体が後ろを向いた、目を瞑った等によって顔の器官が検出されなくなっても、顔として検出し続けることが可能である。
After that, the
システム制御部50は、上述の顔検出機能によって検出された顔について抽出済みとなっている目を、検出された目(瞳)として確定し、瞳検出結果として瞳情報を出力する。瞳情報には、例えば、画像中における目の位置、顔における目の位置、大きさ等、また、目の位置と大きさに基づく瞳領域が含まれる。瞳検出は、顔の要素(パーツ)を検出する器官検出の一種である。
The
以上のようにライブビュー表示あるいは再生表示される画像データを画像解析して、画像データの特徴量を抽出して、顔や瞳などの特定の被写体情報を検出することが可能である。 As described above, it is possible to perform image analysis on the image data displayed in the live view or reproduced, extract the feature amount of the image data, and detect specific subject information such as a face and eyes.
なお、顔AFと同時に顔AE,顔FE、顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のWBを最適化することである。 Face AE, face FE, and face WB can be performed at the same time as face AF. Face AE is to optimize the exposure of the entire screen according to the detected brightness of the face. Face FE is to adjust the flash around the detected face. The face WB is to optimize the WB of the entire screen according to the detected face color.
さらに、システム制御部50は、画像処理部24を用いて、色、コントラスト、動きベクトルなどの条件によって、主要被写体と想定されるモノ(人物の顔と器官以外のモノ)を検出することも可能である。
Further, the
また、デジタルカメラ100では、撮影時のオートフォーカス(AF)の動作モードとして、複数のAFモードからユーザー操作に応じて1つのAFモードを設定することが可能である。AFモードの設定は、設定メニュー画面における、AFモードを設定するためのメニュー項目が選択されて表示されるAFモード設定画面でのユーザー操作に基づいて行われる。AFを行う位置の決定方式ごとに複数のAFモードが用意されている。本実施形態では、AFモードとして、一点AFモードと、追尾優先モードのいずれかが設定できるものとする。
Further, in the
一点AFモードは、撮影範囲の中央、あるいはユーザーが指定した一点に焦点調節位置を表すAF枠を設定するAFモードである。一点AFモードでは、AF枠は被写体に変化があっても移動せず、顔などの被写体が検出されているか否かに関わらず、AF枠の位置から得られた情報(コントラスト値や位相差AF用のデフォーカス量)に基づいてAFが行われる。 The one-point AF mode is an AF mode in which an AF frame representing the focus adjustment position is set at the center of the shooting range or at one point designated by the user. In the one-point AF mode, the AF frame does not move even if the subject changes, and the information obtained from the position of the AF frame (contrast value and phase difference AF) regardless of whether or not a subject such as a face is detected. AF is performed based on the defocus amount for.
追尾優先モードでは、ユーザーからの追尾指定がない場合(追尾待機状態、追尾解除状態)は、デジタルカメラ100が自動的に主被写体と判定した被写体がAF対象(焦点調節位置)となる。人物の顔が検出された場合は、検出された人物の瞳または顔を優先して主被写体としてAF対象にする。人物の顔が検出されていない場合は、動体、コントラスト値の高い被写体、中央に近い被写体などの所定の条件に従って主被写体をデジタルカメラ100が自動的に決定してAF対象とする。また、ユーザーからの追尾指定がなされた後は、LV画像中で指定された被写体を追尾し続け、追尾している被写体の撮影範囲内での位置が変わっても、追尾している被写体をAF対象とする。例えばユーザーが人物Aの瞳または顔を追尾指定した場合(追尾中)は、LV画像上で人物Aが移動しても人物Aの瞳または顔を追い続け、AF対象とする。
In the tracking priority mode, when there is no tracking designation from the user (tracking standby state, tracking release state), the subject automatically determined by the
また、人物以外を追尾対象とすることも可能であり(モノ追尾)、追尾指定された位置の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。すなわち、追尾優先モードは追尾を行うことによるAF位置の決定が可能なAFモードである。なお、AFモードは一点AFモードと追尾モードに限るものではない。例えばユーザーが指定した限定領域内で追尾を行うAFモード(「ゾーンAF」)などがあってもよい。設定したAFモードは、不揮発性メモリ56に記憶され、撮影モード処理においてはシステムメモリ52に読み出される。
It is also possible to track other than a person (mono tracking), and even if the same subject moves in the LV image, it will continue to be tracked, subject to the color, contrast, shape, etc. of the position specified for tracking. Target for AF. That is, the tracking priority mode is an AF mode in which the AF position can be determined by performing tracking. The AF mode is not limited to the one-point AF mode and the tracking mode. For example, there may be an AF mode (“zone AF”) in which tracking is performed within a limited area specified by the user. The set AF mode is stored in the
図3A、図3Bは、本実施形態によるデジタルカメラ100の撮影モード処理に関するフローチャートである。図3A~3Bの処理、及び後述する図4A~4C,図5A~5Bの処理は、不揮発性メモリ56に記録されたプログラムを、システムメモリ52をワークメモリとしてとしてシステム制御部50が実行することにより実現される。デジタルカメラ100をライブビュー撮影モードで起動すると図3A~3Bの処理を開始する。なお、図3A~3Bの処理は、AFモードが追尾優先モードに設定されている場合の処理である。1点AFモードに設定されている場合の処理については説明を省略する。
3A and 3B are flowcharts relating to the shooting mode processing of the
なお、追尾優先モードでは、画像から顔および顔の器官を検出し、検出された顔または器官は、ユーザー操作(本実施形態ではタッチ操作)によりAF対象(追尾対象)として指定される候補となる。また、そのようなタッチ操作により指定可能なAF対象が異なる複数の動作モードが用意されており、ユーザーはそれのうちの何れかをMENU画面から設定することができる。以下では、画像から検出される顔の器官を目(瞳)とし、指定可能なAF対象が異なる複数の動作モードとして、顔と瞳をAF対象に指定できる瞳AF入と顔をAF対象に指定できる(瞳は指定できない)瞳AF切を設定可能な撮像装置について説明する。 In the tracking priority mode, the face and facial organs are detected from the image, and the detected face or organ is a candidate designated as an AF target (tracking target) by user operation (touch operation in this embodiment). .. Further, a plurality of operation modes having different AF targets that can be specified by such a touch operation are prepared, and the user can set any of them from the MENU screen. In the following, the facial organs detected from the image are the eyes (pupils), and the face and pupil can be designated as AF targets as multiple operation modes with different AF targets that can be specified. Eye AF on and face are designated as AF targets. An image pickup device that can set the pupil AF off (the pupil cannot be specified) will be described.
S301(図3A)において、システム制御部50は、撮影モード初期化処理を行った後、撮像部22を通して取得された映像を、表示部28にライブビューとして表示(LV表示)する。この時の表示先は、表示先切替が「自動」に設定されていて接眼を検知していない場合は背面表示パネル28aであり、接眼を検知している場合は電子ビューファインダー28bである。また、表示先切替が「手動」で、表示先が背面表示パネル28aに設定されている場合は背面表示パネル28aであり、表示先が電子ビューファインダー28bに設定されている場合は電子ビューファインダー28bである。ここで、撮影モード初期化処理とは、フラグや制御変数等を含むパラメータや設定値、設定モードを不揮発性メモリ56から読み出す等の処理である。また記録媒体200の状態を確認し、異常等があれば、ライブビューに重畳して警告等を表示する。
In S301 (FIG. 3A), the
S302において、システム制御部50は、瞳、顔、モノを検出中であることを示す枠、もしくは、追尾中であることを示す枠を表示するための枠表示処理を行なう。枠表示処理については、図4A~4Cを用いて後述する。
In S302, the
S303において、システム制御部50は、操作部70に含まれるMENUボタンが押下されたか否かを判断する。MENUボタンが押下されたと判断された場合、処理はS304へ進み、そうでなければ処理はS305へ進む。S304において、システム制御部50は、MENU画面を表示する。MENU画面には、瞳AFの設定項目が含まれており、ユーザーによって瞳AFの設定項目が選択されると、瞳AFの設定画面が表示部28に表示される。瞳AFの設定画面では、設定候補として「入(オン)」と「切(オフ)」の選択肢が表示され、ユーザーはいずれかを選択して瞳AFの入か切のいずれかを設定することが可能である。ユーザー操作によって瞳AFの入/切の設定が変更されると、変更された設定値を不揮発性メモリ56に記憶して設定する。
In S303, the
S305において、システム制御部50は、タッチパネル70aに対するタッチ操作(位置指定操作)を検出したか否かを判断する。タッチ操作を検出した場合はS306(図3Bの(a))へ進み、そうでなければS316(図3A)へ進む。S306からS315では、瞳AFの入/切と、タッチ操作による表示画面上の指定位置とに基づいて追尾対象を設定する処理が行われる。なお、ここで検出するタッチ操作による位置指定操作は、表示先が背面表示パネル28aである場合はタッチダウンとし、表示先が電子ビューファインダー28bである場合はタッチアップとする。電子ビューファインダー28bへ表示出力している際は、一般的にユーザーはタッチパネル上のタッチ位置を目視できないため、確定操作をタッチダウン後のタッチアップとすることで、目的の位置を確定しやすくなるためである。
In S305, the
S306(図3Bの(a))において、システム制御部50は、瞳AFの設定が入であるか否か(瞳AF入か瞳AF切か)を判断する。瞳AF入であれば処理はS307へ進み、そうでなければS308へ進む。S307において、システム制御部50は、ライブビュー画像から瞳が検出されており、かつ、S305でタッチ操作を検出した際の指定位置(以下、タッチ操作の位置ともいう)が、検出されている瞳の位置か(瞳領域内であるか)否かを判断する。タッチ操作の位置が瞳領域内であれば処理はS308へ進み、そうでなければS311へ進む。なお、S307では、瞳AF入動作モードにおいて、被写体の右側の瞳と左側の瞳を区別して指定することが可能である。
In S306 (in FIG. 3B (a)), the
なお、表示先が背面表示パネル28aである場合は、背面表示パネル28aに表示されているライブビューにおける、検出されている瞳に対応する領域内にタッチダウンがされた場合に、タッチ操作の位置が検出されている瞳領域内であると判断する。また、表示先が電子ビューファインダー28bである場合は、指定位置を示すカーソルをタッチムーブによって電子ビューファインダー28bに表示されたライブビューにおいて移動し、タッチアップした時のカーソルの位置をタッチ操作の位置とする。従って、電子ビューファインダー28bに表示されたライブビューの検出されている瞳に対応する領域内にカーソルを移動させた状態でタッチアップされた場合に、タッチ操作の位置が検出されている瞳領域内であると判断する。
When the display destination is the
S308において、システム制御部50は、S307で判定した指定位置が、ライブビュー上の被写体に対して、ユーザーから見て右側の瞳(被写体の左目)の選択領域内(後述の右上領域703内)か否かを判断する。右側の瞳であれば、S309へ進む。そうでない場合、すなわち、S307で判定した指定位置が、ライブビュー上の被写体に対して、ユーザーから見て左側の瞳(被写体の右目)の選択領域内(後述の左上領域702内)である場合は、処理はS310へ進む。
In S308, the
S309において、システム制御部50は、指定位置で検出されている顔の右側の瞳(検出された顔の左目)を追尾対象として追尾する。S310において、システム制御部50は、指定位置で検出されている顔の左側の瞳(検出された顔の右目)を追尾対象として追尾する。
In S309, the
一方、S307で指定位置が瞳領域でなかった場合、S311において、システム制御部50は、タッチ操作による指定位置が、検出されている顔の位置か(顔領域内か)否かを判断する。顔の位置であれば(後述する顔領域701、701a、701b内である場合)、処理はS312へ進み、そうでなければS313へ進む。S312において、システム制御部50は、タッチ操作の指定位置において検出されている顔を追尾対象として追尾する。
On the other hand, when the designated position is not the pupil region in S307, in S311 the
S307、S308、S311における処理について、図7を使って詳細に解説する。図7(a)~(e)は、表示先が背面表示パネル28aである場合のデジタルカメラ100における顔または瞳を選択するためのタッチ反応領域を示す模式図であり、ライブビューから検出された1つの顔の部分のみを抽出して説明した図である。実際にはライブビュー画像には顔の外側の領域や他の顔などが含まれるが、図7の説明ではそれらは省略する。
The processing in S307, S308, and S311 will be described in detail with reference to FIG. 7. 7 (a) to 7 (e) are schematic views showing a touch reaction region for selecting a face or pupil in the
図7(a)は、顔のみが検出されている状態のタッチ反応領域を示す図である。瞳は、目を瞑っている等の理由で検出されていないものとする。このとき、ユーザーが選択できるのは顔のみであるため、タッチ反応領域となる顔領域701は顔全体を覆う正方形の領域(高さ、幅ともに長さL)として設定される。このように、システム制御部50は、画像から顔が検出されると、表示画面上の顔の領域に対応する顔領域を設定し、検出された顔と顔領域を関連づける。よって、この状態で顔領域701上においてユーザーのタッチ操作が検出されると、顔が選択される。
FIG. 7A is a diagram showing a touch reaction region in a state where only the face is detected. It is assumed that the pupil is not detected because the eyes are closed. At this time, since only the face can be selected by the user, the
システム制御部50は、検出された顔から所定の器官(本実施形態では瞳)が検出されると、設定した顔領域を複数の領域に分割し、各領域を顔と所定の器官に関連づける。図7(b)は顔と左右の両目が検出されている状態である。このとき、ユーザーが選択できるのは顔と、被写体に対して右側の瞳、左側の瞳の3つとなる。このため、図7(b)のように顔領域701を3つに分割し、それぞれ左上タッチ反応領域である左上領域702を左側の瞳、右上タッチ反応領域である右上領域703を右側の瞳、下半分タッチ反応領域である下領域704を顔の選択領域として設定する。なお、本実施形態では、顔に対して口、鼻よりも瞳が存在する側を上方向としている。
When a predetermined organ (pupil in the present embodiment) is detected from the detected face, the
なお、顔領域の分割は、器官の検出時の大きさに関わらず、所定の規則に従って行われる。例えば、検出された顔や器官の大きさに応じて顔領域や器官の領域の大きさが変化しても、顔領域と複数の領域の面積の比率および位置関係を維持するように顔領域の分割が行われる。さらに具体的に例示する、本実施形態では、左上領域702,右上領域703,下領域704の高さと幅は、検出された顔に対する瞳の相対的な大きさ(割合)に関わらず顔領域701の大きさに対して一定の割合であり、次のように設定する。すなわち、左上領域702,右上領域703,下領域704の高さは互いに同じとする(長さL/2、すなわち顔領域701の高さの半分)。また、左上領域702と右上領域703の幅は互いに同じ長さとする(長さL/2。すなわち顔領域701の幅の半分)。下領域704の幅は左上領域702,右上領域703の2倍である(長さL)。これは、顔領域701を上下左右に等分に4分割し、左上の部分、右上の部分、下側の2つの部分をそれぞれ左側の瞳、右側の瞳、顔に対応するタッチ反応領域としたものである。顔と瞳とで反応領域の高さを揃えることで、ユーザーは顔と瞳を同じ操作感で選択することが可能となる。また左右の瞳の反応領域の幅を揃えることで、顔が斜めを向いて片方の瞳が小さく検出された場合でも、両方の瞳を同じ操作感で選択することが可能となる。
It should be noted that the division of the face region is performed according to a predetermined rule regardless of the size at the time of detection of the organ. For example, even if the size of the face area or organ area changes depending on the size of the detected face or organ, the face area may maintain the ratio and positional relationship between the areas of the face area and the multiple areas. The division is done. More specifically, in the present embodiment, the height and width of the upper
図7(c)は顔と片方の瞳(ここでは左側の瞳)のみが検出されている状態である。このときは、図7(b)における右上のタッチ反応領域である右上領域703は、下半分のタッチ反応領域である下領域704と組み合わせて、顔タッチ反応領域705のように設定する。つまり、検出されていない瞳の領域をユーザーがタッチした場合は、顔が選択されることとなる。
FIG. 7C shows a state in which only the face and one pupil (here, the left pupil) are detected. At this time, the upper
瞳AFにおいては、ピントを合わせたい瞳が検出されていない場合、撮影者または被写体立ち位置、向きを調節して、瞳が検出されるようにするユースケースがあるが、この行為をしている最中に他の被写体が主被写体として検出されてしまう可能性があり煩わしい。そこで本実施形態では、非検出な瞳をタッチした際には顔を追尾する。このような制御により、主被写体から別の被写体への乗り移りを防ぐことが可能となる。これにより撮影者は、狙った瞳が非検出であっても、自身や被写体を動かして所望な瞳へピントを合わせやすくなる。 In pupil AF, there is a use case where the photographer or the subject standing position and orientation are adjusted so that the pupil is detected when the pupil to be focused is not detected. It is annoying because other subjects may be detected as the main subject during the process. Therefore, in the present embodiment, the face is tracked when the non-detected pupil is touched. Such control makes it possible to prevent transfer from the main subject to another subject. This makes it easier for the photographer to move himself or the subject to focus on the desired pupil even if the targeted pupil is not detected.
なお、図7(a)~図7(c)では顔領域701を正方形としたが、検出する被写体に応じて長方形、ひし形、円形、楕円形など別の形にしてもよい。例えば、人間の顔は実際にはひし形や円形に近いため、図7(d)のようなひし形の顔領域701a、図7(e)のような円形の顔領域701bをタッチ反応領域としても良い。図7(d)、図7(e)の場合、左上タッチ反応領域である領域706,709が左側の瞳、右上タッチ反応領域である領域707,710が右側の瞳、下半分タッチ反応領域である領域708,711が顔の選択領域として設定され得る。また、図7(a)~図7(c)で、左上領域702と右上領域703の幅、および左上領域702と右上領域703と下領域704の高さを同じ長さとしているが、どちらか一方だけ実施するものでもよい。例えば、図7(f)に示されるように、左上領域702および右上領域703と、下領域704の上下方向の大きさ(高さ)をLa、Lb(La≠Lb,La+Lb=L)で分割するようにしてもよい。
Although the
なお、表示先が電子ビューファインダー28bであった場合には、タッチアップされた際に、指定位置を示すカーソルが、電子ビューファインダー28bに表示されたLV中の顔のうち、図7で説明したどの領域内の位置であるかを判定する。さらに、S307,S308,S311では、背面表示パネル28aを表示先としている場合にタッチダウン位置(タッチダウンされた際のタッチ位置)に基づいて領域を判定したが、タッチダウン位置には基づかず、タッチアップ位置に基づく判定としても良い。
When the display destination is the
S313(図3Bの(a))において、システム制御部50は、タッチ操作がなされた位置が、後述の解除タッチボタンの位置か否かを判断する。解除タッチボタンの位置でなければ処理はS314へ進み、解除タッチボタンの位置であればS315へ進む。S314において、システム制御部50は、指定位置の被写体を追尾対象としてモノ追尾を実行する。すなわち、LV画像中で指定位置にある被写体の色、コントラスト、形状などを条件として、同一の被写体がLV画像中で移動しても追い続け、AF対象とする。S315において、システム制御部50は、追尾状態を解除して、追尾待機状態になる。
In S313 ((a) of FIG. 3B), the
S316(図3A)において、システム制御部50は、シャッターボタン61が半押しされ第1シャッタースイッチ62がオンとなったか(撮影準備指示がなされたか)否かを判断する。シャッターボタン61が半押しされた場合は、処理はS317(図3Bの(b))へ進み、そうでなければS324へ進む。
In S316 (FIG. 3A), the
S317~S323(図3Bの(b))では、シャッターボタン61の半押しによる撮影準備動作が実行され、シャッターボタン61の全押しの検出に応じて撮影処理が実行される。まず、S317において、システム制御部50は、後述のAF処理を行う。AF処理については図5A~5Bを用いて後述する。S318において、システム制御部50は、測光処理を行う。S319において、システム制御部50は、シャッターボタン61が全押しされ第2シャッタースイッチ64がオンとなったか否かを判断する。シャッターボタン61が全押しされた場合は、処理はS321へ進み、そうでなければS320へ進む。S320において、システム制御部50は、第1シャッタースイッチ62のオン(シャッターボタン61の半押し)が維持されているか否かを判断する。維持されている場合は、処理はS319へ進み、そうでなければS302へ進む。
In S317 to S323 ((b) in FIG. 3B), the shooting preparation operation is executed by half-pressing the
S319で第2シャッタースイッチ64がオンである(シャッターボタン61の全押し状態)と判断された場合、S321において、システム制御部50は、撮影処理を行う。これは、ライブビュー撮影のための撮影ではなく、記録媒体に画像ファイルとして画像を記録するための本撮影である。設定された露光条件(シャッター速度、絞り値)で露光を行い、撮像部22から信号読み出しを行い、画像処理を施して記録媒体200に記録するための画像を生成する。S322において、システム制御部50は、S321で撮影した画像を記録媒体200へ記録する。なお、システム制御部50は、これと同時に、S323でLV表示を再開する前に、撮影された画像を確認表示するクイックレビュー(レックレビュー)表示を行っても良い。S323において、システム制御部50は、LV画像の撮像を再開し、表示部28にライブビュー画像表示を行なう。
When it is determined in S319 that the
S316(図3A)で、第1シャッタースイッチ62のオン(シャッターボタンの半押し状態)が検出さなかった場合、S324において、システム制御部50は、操作部70に対しその他の操作がなされたか否かを判断する。その他の操作がなされたと判断された場合は、処理はS325へ進み、そうでなければS326へ進む。S325において、システム制御部50は、その他の処理を行なう。例えば操作部70が操作されたことに応じて、シャッタースピードなどの撮影パラメータの変更などの処理を行なう。一方、S326では、システム制御部50は、操作部70に対し終了操作(電源オフ操作や、再生モード等の他の動作モードへの変更操作等)がなされたか否かを判断する。終了操作がなされたと判断された場合は、本処理は終了する。終了操作がなされていないと判断された場合は、処理はS302へ戻り、上述の動作が繰り返される。
If the on (half-pressed state of the shutter button) of the first shutter switch 62 is not detected in S316 (FIG. 3A), in S324, the
図4A~4Cは、図3A~3Bで説明したS302の枠表示処理の詳細を示すフローチャートである。また図6A~6Cは、本実施形態における画面例を示す模式図である。本実施形態では、被写体が検出された状態であることを示すアイテム(枠)および被写体が追尾されている状態であることを示すアイテム(枠)が、LV画像に重畳して表示される。 4A to 4C are flowcharts showing the details of the frame display process of S302 described with reference to FIGS. 3A to 3B. 6A to 6C are schematic views showing screen examples in this embodiment. In the present embodiment, an item (frame) indicating that the subject is detected and an item (frame) indicating that the subject is being tracked are superimposed and displayed on the LV image.
S401(図4A)において、システム制御部50は、不揮発性メモリ56に記録された設定情報を参照し、瞳AFの設定が入であるか否か(瞳AF入か瞳AF切か)を判断する。瞳AF入であれば処理はS408へ進み、そうでなければ(瞳AF切であれば)S402へ進む。S402において、システム制御部50は、被写体を追尾中か否かを判断する。被写体を追尾中の場合は、処理はS403へ進み、そうではなく追尾待機状態であればS404へ進む。
In S401 (FIG. 4A), the
S404において、システム制御部50は、顔またはモノが検出されているか否かを判断する。顔またはモノが検出されている場合、処理はS405へ進み、そうでない場合はS431へ進む。図6Aの(a)は追尾待機状態で、顔も検出していない場合のLV画像601表示例である。これは、S431へ進む条件を満たしている場合であって、シャッターボタン61が半押しされる前の表示状態に相当する。LV画像601に、撮影情報表示602が重畳して表示されている。LV画像601において、例として被写体603(人物の被写体603a、モノ(自動車)の被写体603b)が図示されているが、図6Aの(a)は仮にこれらが検出されなかった場合の表示例である。実際は壁や空のみといった、人物もモノも検出できない被写体が撮影されている場合にこの表示状態となる。S404で顔またはモノが検出されていると判定された場合、S405において、システム制御部50は、人物の顔が検出されているか否かを判断する。人物の顔が検出されている場合、処理は後述の図4CのS427(図6A(b)に示すような顔検出枠604が表示される)へ進み、そうでなければ後述の図4CのS429(図6B(h)に示すようなモノ検出枠610が表示される)へ進む。
In S404, the
S402(図4A)において被写体を追尾中でないと判断された場合、S403において、システム制御部50は、被写体の顔を追尾中か否かを判断する。顔を追尾中の場合は、処理はS406へ進み、そうでなければS407へ進む。S406において、システム制御部50は、表示部28に顔追尾枠を表示して、処理を図4BのS418(追尾中の顔でコンティニュアスAFを行う)へ進める。図6Aの(c)は、被写体603aの顔を追尾している場合の表示例である。システム制御部50は、人物の顔を囲うように顔追尾枠605を表示し、追尾状態を解除するためのタッチボタンである追尾解除ボタン606を画面端に表示する。一方、図4AのS407では、システム制御部50は、表示部28にモノ追尾枠を表示して、処理を図4BのS420(追尾中のモノでコンティニュアスAFを行う)へ進める。図6Aの(d)はモノを追尾している場合の表示例である。車を囲うように、モノ追尾枠607が表示されている。
When it is determined in S402 (FIG. 4A) that the subject is not being tracked, in S403, the
S401(図4A)で瞳AF入ではない(瞳AF切)と判断された場合、S408において、システム制御部50は、被写体を追尾中か否かを判断する。被写体を追尾中の場合は、処理はS409(図4B)へ進み、そうでなければS421(図4A)へ進む。S409(図4B)において、システム制御部50は、被写体の瞳を追尾中か否かを判断する。瞳を追尾中の場合は、処理はS410へ進み、そうでなければS413へ進む。
When it is determined in S401 (FIG. 4A) that the pupil AF is not on (pupil AF off), in S408, the
S410において、システム制御部50は、表示部28に瞳追尾枠を表示する。また瞳が検出されている場合は顔も検出されている。従って、S411において、システム制御部50は、表示部28において、LV画像601上の検出されている顔の位置に顔検出枠を重畳して表示する。図6Bの(e)は瞳を追尾している状態の表示例である。LV画像601において、瞳を囲うように、瞳追尾枠608が表示されている。また瞳が検出されている場合は顔も検出されているため、LV画像601上に顔検出枠604も表示されている。
In S410, the
S412において、システム制御部50は、追尾中の瞳の位置をコンティニュアスAFの対象位置(AF位置)に設定し、コンティニュアスAFを行う。ここでは、検出されている顔の右目と左目のうち、ユーザーによって追尾対象として指定された側の瞳がコンティニュアスAFの対象となる。すなわち、デジタルカメラ100までの距離が近い方の目か否か、あるいはサイズの大きい方の目であるか否かに関わらず、ユーザーが追尾対象として指定した方の目がAFの対象となる。このように瞳を追尾対象とすることで、よりユーザーの意図通りの瞳をAFの対象とすることができる。ここでのコンティニュアスAFとは、撮影操作がなされていない待機中に、継続的に、被写体の位置に応じて自動的にピントを合わせ続ける機能を指す。
In S412, the
S409で瞳を追尾中ではないと判断された場合、S413において、システム制御部50は、被写体の顔を追尾中か否かを判断する。被写体の顔を追尾中の場合は、処理はS414へ進み、そうでなければS419へ進む。S414では、システム制御部50は、表示部28に顔追尾枠を表示する。図6Aの(c)に示されるように、LV画像601上の追尾中の顔を囲うように顔追尾枠605が表示される。S415において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されている場合は、処理はS416へ進み、そうでなければS418へ進む。
When it is determined in S409 that the pupil is not being tracked, in S413, the
S416において、システム制御部50は、顔追尾枠に加えて、表示部28に瞳検出枠を表示する。図6Bの(f)は瞳を検出し、顔を追尾している状態の表示例である。LV画像601において、瞳を囲うように、瞳検出枠609を表示している。また顔が追尾されているため、S414で表示された顔追尾枠605が引き続き表示されている。その後、S417において、システム制御部50は、検出されている瞳の位置をコンティニュアスAFの対象位置に設定し、コンティニュアスAFを行う。このように、瞳追尾中でなくても、顔を追尾しており、瞳も検出されているのであれば、検出されている瞳にAFが行われる。ただし、ここでAF対象となる瞳は、追尾している顔の右目と左目のうち、システム制御部50が自動的に主被写体と判定して選択した瞳となる。システム制御部50は、基本的にはデジタルカメラ100までの距離が近い方の目(至近側の目)、あるいはサイズの大きい方の目を選択してAF対象とする。
In S416, the
S415で瞳が検出されていないと判断された場合、S418において、システム制御部50は、追尾中の顔の位置をコンティニュアスAFの対象位置に設定し、コンティニュアスAFを行う。ここでは、瞳が検出されていないため、AFの対象は顔全体、あるいは顔の中央1点といった、瞳の位置に関わらない位置を対象としてAFが行われる。
When it is determined in S415 that the pupil is not detected, in S418, the
瞳も顔も追尾中ではないと判断された場合(S409およびS413でNOの場合)、S419では、システム制御部50は、表示部28にモノ追尾枠を表示する。モノ追尾枠の表示例は、前述の図6Aの(d)で示した通りである。S420において、システム制御部50は、追尾中のモノの位置をコンティニュアスAFの対象位置に設定し、コンティニュアスAFを行う。
When it is determined that neither the pupil nor the face is being tracked (NO in S409 and S413), in S419, the
S408(図4A)で追尾中の被写体が存在しないと判断された場合、S421において、システム制御部50は、人物の顔、瞳、モノのいずれかの被写体が検出されているか否かを判断する。そのような被写体が検出されていると判断された場合は、処理はS422(図4C)へ進み、そうでなければ(すなわち、顔、人、モノの何れも検出されていない状態であれば)S431(図4A)へ進む。
When it is determined in S408 (FIG. 4A) that the subject being tracked does not exist, in S421, the
S422(図4C)において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。被写体の瞳が検出されている場合は、処理はS423へ進み、そうでなければS426へ進む。S423において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されている顔の瞳の位置に瞳検出枠を表示する。また瞳が検出されている場合は顔も検出されているため、S424において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されている顔の位置に顔検出枠を表示する。図6Bの(g)は、S424において顔と瞳を検出している状態における表示例である。顔と瞳をそれぞれ囲うように、顔検出枠604、瞳検出枠609が表示されている。S425において、システム制御部50は、S417と同様に、検出されている瞳の位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。ここでAF対象となる瞳は、追尾している顔の右目と左目のうち、システム制御部50が自動的に主被写体と判定して選択した瞳となる。
In S422 (FIG. 4C), the
S422で瞳が検出されていないと判断された場合、S426において、システム制御部50は、人物の顔を検出しているか否かを判断する。顔を検出していると判断された場合は、処理はS427へ進み、そうでなければS429へ進む。S427において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されている顔の位置に顔検出枠を表示する。図6Aの(b)は、顔検出枠604が表示された状態を示している。S428において、システム制御部50は、検出されている顔の位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。
When it is determined in S422 that the pupil is not detected, in S426, the
検出中の被写体が瞳でも顔でもない場合(S422、S426でNO)、S429において、システム制御部50は、表示部28に表示されたライブビューに重畳して、検出されているモノの位置にモノ検出枠を表示する。図6Bの(h)はモノを検出している状態を示す図である。車(被写体603b)を囲うように、モノ検出枠610が表示されている。S430において、システム制御部50は、検出されているモノの位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。
When the subject being detected is neither a pupil nor a face (NO in S422 and S426), in S429, the
瞳AFの入/切の状態に関わらず、被写体を追尾中でも検出中でもない場合(S404でNOまたはS421でNO)、S431において、システム制御部50は、その他の位置をコンティニュアスAF位置に設定し、コンティニュアスAFを行う。
When the subject is not being tracked or detected (NO in S404 or NO in S421) regardless of the on / off state of the pupil AF, the
なお、検出された被写体を示すアイテム(被写体が検出状態であることを示すアイテム)である顔検出枠604、瞳検出枠609、モノ検出枠610には、検出された範囲を示す一重の枠が用いられている。このように、検出された状態であることを示すアイテムには、被写体に関わらず同一の表現が用いられる。また、追尾対象に指定された状態であることを示すアイテムである顔追尾枠605、モノ追尾枠607、瞳追尾枠608には、追尾対象の被写体の範囲を示す二重の枠が用いられている。このように、追尾対象に指定された状態であることを示すアイテムには、被写体に関わらず同一の表現が用いられるが、検出された状態を示すアイテムとは異なる表現となっている。なお、検出状態および追尾状態を示すアイテムの表示形態は、上記例(一重枠と二重枠)に限られるものではない。
The
図5A~5Bは、本実施形態によるデジタルカメラ100のAF処理に関するフローチャートである。
5A to 5B are flowcharts relating to AF processing of the
S501(図5A)において、システム制御部50は、不揮発性メモリ56に記録された設定情報を参照し、瞳AFの設定が入であるか否かを判断する。瞳AF入であればS513(図5B)へ進み、そうでなければS502(図5A)へ進む。S502~S512(図5A)の処理は、瞳AF切におけるAF処理である。また、S513~S526(図5B)の処理は、瞳AF入におけるAF処理である。
In S501 (FIG. 5A), the
S502(図5A)において、システム制御部50は、被写体の顔を追尾中か否かを判断する。顔を追尾中の場合はS503へ進み、そうでなければS507へ進む。S503において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されている場合はS504へ進み、そうでなければS505へ進む。S504において、システム制御部50は、検出されている瞳の位置をAF位置に設定し、AFを行う。ここでAF対象となる瞳は、追尾している顔の右目と左目のうち、システム制御部50が自動的に主被写体と判定して選択した瞳となる。一方、S505では、システム制御部50は、追尾中の顔の位置をAF位置に設定し、AFを行う。
In S502 (FIG. 5A), the
S506において、システム制御部50は、表示部28に、S504でAFを行った瞳の位置、または、S505でAFを行った顔の位置に、AF結果枠を表示する。シャッターボタン61の半押しに応じたAFが実行されると、検出された状態であることを示すアイテム(顔、瞳、モノ検出枠)および指定された状態であることを示すアイテム(顔、瞳、モノ追尾枠)は非表示とされ、AF結果枠が表示される。例えば、図6Bの(f)の状態から、AFが完了すると、追尾枠、検出枠は非表示となり、図6Cの(j)のようにAF結果枠が表示される。図6Cの(j)はLV画像601の顔の位置に顔AF結果枠612を表示した場合の表示例である。顔を囲うように、顔AF結果枠612を表示している。なお、S504を経てS506へ到達した場合においても、瞳AF結果枠ではなく顔AF結果枠612を表示している。これは、ユーザーが瞳AFの設定を切にしているために、ユーザーとしては被写体の顔全体でAFをすることを期待していると想定されるためである。
In S506, the
仮にここで顔ではなく瞳に対してAF結果枠を表示すると、ユーザーは、瞳AFの設定を切にしているにも関わらず、その設定が反映されなかったために瞳AFが行われてしまったと誤認する可能性がある。あるいは、ユーザーは顔にAF結果枠が表示されると想定していたのに瞳にAF結果枠が表示されることで違和感を持つ可能性がある。このような誤認や違和感が生じると、ユーザーは、期待通り顔にAF結果枠が表示されるまで、シャッターボタン61の半押し状態を解除して再度シャッターボタン61を半押ししてAFを行う(再AFを行う)ことを繰り返してしまう可能性もある。その場合、ユーザーはシャッターチャンスを逃してしまうこともある。このような事態を未然に防止し、ユーザーの想定に合わせるために、本実施形態ではS504を経てS506へ到達した場合も、瞳ではなく顔を囲うようにAF結果枠を表示する。これによって、ユーザーにとって違和感の無いAF結果の通知を実現でき、その後の撮影動作をスムーズに行うことが可能となる。
If the AF result frame is displayed for the pupil instead of the face here, the user says that the pupil AF was performed because the setting was not reflected even though the pupil AF setting was turned off. There is a possibility of misunderstanding. Alternatively, the user may feel uncomfortable because the AF result frame is displayed on the pupil even though the user expected the AF result frame to be displayed on the face. When such a misunderstanding or discomfort occurs, the user releases the half-pressed state of the
S502で顔を追尾中ではないと判断された場合、S507において、システム制御部50は、モノを追尾中か否かを判断する。モノを追尾中と判断された場合は、処理はS511へ進み、そうでなければS508へ進む。S508では、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されていると判断された場合は、処理は上述のS504(自動選択した瞳でAFを行う)へ進み、そうでなければS509へ進む。S509において、システム制御部50は、被写体の顔が検出されているか否かを判断する。被写体の顔が検出されている場合は、処理は上述のS505(追尾中の顔でAF)へ進み、そうでなければS510へ進む。
When it is determined in S502 that the face is not being tracked, in S507, the
S510において、システム制御部50は、その他の位置(顔、瞳、モノのいずれも検出されていないので、顔、瞳、モノの何れでも無い、システム制御部50が主被写体として自動的に決定した位置)をAF位置に設定し、AFを行う。モノを追尾中である場合(S507でYES)は、S511において、システム制御部50は、追尾中のモノの位置をAF位置に設定し、AFを行う。S512において、システム制御部50は、表示部28に、AF位置として設定されたモノまたはその他の位置に対してAF結果枠を表示する。図6Cの(l)は、処理がS510を経てS512へ到達した場合の、その他の位置でのAF結果枠を表示した場合の表示例である。LV画像601の全面の中でカメラが自動的に検出した位置に対して、多点AF結果枠614を表示している。また図6Cの(k)は、処理がS511を経てS512へ到達した場合の、追尾中のモノ位置に対してAF結果枠を表示した場合の表示例である。モノ(被写体603b)を囲うように、モノAF結果枠613を表示している。
In S510, the
次に、瞳AF入の場合(S501でYES)のAF動作について説明する。まず、S513(図5B)において、システム制御部50は、被写体の瞳を追尾中か否かを判断する。瞳を追尾中と判断された場合は、処理はS514へ進み、そうでなければS516へ進む。S514において、システム制御部50は、追尾中の瞳の位置をAF位置に設定し、AFを行う。そしてS515において、システム制御部50は、表示部28に、AF位置として設定された被写体の瞳(追尾中の瞳)に対してAF結果枠を表示する。図6Cの(i)は瞳にAF結果枠を表示している状態を示す図である。瞳を囲うように、瞳AF結果枠611を表示している。
Next, the AF operation when the pupil AF is on (YES in S501) will be described. First, in S513 (FIG. 5B), the
S513で瞳を追尾中ではないと判断された場合、S516において、システム制御部50は、人物の顔を追尾中か否かを判断する。顔を追尾中であると判断された場合は、処理はS517へ進み、そうでなければS521へ進む。S517において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されていると判断された場合は、処理はS518へ進み、そうでなければS519へ進む。S518において、システム制御部50は、検出されている瞳の位置をAF位置に設定し、AFを行う。続いてS515へ進み、AFを行った位置に瞳AF結果枠を表示する。S518を経てS515へ到達した場合(瞳追尾中ではない場合)においても、瞳AF結果枠を表示しているのは、ユーザーが瞳AFの設定を入にしているために、ユーザーとしては被写体の瞳でAFをすることを期待していると予想されるためである。顔ではなく瞳を囲うようにAF結果枠を表示することで、ユーザーにとって違和感の無いAF結果の通知を実現でき、その後の撮影動作をスムーズに行うことが可能となる。
When it is determined in S513 that the pupil is not being tracked, in S516, the
被写体の顔を追尾中であるが瞳が検出されていない場合(S517でNO)、S519において、システム制御部50は、追尾中の顔の位置をAF位置に設定し、AFを行う。そして、S520において、システム制御部50は、表示部28に、AF位置として設定された被写体の顔(追尾中の顔)に対してAF結果枠を表示する。
When the face of the subject is being tracked but the pupil is not detected (NO in S517), in S519, the
S513、S516により瞳も顔も追尾中でないと判断された場合、S521において、システム制御部50は、モノを追尾中か否かを判断する。モノを追尾中の場合はS525へ進み、そうでなければS522へ進む。S522において、システム制御部50は、被写体の瞳が検出されているか否かを判断する。瞳が検出されていると判断された場合は、処理は上述のS518へ進み、そうでなければS523へ進む。S523において、システム制御部50は、被写体の顔が検出されているか否かを判断する。顔が検出されていると判断された場合は、処理は上述のS519へ進み、そうでなければS524へ進む。
When it is determined by S513 and S516 that neither the pupil nor the face is being tracked, in S521, the
S524において、システム制御部50は、S510と同様に、その他の位置をAF位置に設定する。一方、S521でモノを追尾中であると判断された場合、S525において、システム制御部50は、上述のS511と同様に、追尾中のモノの位置をAF位置に設定する。そして、S526において、システム制御部50は、上述のS512と同様に、表示部28に、AF位置として設定されたモノまたはその他の位置に対してAF結果枠を表示する。
In S524, the
なお、上述のS506,S512,S515,S520,S526で表示される各種AF結果枠は、AFを行った結果、合焦出来た場合と合焦出来なかった場合とで異なる表示形態で表示される。例えば、合焦した場合は緑色でAF結果枠を表示し、合焦できずに非合焦となった場合はグレーでAF結果枠を表示する。さらに、各種AF結果枠の表示と共に、AF結果通知音を発音させてもよい。この場合も、AFを行った結果として合焦出来た場合と合焦出来なかった場合とで異なる音で通知するものとする。例えば、合焦した場合は「ピピッ」と発音し、合焦できずに非合焦となった場合は「ピッ」と発音する。 It should be noted that the various AF result frames displayed in S506, S512, S515, S520, and S526 described above are displayed in different display formats depending on whether the focus is achieved or not as a result of AF. .. For example, the AF result frame is displayed in green when it is in focus, and the AF result frame is displayed in gray when it is out of focus because it cannot be focused. Further, the AF result notification sound may be sounded together with the display of various AF result frames. In this case as well, the notification shall be made with different sounds depending on whether the focus is achieved or not as a result of AF. For example, when it is in focus, it is pronounced as "pip", and when it cannot be focused and is out of focus, it is pronounced as "pip".
以上説明した上記実施形態によれば、瞳AFにおいて、顔領域を上下に等分し、上半分を瞳/下半分を顔選択領域とすることで、顔/瞳両方の選択を行いやすくし、利便性の高い撮像装置が提供される。また、瞳AFの入切設定に応じて適切なAF結果枠表示を行うことができ、ユーザーに対し違和感を抱かせないようにし、集中して撮影に臨んでもらうことが可能となる。 According to the above-described embodiment, in the pupil AF, the face region is divided into upper and lower equal parts, and the upper half is the pupil / lower half as the face selection region, so that both the face and the pupil can be easily selected. A highly convenient image pickup device is provided. In addition, it is possible to display an appropriate AF result frame according to the on / off setting of the pupil AF, so that the user does not feel uncomfortable and it is possible to concentrate on shooting.
なお、上記実施形態では、顔、瞳、モノの検出枠・追尾枠は、それぞれ同じ形状としたがこれに限られるものではなく、被写体の種類に応じて異なる形状の枠を表示するようにしてもよい。同じ形状の枠を用いた場合、顔、瞳、モノの全てを互いに等価な対象として選択するUIとなり、ユーザーにとっては被写体を気軽に切替えて撮影を楽しむことが可能となる。また、被写体の種類に応じて異なる形状の枠を用いる場合、どの対象が検出・追尾されているのかが明確に分かりやすくなる。もちろん、さらに瞳の左右で互いに異なる形状の枠を用いるようにしても良い。 In the above embodiment, the face, pupil, and object detection frame / tracking frame have the same shape, but the shape is not limited to this, and frames having different shapes are displayed depending on the type of subject. May be good. When a frame with the same shape is used, the UI selects all of the face, eyes, and objects as equivalent objects, and the user can easily switch the subject and enjoy shooting. Further, when frames having different shapes depending on the type of subject are used, it becomes easy to clearly understand which target is detected / tracked. Of course, frames having different shapes may be used on the left and right sides of the pupil.
なお、ここまで電子ビューファインダーを例に説明したが、光学ファインダーでもよい。また、ここまで述べた枠表現は、状況に応じて大きさが可変であってもよく、また一枠で構成されていなくてもよい。例えば光学ファインダーなど、予め表示部上に複数のAF点が表示されている場合には、タッチ位置を示す際にはタッチした指の位置および面積に応じて、複数のAF点の色を変更するなどして、タッチ位置を示すようにしても良い。 Although the electronic viewfinder has been described as an example so far, an optical viewfinder may also be used. Further, the frame representation described so far may be variable in size depending on the situation, and may not be composed of one frame. For example, when a plurality of AF points are displayed on the display unit in advance, such as in an optical viewfinder, when indicating the touch position, the colors of the plurality of AF points are changed according to the position and area of the touched finger. The touch position may be indicated by such means.
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
It should be noted that the above-mentioned various controls described as those performed by the
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiment thereof, the present invention is not limited to these specific embodiments, and various embodiments within the range not deviating from the gist of the present invention are also included in the present invention. included. Further, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be appropriately combined.
また、上述した実施形態においては、本発明を撮像装置に適用した場合を例にして説明したが、これはこの例に限定されるものではない。例えば、追尾枠や検出枠の表示に関しては、撮影された画像を表示する機能と画像上の位置を指定する機能を有した電子機器であれば適用可能である。例えば、撮影済みの画像を再生して顔、目、口、鼻を検出し、赤目補正する目を選ぶのか、別の理由で顔を選ぶのか(例えば人物名を入力する)といった際のタッチ操作に適用可能である。他にも、顔または器官を選択して行う処理としては次のようなものがある。顔全体または目を選択してモザイクまたはマスクをかける、目を選択して瞳の強調処理(大きくするなど)を行う、鼻を選択して大きく強調する画像処理を施す、顔全体または頬などを選択して美肌効果の画像処理を施す。口を選択して唇の赤みを強調する、光沢を付けるなどの画像処理を掛ける。これらのような場合の顔の器官の選択方法として、LV画像の変わりに、記録済み画像を対象として上述の処理を適用可能である。また、AF枠の表示に関しても、撮像機能がある各種電子機器に適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、シール印刷システムなどに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the image pickup apparatus has been described as an example, but the present invention is not limited to this example. For example, the display of the tracking frame and the detection frame can be applied to any electronic device having a function of displaying a captured image and a function of designating a position on the image. For example, a touch operation when playing back a captured image to detect the face, eyes, mouth, and nose and selecting the eyes for red-eye correction, or for another reason (for example, entering a person's name). Applicable to. Other processes for selecting a face or organ include the following. Select the entire face or eyes to apply a mosaic or mask, select the eyes to enhance the eyes (such as enlarging), select the nose to enhance the image, select the entire face or cheeks, etc. Select and apply image processing for skin-beautifying effect. Select the mouth and apply image processing such as emphasizing the redness of the lips and adding gloss. As a method for selecting facial organs in such cases, the above-mentioned processing can be applied to a recorded image instead of the LV image. Further, the display of the AF frame can also be applied to various electronic devices having an image pickup function. That is, the present invention can be applied to a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a printer device equipped with a display, a digital photo frame, a music player, a game machine, an electronic book reader, a sticker printing system, and the like. ..
また、上記実施形態ではタッチパネルへのタッチ操作により表示画面上の領域を指定したがこれに限られるものではなく、例えば、マウスによるマウスポインタの操作により画面上の領域(顔領域や瞳領域)を指定するようにしてもよい。また、上記実施形態では、追尾対象の器官として瞳を例示したが、これに限られるものではなく、例えば、鼻、口などの他の器官を追尾対象(AF対象)として指定可能としてもよい。例えば、口を追尾対象(AF対象)とする場合、顔領域を上下方向に半分に分け、下領域を口、上領域を顔というように関連づければよい。 Further, in the above embodiment, the area on the display screen is specified by the touch operation on the touch panel, but the present invention is not limited to this. For example, the area on the screen (face area or pupil area) is specified by operating the mouse pointer with the mouse. You may specify it. Further, in the above embodiment, the pupil is exemplified as the organ to be tracked, but the present invention is not limited to this, and for example, other organs such as the nose and mouth may be designated as the tracking target (AF target). For example, when the mouth is the tracking target (AF target), the face region may be divided in half in the vertical direction, the lower region may be associated with the mouth, and the upper region may be associated with the face.
また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。その場合、そのような制御装置は撮像装置のAF機構を制御するAF制御を実行することになる。すなわち、図5A、図5Bにより上述したAF処理は、撮像装置などの外部装置が有するAF機構を制御するためのAF制御であってもよい。 Further, the present invention can be applied not only to the image pickup device main body but also to a control device that communicates with an image pickup device (including a network camera) via wired or wireless communication and remotely controls the image pickup device. As a device for remotely controlling the image pickup device, for example, there is a device such as a smartphone, a tablet PC, or a desktop PC. The image pickup device can be controlled remotely by notifying the image pickup device of commands to perform various operations and settings from the control device side based on the operations performed on the control device side and the processing performed on the control device side. be. Further, the live view image taken by the image pickup device may be received via wired or wireless communication and displayed on the control device side. Further, the live view image taken by the image pickup device may be received via wired or wireless communication and displayed on the control device side. In that case, such a control device will execute AF control for controlling the AF mechanism of the image pickup device. That is, the AF process described above with reference to FIGS. 5A and 5B may be AF control for controlling the AF mechanism of an external device such as an image pickup device.
(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
28:表示パネル、28a背面表示パネル、28b:電子ビューファインダー、50:システム制御部、70:操作部、70a:タッチパネル、100:デジタルカメラ、200:記録媒体 28: Display panel, 28a rear display panel, 28b: Electronic viewfinder, 50: System control unit, 70: Operation unit, 70a: Touch panel, 100: Digital camera, 200: Recording medium
Claims (15)
ユーザー指示に応じて、画像内の領域を指定する指定手段と、
前記指定手段により指定された領域に対応するAF対象についてAFを行うように制御するAF制御手段と、
検出された画像内の被写体の顔に対応する領域を一部領域、検出された顔の器官が含まれる領域を特定領域とし、前記一部領域もしくは前記一部領域に含まれる前記特定領域のうち前記指定手段により指定された領域に応じて、前記被写体の顔と前記器官のいずれかをAF対象として指定できる第1の動作モードを含む複数の動作モードのうち、いずれかを設定する設定手段と、
AF対象の表示を前記画像に重畳して表示部に表示させる表示制御手段と、を備え、
前記第1の動作モードが設定されている場合、前記AF制御手段は、前記指定手段により前記一部領域が指定されていても前記一部領域に対応する顔に含まれる器官が前記検出手段により検出された場合には該検出された器官をAF対象として用い、前記表示制御手段は、AF対象の表示を前記検出された器官に対して行うこと、を特徴とする電子機器。 A detection means that detects the subject's face and facial organs from within the image,
A designated means for designating an area in an image according to user instructions,
AF control means that controls AF target corresponding to the area designated by the designated means so as to perform AF, and
The region corresponding to the face of the subject in the detected image is defined as a partial region, the region including the detected facial organs is defined as a specific region, and the partial region or the specific region included in the partial region is included. A setting means for setting one of a plurality of operation modes including a first operation mode in which either the face of the subject or the organ can be designated as an AF target according to the area designated by the designating means. ,
A display control means for superimposing the display of the AF target on the image and displaying it on the display unit is provided.
When the first operation mode is set, in the AF control means, even if the partial area is designated by the designated means, the organ included in the face corresponding to the partial area is detected by the detection means. An electronic device characterized in that, when detected, the detected organ is used as an AF target, and the display control means displays the AF target on the detected organ.
前記検出された状態であることを示すアイテムと前記指定された状態であることを示すアイテムの表現は異なることを特徴とする請求項7に記載の電子機器。 The item indicating the specified state is the same expression for the face or organ, and is
The electronic device according to claim 7, wherein the expression of the item indicating that the detected state and the item indicating the specified state are different.
前記指定手段は、前記第一の表示部へ前記画像を表示している間は、第一のタッチ操作によって前記第一の表示部の表示画面上における指定位置を決定し、
前記第二の表示部へ画像を表示している間は、前記第一のタッチ操作とは異なる第二のタッチ操作によって前記第二の表示部の表示画面上における指定位置を決定することを特徴とする請求項11に記載の電子機器。 The display unit has a first display unit and a second display unit different from the first display unit.
While the image is displayed on the first display unit, the designating means determines a designated position on the display screen of the first display unit by a first touch operation.
While the image is displayed on the second display unit, the designated position on the display screen of the second display unit is determined by a second touch operation different from the first touch operation. The electronic device according to claim 11.
ユーザー指示に応じて、画像内の領域を指定する指定ステップと、
前記指定ステップにより指定された領域に対応するAF対象についてAFを行うように制御するAF制御ステップと、
検出された画像内の被写体の顔に対応する領域を一部領域、検出された顔の器官が含まれる領域を特定領域とし、前記一部領域もしくは前記一部領域に含まれる前記特定領域のうち前記指定ステップにより指定された領域に応じて、前記被写体の顔と前記器官のいずれかをAF対象として指定できる第1の動作モードを含む複数の動作モードのうち、いずれかを設定する設定ステップと、
AF対象の表示を前記画像に重畳して表示部に表示させる表示制御ステップと、を備え、
前記第1の動作モードが設定されている場合、前記AF制御ステップは、前記指定ステップにより前記一部領域が指定されていても前記一部領域に対応する顔に含まれる器官が前記検出ステップにより検出された場合には該検出された器官をAF対象として用い、前記表示制御ステップは、AF対象の表示を前記検出された器官に対して行うこと、を特徴とする電子機器。 A detection step that detects the subject's face and facial organs from within the image,
A specification step that specifies an area in the image according to user instructions,
An AF control step that controls AF targets corresponding to the area designated by the designated step, and an AF control step that controls AF.
The region corresponding to the face of the subject in the detected image is defined as a partial region, the region including the detected facial organs is defined as a specific region, and the partial region or the specific region included in the partial region is included. A setting step for setting one of a plurality of operation modes including a first operation mode in which either the face of the subject or the organ can be designated as an AF target according to the area designated by the designation step. ,
A display control step for superimposing the display of the AF target on the image and displaying it on the display unit is provided.
When the first operation mode is set, in the AF control step, even if the partial area is designated by the designated step, the organ included in the face corresponding to the partial area is detected by the detection step. An electronic device characterized in that, when detected, the detected organ is used as an AF target, and the display control step displays the AF target on the detected organ.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021197868A JP2022027841A (en) | 2017-10-17 | 2021-12-06 | Electronic apparatus, program, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017201248A JP6991033B2 (en) | 2017-10-17 | 2017-10-17 | Electronic devices and their control methods |
JP2021197868A JP2022027841A (en) | 2017-10-17 | 2021-12-06 | Electronic apparatus, program, and storage medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017201248A Division JP6991033B2 (en) | 2017-10-17 | 2017-10-17 | Electronic devices and their control methods |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022027841A true JP2022027841A (en) | 2022-02-14 |
Family
ID=66544736
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017201248A Active JP6991033B2 (en) | 2017-10-17 | 2017-10-17 | Electronic devices and their control methods |
JP2021197868A Pending JP2022027841A (en) | 2017-10-17 | 2021-12-06 | Electronic apparatus, program, and storage medium |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017201248A Active JP6991033B2 (en) | 2017-10-17 | 2017-10-17 | Electronic devices and their control methods |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6991033B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024203796A1 (en) * | 2023-03-29 | 2024-10-03 | キヤノン株式会社 | Image processing apparatus, control method for image processing apparatus, imaging apparatus, and control method for imaging apparatus |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021010070A1 (en) | 2019-07-12 | 2021-01-21 | ||
JP7467071B2 (en) * | 2019-10-24 | 2024-04-15 | キヤノン株式会社 | Electronic device, electronic device control method, program, and storage medium |
JP7433860B2 (en) * | 2019-11-26 | 2024-02-20 | キヤノン株式会社 | Electronic devices and control methods for electronic devices |
JP7532042B2 (en) | 2020-02-03 | 2024-08-13 | キヤノン株式会社 | IMAGING CONTROL DEVICE, CONTROL METHOD FOR IMAGING CONTROL DEVICE, PROG |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09281385A (en) * | 1996-04-11 | 1997-10-31 | Canon Inc | Camera provided with line-of-sight detection function |
JP2003107335A (en) * | 2001-09-28 | 2003-04-09 | Ricoh Co Ltd | Image pickup device, automatic focusing method, and program for making computer execute the method |
JP2014017665A (en) * | 2012-07-09 | 2014-01-30 | Canon Inc | Display control unit, control method for display control unit, program, and recording medium |
JP2015096961A (en) * | 2014-12-16 | 2015-05-21 | オリンパスイメージング株式会社 | Imaging device |
JP2016197181A (en) * | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | Display control device and control method therefor |
JP2016197177A (en) * | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | Display control device and control method of the same, and imaging device |
JP2017123515A (en) * | 2016-01-05 | 2017-07-13 | キヤノン株式会社 | Electronic apparatus and control method therefor |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7298412B2 (en) | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
JP2010186098A (en) | 2009-02-13 | 2010-08-26 | Panasonic Corp | Imaging apparatus |
JP5669549B2 (en) | 2010-12-10 | 2015-02-12 | オリンパスイメージング株式会社 | Imaging device |
-
2017
- 2017-10-17 JP JP2017201248A patent/JP6991033B2/en active Active
-
2021
- 2021-12-06 JP JP2021197868A patent/JP2022027841A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09281385A (en) * | 1996-04-11 | 1997-10-31 | Canon Inc | Camera provided with line-of-sight detection function |
JP2003107335A (en) * | 2001-09-28 | 2003-04-09 | Ricoh Co Ltd | Image pickup device, automatic focusing method, and program for making computer execute the method |
JP2014017665A (en) * | 2012-07-09 | 2014-01-30 | Canon Inc | Display control unit, control method for display control unit, program, and recording medium |
JP2015096961A (en) * | 2014-12-16 | 2015-05-21 | オリンパスイメージング株式会社 | Imaging device |
JP2016197181A (en) * | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | Display control device and control method therefor |
JP2016197177A (en) * | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | Display control device and control method of the same, and imaging device |
JP2017123515A (en) * | 2016-01-05 | 2017-07-13 | キヤノン株式会社 | Electronic apparatus and control method therefor |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024203796A1 (en) * | 2023-03-29 | 2024-10-03 | キヤノン株式会社 | Image processing apparatus, control method for image processing apparatus, imaging apparatus, and control method for imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2019075719A (en) | 2019-05-16 |
JP6991033B2 (en) | 2022-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6991033B2 (en) | Electronic devices and their control methods | |
JP6602361B2 (en) | Electronic device and control method thereof | |
WO2018042824A1 (en) | Imaging control apparatus, display control apparatus, and control method therefor | |
JP2019120748A (en) | Electronic equipment and method of controlling the same | |
JP7009096B2 (en) | Electronic devices and their control methods | |
US20210176404A1 (en) | Electronic apparatus and method for controlling the same | |
JP6833505B2 (en) | Imaging control device and its control method | |
JP6701145B2 (en) | Electronic device and control method thereof | |
JP6397454B2 (en) | IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP7129294B2 (en) | Electronics and area selection method | |
JP7049195B2 (en) | Electronic devices and their control methods, programs, and storage media | |
JP6460868B2 (en) | Display control apparatus and control method thereof | |
JP2014228629A (en) | Imaging apparatus, control method and program thereof, and storage medium | |
JP6512961B2 (en) | Imaging control apparatus, control method therefor, program, and storage medium | |
JP2014017665A (en) | Display control unit, control method for display control unit, program, and recording medium | |
JP7049179B2 (en) | Imaging control device and its control method, program and storage medium | |
JP2009060291A (en) | Image processing apparatus, image processing method and program | |
JP6808480B2 (en) | Imaging control device and its control method | |
JP6324278B2 (en) | Imaging apparatus, image processing apparatus, and control method thereof | |
JP6630337B2 (en) | Electronic device and control method thereof | |
JP6765901B2 (en) | Imaging device and its control method, program, and storage medium | |
JP6768449B2 (en) | Imaging control device, control method and program of imaging device | |
JP6765902B2 (en) | Display control device and its control method, program, and storage medium | |
JP6407017B2 (en) | Display control apparatus and control method thereof | |
JP6779777B2 (en) | Imaging control device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221101 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230105 |