Nothing Special   »   [go: up one dir, main page]

JP2018042191A - Imaging control device, control method for imaging apparatus, and program - Google Patents

Imaging control device, control method for imaging apparatus, and program Download PDF

Info

Publication number
JP2018042191A
JP2018042191A JP2016176667A JP2016176667A JP2018042191A JP 2018042191 A JP2018042191 A JP 2018042191A JP 2016176667 A JP2016176667 A JP 2016176667A JP 2016176667 A JP2016176667 A JP 2016176667A JP 2018042191 A JP2018042191 A JP 2018042191A
Authority
JP
Japan
Prior art keywords
touch
touch panel
detected
area
finder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016176667A
Other languages
Japanese (ja)
Inventor
浩平 勝又
Kohei Katsumata
浩平 勝又
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016176667A priority Critical patent/JP2018042191A/en
Publication of JP2018042191A publication Critical patent/JP2018042191A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability of a touch operation on a touch panel that is disposed near a finder, the touch operation being performed while looking through the finder.SOLUTION: An imaging control device comprises: touch detection means capable of detecting a touch operation by detecting that an object approaches a touch panel outside of a finder; and control means by which, in a case where a touch operation closer to the touch panel than a second distance shorter than a first distance is detected in a first region of a predetermined area or more in which it is detected that the object approaches the touch panel more than the first distance, control is performed in such a manner that processing corresponding to the touch operation in the first region is not performed and in a case where the touch operation is detected in a second region less than the predetermined area in which it is detected that the object approaches the touch panel more than the first distance, control is performed in such a manner that the processing corresponding to the touch operation in the second region is performed.SELECTED DRAWING: Figure 2

Description

本発明は、ファインダ外にあるタッチパネルへのタッチ操作を受け付け可能な撮像制御装置、撮像装置の制御方法、プログラム及びコンピュータ読み取り可能な記憶媒体に関する。   The present invention relates to an imaging control apparatus capable of receiving a touch operation on a touch panel outside a finder, a control method for the imaging apparatus, a program, and a computer-readable storage medium.

タッチパネルにおいてユーザの指以外のものが意図せずタッチしてしまい、ユーザの意図しない処理が行われてしまうことがある。特許文献1には、タッチパネルから所定距離離れた領域において検出された指示体の扁平率が大きい場合には、指示体が手の平や指の付け根であるとして、タッチ点を無効にすることが記載されている。   On the touch panel, something other than the user's finger may touch unintentionally, and processing unintended by the user may be performed. Patent Document 1 describes that when the flatness ratio of the indicator detected in a region away from the touch panel by a predetermined distance is large, the touch point is invalidated assuming that the indicator is the palm or the base of the finger. ing.

特開2014−178868号公報JP 2014-178868 A

接眼ファインダの下方にタッチパネルが配置されるデジタルカメラ等の撮像装置においては、ユーザが接眼ファインダを覗いたときに、ユーザの鼻がタッチパネルにタッチし、ユーザの意図しない処理が行われてしまうことがあった。接眼ファインダを覗いた状態では、意図せずタッチしてしまった鼻先と、意図してタッチした指とのタッチの形が同じになる可能性がある。よって、特許文献1の方法では、タッチを有効にするか否かを正確に判定できず、意図しない処理が行われたり、意図した処理が行われなかったりする可能性がある。   In an imaging apparatus such as a digital camera in which a touch panel is disposed below the eyepiece finder, when the user looks into the eyepiece finder, the user's nose touches the touch panel, and processing that is not intended by the user may be performed. there were. When looking through the eyepiece finder, there is a possibility that the touch shape of the nose tip that has been unintentionally touched and the finger that has been intentionally touched will be the same. Therefore, in the method of Patent Literature 1, it is not possible to accurately determine whether or not to enable touch, and there is a possibility that unintended processing is performed or intended processing is not performed.

本発明は上記のような点に鑑みてなされたものであり、ファインダを覗きながら行うファインダの近くに配置されるタッチパネルへのタッチ操作の操作性を向上させることを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to improve the operability of a touch operation on a touch panel arranged near a finder while looking through the finder.

本発明の撮像制御装置は、ファインダ外にあるタッチパネルに物体が接近していることの検知によりタッチ操作を検出可能なタッチ検出手段と、前記タッチパネルへ物体が第1の距離よりも接近していることが検出された所定の面積以上の第1の領域への、前記第1の距離よりも短い第2の距離よりも前記タッチパネルに接近したタッチ操作が検出された場合には、前記第1の領域への前記タッチ操作に応じた処理を行わず、前記タッチパネルへ物体が前記第1の距離よりも接近していることが検出された前記所定の面積未満である第2の領域への前記タッチ操作が検出された場合には、前記第2の領域への前記タッチ操作に応じた処理を行うように制御する制御手段とを有することを特徴とする。   The imaging control apparatus of the present invention includes a touch detection unit capable of detecting a touch operation by detecting that an object is approaching a touch panel outside the viewfinder, and the object is closer to the touch panel than a first distance. When a touch operation closer to the touch panel than a second distance shorter than the first distance to a first area having a detected predetermined area or more is detected, the first area is detected. The touch on the second area that is less than the predetermined area where it is detected that an object is closer to the touch panel than the first distance without performing a process according to the touch operation on the area. And a control unit configured to perform control so as to perform processing according to the touch operation on the second area when an operation is detected.

本発明によれば、ファインダを覗きながら行うファインダの近くに配置されるタッチパネルへのタッチ操作の操作性を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the operativity of the touch operation to the touchscreen arrange | positioned near the finder performed while looking into a finder can be improved.

実施形態に係るデジタルカメラの外観図である。1 is an external view of a digital camera according to an embodiment. 実施形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on embodiment. 実施形態に係るデジタルカメラが実行するタッチパネルへのタッチ操作の検出処理を示すフローチャートである。It is a flowchart which shows the detection process of the touch operation to the touch panel which the digital camera which concerns on embodiment performs. タッチパネルの構成例を示す図である。It is a figure which shows the structural example of a touchscreen. 実施形態に係るデジタルカメラにおける無効領域とタッチ位置との関係を示す図である。It is a figure which shows the relationship between the invalid area | region and touch position in the digital camera concerning embodiment.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。
図1に、実施形態に係る撮像制御装置の一例である、レンズ交換可能な一眼レフタイプのデジタルカメラの外観図を示す。図1(a)はデジタルカメラの前面斜視図、図1(b)はデジタルカメラの背面斜視図である。デジタルカメラは、カメラ本体100と、カメラ本体100に着脱可能に装着される交換レンズタイプのレンズユニット150とを備える。なお、図1では、カメラ本体100のみ、すなわちレンズユニット150を取り外した状態を示す。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is an external view of a single-lens reflex digital camera with interchangeable lenses, which is an example of an imaging control apparatus according to an embodiment. 1A is a front perspective view of the digital camera, and FIG. 1B is a rear perspective view of the digital camera. The digital camera includes a camera body 100 and an interchangeable lens type lens unit 150 that is detachably attached to the camera body 100. In FIG. 1, only the camera body 100, that is, the lens unit 150 is removed.

図1において、レンズユニット150を機械的に結合するマウントに通信端子10が設けられており、カメラ本体100は通信端子10を介してレンズユニット150と通信を行う。カメラ本体100内に設置されたクイックリターンミラー(以下、ミラーと称する)12は、不図示のアクチュエータによりアップダウンされ、レンズユニット150を通ってくる光を接眼ファインダ16側/撮像部22(図2を参照)側に選択的に導く。   In FIG. 1, a communication terminal 10 is provided on a mount that mechanically couples the lens unit 150, and the camera body 100 communicates with the lens unit 150 via the communication terminal 10. A quick return mirror (hereinafter referred to as a mirror) 12 installed in the camera body 100 is raised and lowered by an actuator (not shown), and the light passing through the lens unit 150 is sent to the eyepiece finder 16 side / imaging unit 22 (FIG. 2). See)) selectively to the side.

カメラ本体100の背面において、表示部28の周辺に所定の部位である接眼ファインダ16が配置され、図1に示すようにデジタルカメラが横位置にある状態で、表示部28の上部に接眼ファインダ16が配設されている。接眼ファインダ16は、フォーカシングスクリーン13(図2を参照)を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型の光学ファインダである。表示部28は、画像や各種情報を表示する表示部である。表示部28は、TFT方式のLCD等からなり、タッチパネル29が設けられている。接眼センサ55は、ファインダ接近手段として機能し、接眼ファインダ16への物体の近接、すなわち接眼ファインダ16への接眼を検知する。   On the back surface of the camera body 100, an eyepiece finder 16 as a predetermined part is arranged around the display unit 28, and the eyepiece finder 16 is disposed above the display unit 28 in a state where the digital camera is in a horizontal position as shown in FIG. Is arranged. The eyepiece finder 16 is a peeping type optical finder for observing the focusing screen 13 (see FIG. 2) to confirm the focus and composition of the optical image of the subject obtained through the lens unit 150. The display unit 28 is a display unit that displays images and various types of information. The display unit 28 is composed of a TFT type LCD or the like, and is provided with a touch panel 29. The eyepiece sensor 55 functions as a finder approaching unit, and detects the proximity of an object to the eyepiece finder 16, that is, the eyepiece to the eyepiece finder 16.

モード切替スイッチ60は、各種モードを切り替えるための回転操作部材である。シャッターボタン61は、撮影指示を行うための操作部材である。メイン電子ダイヤル71は、シャッター速度や絞り等の設定値の変更等を行うための回転操作部材である。電源スイッチ72は、デジタルカメラの電源のON/OFFを切り替えるための操作部材である。サブ電子ダイヤル73は、選択枠の移動や画像送り等を行うための回転操作部材である。十字キー74は、上、下、左、右部分をそれぞれ押し込み可能な4方向キーであり、十字キー74の押した部分に応じた操作が可能である。SETボタン75は、選択項目の決定等を行うための操作部材である。   The mode change switch 60 is a rotation operation member for switching various modes. The shutter button 61 is an operation member for issuing a shooting instruction. The main electronic dial 71 is a rotation operation member for changing setting values such as a shutter speed and an aperture. The power switch 72 is an operation member for switching ON / OFF of the power of the digital camera. The sub electronic dial 73 is a rotation operation member for moving a selection frame, feeding an image, and the like. The cross key 74 is a four-way key that can be pressed in the upper, lower, left, and right portions, and can be operated in accordance with the pressed portion of the cross key 74. The SET button 75 is an operation member for determining a selection item.

LV(ライブビュー)ボタン76は、メニューボタンにおいてLVのON/OFFを切り替えるための操作部材であり、動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。拡大ボタン77は、撮影モードのライブビュー表示において拡大モードのON/OFF、及び拡大モード中の拡大率の変更を行うための操作部材であり、再生モードにおいては再生画像を拡大し、拡大率を増加させる指示に用いられる。縮小ボタン78は、拡大された再生画像の拡大率を低減させ、表示された画像を縮小させるための操作部材である。再生ボタン79は、撮影モード/再生モードを切り替えるための操作部材であり、撮影モード中に押下することで再生モードに移行し、記録媒体200(図2を参照)に記録された画像のうち最新の画像を表示部28に表示させることができる。   The LV (live view) button 76 is an operation member for switching ON / OFF of the LV with the menu button, and is used to start and stop moving image shooting (recording) in the moving image shooting mode. The enlargement button 77 is an operation member for turning on / off the enlargement mode and changing the enlargement ratio during the enlargement mode in the live view display in the shooting mode. In the reproduction mode, the reproduction image is enlarged and the enlargement ratio is set. Used to increase instructions. The reduction button 78 is an operation member for reducing the enlargement ratio of the enlarged reproduction image and reducing the displayed image. The playback button 79 is an operation member for switching between the shooting mode and the playback mode. When the playback button 79 is pressed during the shooting mode, the playback mode 79 shifts to the playback mode, and the latest of the images recorded on the recording medium 200 (see FIG. 2). These images can be displayed on the display unit 28.

グリップ部90は、ユーザがデジタルカメラを構えた際に右手で握りやすい形状とした保持部である。端子カバー40は、外部機器との接続ケーブルを接続するコネクタ(不図示)を保護するカバーである。蓋202は、記録媒体200を格納するスロットの蓋である。   The grip portion 90 is a holding portion that is shaped to be easily gripped with the right hand when the user holds the digital camera. The terminal cover 40 is a cover that protects a connector (not shown) that connects a connection cable with an external device. The lid 202 is a slot lid for storing the recording medium 200.

図2は、実施形態に係るデジタルカメラの構成を示すブロック図である。なお、図1で説明した構成要素には同一の符号を付す。
レンズユニット150において、絞り151及び撮像レンズ152により撮影光学系が構成される。なお、撮像レンズ152を1枚のレンズのように図示するが、フォーカスレンズを含む複数のレンズにより構成される。絞り駆動回路153は、絞り102の開口量を調節して、カメラ本体100側への入射光量を制御する。AF(オートフォーカス)駆動回路154は、フォーカスレンズの位置を調節して、合焦制御を行う。レンズシステム制御回路155は、レンズユニット150全体を制御する。レンズシステム制御回路155は、動作用の定数、変数、プログラム等を記憶するメモリを備える。また、レンズユニット150固有の番号等の識別情報、管理情報、開放絞り値や最小絞り値、焦点距離等の機能情報、現在や過去の各設定値等を保持する不揮発性メモリも備える。通信端子156は、レンズユニット150がカメラ本体100と通信を行うための通信端子である。
FIG. 2 is a block diagram illustrating a configuration of the digital camera according to the embodiment. In addition, the same code | symbol is attached | subjected to the component demonstrated in FIG.
In the lens unit 150, the diaphragm 151 and the imaging lens 152 constitute a photographing optical system. Although the imaging lens 152 is illustrated as a single lens, the imaging lens 152 includes a plurality of lenses including a focus lens. The aperture driving circuit 153 controls the amount of incident light on the camera body 100 side by adjusting the aperture amount of the aperture 102. An AF (autofocus) drive circuit 154 performs focus control by adjusting the position of the focus lens. The lens system control circuit 155 controls the entire lens unit 150. The lens system control circuit 155 includes a memory for storing operation constants, variables, programs, and the like. Also provided is a non-volatile memory that holds identification information such as a number unique to the lens unit 150, management information, function information such as an open aperture value, minimum aperture value, and focal length, and current and past set values. The communication terminal 156 is a communication terminal for the lens unit 150 to communicate with the camera body 100.

カメラ本体100において、ミラー12は、露光、ライブビュー撮影又は動画撮影が行われる場合にシステム制御部50から指示されて、アクチュエータによりアップダウンされる。ミラー12は、通常時は接眼ファインダ16に光束を導くよう反射させるように配されているが、撮影が行われる場合やライブビュー表示の場合には、撮像部22に光束を導くように上方に跳ね上がり、光束中から待避する(ミラーアップ)。また、ミラー12は、その中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。   In the camera body 100, the mirror 12 is instructed by the system control unit 50 when exposure, live view shooting, or moving image shooting is performed, and is raised and lowered by an actuator. Normally, the mirror 12 is arranged so as to reflect the light beam to the eyepiece finder 16, but when shooting or live view display, the mirror 12 is directed upward to guide the light beam to the imaging unit 22. Bounce up and save from the light beam (mirror up). Further, the mirror 12 is a half mirror so that the central part can transmit part of the light, and part of the light beam is transmitted so as to enter the focus detection part 11 for performing focus detection.

撮影者は、ペンタプリズム14と接眼ファインダ16を介して、フォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図を確認することができる。接眼センサ55は、接眼ファインダ16への接眼を検知する。
AE(自動露出)センサ17は、レンズユニット150を通して得た被写体の輝度を測光する。焦点検出部11は、システム制御部50にデフォーカス量情報を出力する。システム制御部50はそれに基づいてレンズユニット150を制御し、位相差AF処理を行う。
The photographer can confirm the focus and composition of the optical image of the subject obtained through the lens unit 150 by observing the focusing screen 13 via the pentaprism 14 and the eyepiece finder 16. The eye sensor 55 detects an eye contact with the eye finder 16.
The AE (automatic exposure) sensor 17 measures the luminance of the subject obtained through the lens unit 150. The focus detection unit 11 outputs defocus amount information to the system control unit 50. Based on this, the system control unit 50 controls the lens unit 150 to perform phase difference AF processing.

シャッター101は、システム制御部50の制御下で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子を含む。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換する。   The shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50. The imaging unit 22 includes an imaging device configured by a CCD, a CMOS device, or the like that converts an optical image into an electrical signal. The A / D converter 23 converts the analog signal output from the imaging unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF処理、AE処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。   The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. The image processing unit 24 performs predetermined calculation processing using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through the lens) AF processing, AE processing, and EF (flash pre-emission) processing are performed. The image processing unit 24 further performs predetermined calculation processing using the captured image data, and performs TTL AWB (auto white balance) processing based on the obtained calculation result.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像及び音声を格納するのに十分な記憶容量を有する。また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28により表示される。   Output data from the A / D converter 23 is directly written into the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23 and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, a moving image and sound for a predetermined time. The memory 32 also serves as an image display memory (video memory). The D / A converter 19 converts the image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28. Thus, the display image data written in the memory 32 is displayed on the display unit 28 via the D / A converter 19.

表示部28は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ変換し、表示部28に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)を行える。   The display unit 28 performs display according to the analog signal from the D / A converter 19 on a display such as an LCD. The digital signal once A / D converted by the A / D converter 23 and stored in the memory 32 is converted into an analog signal by the D / A converter 19 and sequentially transferred to the display unit 28 for display, thereby providing an electronic viewfinder. It functions and can perform live view display (live view display).

システム制御部50は、デジタルカメラの全体を制御する。不揮発性メモリ56は、システム制御部50の動作用の定数、プログラム等を記憶する。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。システム制御部50は、不揮発性メモリ56に格納されたプログラムを実行することで、後述する各処理を実現する。システムメモリ52は、RAMが用いられ、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。   The system control unit 50 controls the entire digital camera. The nonvolatile memory 56 stores constants, programs, and the like for operation of the system control unit 50. Here, the program is a program for executing various flowcharts described later in the present embodiment. The system control unit 50 implements each process described later by executing a program stored in the nonvolatile memory 56. The system memory 52 uses a RAM and develops constants and variables for operation of the system control unit 50, a program read from the nonvolatile memory 56, and the like. The system control unit 50 also performs display control by controlling the memory 32, the display unit 28, and the like.

システムタイマ53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
通知部54は、システム制御部50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を外部に通知する。通知部54としては、例えばLCDやLED等による視覚的な表示を行う表示部や、音声による通知を行う発音素子等が用いられるが、通知部54はこれらのうち1つ以上の組み合わせにより構成される。特に表示部の場合には、カメラ本体100の操作部70近辺の、視認しやすい、単数又は複数箇所に設置される。また、通知部54は、その一部の機能が接眼ファインダ16内に設置されている。通知部54の表示内容のうち、表示部28に表示するものとしては以下のものがある。まず、単写/連写撮影表示、セルフタイマー表示等、撮影モードに関する表示がある。また、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示等の記録に関する表示がある。また、シャッター速度表示、絞り値表示、露出補正表示、調光補正表示、外部フラッシュ発光量表示、赤目緩和表示等の撮影条件に関する表示がある。その他に、マクロ撮影表示、ブザー設定表示、電池残量表示、エラー表示、複数桁の数字による情報表示、記録媒体200の着脱状態表示がある。更に、レンズユニット150の着脱状態表示、通信I/F動作表示、日付・時刻表示、外部コンピュータとの接続状態を示す表示等も行われる。また、通知部54の表示内容のうち、接眼ファインダ16内に表示するものとしては、例えば、以下のものがある。合焦表示、撮影準備完了表示、手振れ警告表示、フラッシュ充電表示、フラッシュ充電完了表示、シャッター速度表示、絞り値表示、露出補正表示、記録媒体書き込み動作表示等である。
The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.
The notification unit 54 notifies the outside of an operation state, a message, and the like using characters, images, sounds, and the like according to the execution of the program in the system control unit 50. As the notification unit 54, for example, a display unit that performs visual display using an LCD, an LED, or the like, a sound generation element that performs voice notification, and the like are used. The In particular, in the case of a display unit, it is installed at a single or a plurality of locations near the operation unit 70 of the camera body 100 that are easily visible. In addition, the notification unit 54 is partially installed in the eyepiece finder 16. Among the display contents of the notification unit 54, the following are displayed on the display unit 28. First, there are displays relating to shooting modes such as single-shot / continuous-shot shooting display and self-timer display. In addition, there are displays relating to recording such as compression rate display, recording pixel number display, recording number display, and remaining image number display. In addition, there are displays relating to photographing conditions such as shutter speed display, aperture value display, exposure correction display, dimming correction display, external flash emission amount display, and red-eye reduction display. In addition, there are a macro photographing display, a buzzer setting display, a battery remaining amount display, an error display, an information display by a multi-digit number, and a recording medium 200 attachment / detachment state display. In addition, the attachment / detachment state display of the lens unit 150, the communication I / F operation display, the date / time display, the display indicating the connection state with the external computer, and the like are also performed. In addition, among the display contents of the notification unit 54, examples of what is displayed in the eyepiece finder 16 include the following. In-focus display, shooting preparation completion display, camera shake warning display, flash charge display, flash charge completion display, shutter speed display, aperture value display, exposure correction display, recording medium writing operation display, and the like.

モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判定モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、静止画撮影モードに含まれるこれらのモードのいずれかに直接切り替えられる。或いは、モード切替スイッチ60で静止画撮影モードに一旦切り換えた後に、静止画撮影モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。   The mode switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image recording mode, a reproduction mode, and the like. Modes included in the still image recording mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). In addition, there are various scene modes, program AE modes, custom modes, and the like which are shooting settings for each shooting scene. The mode changeover switch 60 can directly switch to one of these modes included in the still image shooting mode. Alternatively, the mode changeover switch 60 may be used to temporarily switch to the still image shooting mode and then switch to any of these modes included in the still image shooting mode using another operation member. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The first shutter switch 62 is turned on when the shutter button 61 is operated halfway (so-called shooting preparation instruction) and generates a first shutter switch signal SW1. In response to the first shutter switch signal SW1, operations such as AF processing, AE processing, AWB processing, and EF processing are started.
The second shutter switch 64 is turned ON when the operation of the shutter button 61 is completed, that is, when it is fully pressed (shooting instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of shooting processing operations from reading a signal from the imaging unit 22 to writing image data on the recording medium 200.

操作部70は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部70には、メイン電子ダイヤル71、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン76、拡大ボタン77、縮小ボタン78、再生ボタン79が含まれる。   The operation unit 70 is various operation members as an input unit that receives an operation from a user. The operation unit 70 includes a main electronic dial 71, a sub electronic dial 73, a cross key 74, a SET button 75, an LV button 76, an enlarge button 77, a reduce button 78, and a play button 79.

I/F18は、カメラ本体100に着脱可能な記録媒体200を制御するためのインタフェイスである。記録媒体200は、撮影された画像を記録するための記録媒体であり、メモリカード、ハードディスク装置等を用いることができる。   The I / F 18 is an interface for controlling the recording medium 200 that can be attached to and detached from the camera body 100. The recording medium 200 is a recording medium for recording a captured image, and a memory card, a hard disk device, or the like can be used.

電源制御部80は、電池検出回路、DC−DCコンバータ等により構成され、電源部30となる電池の装着の有無、電池残量の検出を行う。また、電源制御部80は、DC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各構成要素へ電力を供給する電力供給制御を行う。   The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, and the like, and detects whether or not a battery serving as the power supply unit 30 is attached and the remaining battery level. The power supply control unit 80 controls the DC-DC converter, and performs power supply control for supplying power to each component including the recording medium 200 for a necessary period of time with a necessary voltage.

本実施形態に係るデジタルカメラでは、接眼ファインダ外にある表示部28に対するタッチ(接触)を検出可能なタッチパネル29を備える。タッチパネル29は表示部28と一体的に構成することができる。例えばタッチパネル29を光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネル29における入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成することができる。   The digital camera according to the present embodiment includes a touch panel 29 that can detect a touch (contact) on the display unit 28 outside the eyepiece finder. The touch panel 29 can be configured integrally with the display unit 28. For example, the touch panel 29 is configured such that the light transmittance does not hinder the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel 29 are associated with the display coordinates on the display unit 28. Thereby, it is possible to configure a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 28.

システム制御部50は、タッチパネルへの以下のようなタッチ操作、或いは状態を検出することができる。
・タッチの開始、すなわちタッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと(タッチダウンと呼ぶ)。
・タッチパネルに指やペンでタッチしている状態であること(タッチオンと呼ぶ)。
・タッチパネルに指やペンでタッチしたまま移動していること(タッチムーブと呼ぶ)。
・タッチの終了、すなわちタッチパネルにタッチしていた指やペンを離したこと(タッチアップと呼ぶ)。
・タッチパネルに何もタッチしていない状態(タッチオフと呼ぶ)。
The system control unit 50 can detect the following touch operation or state on the touch panel.
Start of touch, that is, a finger or pen that has not touched the touch panel newly touched the touch panel (referred to as touchdown).
-Touching the touch panel with a finger or pen (referred to as touch-on).
-Moving while touching the touch panel with a finger or pen (referred to as touch move).
End of touch, that is, release of a finger or pen that touched the touch panel (referred to as touch-up).
A state where nothing is touched on the touch panel (referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていたすべての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
また、タッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行われたと判定するものとする。
When touchdown is detected, it is also detected that touch-on is performed at the same time. After touch-down, unless touch-up is detected, normally touch-on continues to be detected. The touch move is detected in a state where touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all the fingers or pens that have been touched are touched up, the touch is turned off.
Further, it is assumed that a stroke is drawn when touch-up is performed on the touch panel through a certain touch move from touch-down. The operation of drawing a stroke quickly is called a flick. A flick is an operation of quickly moving a certain distance while touching the finger on the touch panel and then releasing it, in other words, an operation of quickly tracing the finger on the touch panel. If it is detected that a touch move is performed at a predetermined speed or more at a predetermined speed or more, and a touch-up is detected as it is, it can be determined that a flick has been performed. In addition, when it is detected that a touch move is performed at a predetermined distance or more at a speed lower than a predetermined speed, it is determined that a drag has been performed.

これらの操作及び状態や、タッチパネル上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネルにどのようなタッチ操作が行われたかを判定する。タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分及び水平成分毎に判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合は、ドラッグが行われたと判定するものとする。
タッチパネルとしては抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式があるが、いずれの方式を採用してもよい。
These operations and states, and the position coordinates where the finger or pen touches the touch panel are notified to the system control unit 50 through the internal bus, and the system control unit 50 determines what touch on the touch panel based on the notified information. Determine whether an operation has been performed. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel can also be determined for each vertical component and horizontal component on the touch panel based on the change in position coordinates. In addition, when it is detected that a touch move is performed at a predetermined distance or more and less than a predetermined speed, it is determined that a drag has been performed.
There are various methods such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method, and any method may be adopted.

図3は、デジタルカメラが実行するタッチパネル29へのタッチ操作の検出処理を示すフローチャートである。図3のフローチャートに示す処理は、システム制御部50が、不揮発性メモリ56に格納されているプログラムをシステムメモリ52に展開して実行することにより実現される。
S301で、システム制御部50は、接眼センサ55により接眼ファインダ16への接眼が検知されたか否かを判定する。接眼ファインダ16への接眼が検知された場合、S302に処理を進め、接眼ファインダ16への接眼が検知されなかった場合、S313に処理を進める。例えば接眼センサ55により接眼ファインダ16への接眼が検知されたとき、表示部28を消灯させることで、接眼ファインダ16を覗くユーザの目に余計な光が入らないようにすることができる。ただし、表示部28を消灯させる動作と連動してタッチパネル29までは無効にしない。
FIG. 3 is a flowchart showing detection processing of a touch operation on the touch panel 29 executed by the digital camera. The processing shown in the flowchart of FIG. 3 is realized by the system control unit 50 expanding and executing the program stored in the nonvolatile memory 56 in the system memory 52.
In step S <b> 301, the system control unit 50 determines whether an eyepiece to the eyepiece finder 16 is detected by the eyepiece sensor 55. If an eyepiece to the eyepiece finder 16 is detected, the process proceeds to S302. If an eyepiece to the eyepiece finder 16 is not detected, the process proceeds to S313. For example, when an eyepiece to the eyepiece finder 16 is detected by the eyepiece sensor 55, the display unit 28 is turned off so that extra light does not enter the eyes of the user looking through the eyepiece finder 16. However, the touch panel 29 is not invalidated in conjunction with the operation of turning off the display unit 28.

S302で、システム制御部50は、タッチパネル29の静電容量を増幅させることにより、ホバー検出機能をオンにして、ホバー検出状態にする。ホバー検出状態にすることで、タッチパネル29の物理的なタッチを検出できると同時に、タッチパネル29に物体がタッチしそうな状態、すなわちタッチパネル29に物体が接近していることまで検出することが可能になる。なお、静電容量を増幅させなくても、後述する物体がタッチパネル29に接近したか否かを判定するための静電容量の変化量の閾値を変更したり、静電容量の変化量を増幅させたりするようにしてもよい。   In S <b> 302, the system control unit 50 amplifies the capacitance of the touch panel 29 to turn on the hover detection function and enter the hover detection state. By setting the hover detection state, a physical touch on the touch panel 29 can be detected, and at the same time, a state in which an object is likely to touch the touch panel 29, that is, an object approaching the touch panel 29 can be detected. . Even if the capacitance is not amplified, the threshold value of the change amount of the capacitance for determining whether or not an object described later approaches the touch panel 29 is changed, or the change amount of the capacitance is amplified. You may make it let it.

ここで、図4を参照して、タッチパネル29の詳細について説明する。タッチパネル29を構成するタッチパネルセンサ29aには、複数の列電極(X0〜X8)が横並びに、複数の行電極(Y0〜Y4)が縦並びに並んでおり、列電極と行電極同士が交わっている。交点Aは列電極X7と行電極Y2のセンサ交点を示している。
行電極は定電流回路に接続され、列電極は所定の電位に固定される。定電流回路により微弱な電流が流されると、列電極及び行電極間に発生する相互容量に電荷が蓄積される。1つのセンサ交点当たり複数回の蓄積を実施するサブスキャンを行い、積分回路にて積分を行う。1センサ交点(1スキャン)の測定の結果は、デジタル信号に変換される。この検出信号値の変化量を静電容量の変化量として測定することでタッチ検出の有無(物体の接近の有無)を判定することが可能である。
走査線駆動回路83は、走査線を順次選択し駆動する回路である。選択された走査線には、定電流回路により微弱な電流が流される。1走査線当たりのサブスキャン回数は、システム制御部50から制御回路81への指令により、任意に変更することが可能である。検出信号処理回路84は、読出線を順次選択して、検出信号を読み出す回路である。
走査線駆動回路83及び検出信号処理回路84は、制御回路81により供給されるクロック信号により駆動される。制御回路81は検出信号処理回路により出力された各電極の検出信号値が、任意のタッチ判定の閾値を超えているか否かを検出し、超えていればタッチ検出フラグをつけて、データをタッチパネルメモリ82に順次転送する。1フレームのスキャンが完了すると、タッチパネルメモリ82に格納された1フレームの検出データから、タッチ検出領域のグルーピング、及びタッチ位置の重心演算を行い、タッチ検出数と、タッチ検出座標およびタッチを算出する。本実施形態ではタッチ面積を閾値以上の静電容量の変化量が計測されたセンサ交点の合計数(タッチパネルに含まれるセンサのうち)により求める。
このとき、タッチパネル29の静電容量を増幅させたり、タッチ操作を検出するための閾値を小さくしたりすると、タッチパネル29にタッチしていないタッチパネル29に物体が接近していることを検出できるようになる。接近した物体の検出方法としては、静電容量の変化量だけでなく、赤外線を利用し物体までの距離を測定するもの、超音波を利用し物体までの距離を測定するもの、撮像素子で撮影された画像から接近を検知するものがある。
Here, the details of the touch panel 29 will be described with reference to FIG. In the touch panel sensor 29a constituting the touch panel 29, a plurality of column electrodes (X0 to X8) are arranged side by side and a plurality of row electrodes (Y0 to Y4) are arranged vertically, and the column electrodes and the row electrodes cross each other. . An intersection A indicates a sensor intersection of the column electrode X7 and the row electrode Y2.
The row electrodes are connected to a constant current circuit, and the column electrodes are fixed at a predetermined potential. When a weak current is caused to flow by the constant current circuit, charges are accumulated in the mutual capacitance generated between the column electrode and the row electrode. A sub-scan for performing accumulation a plurality of times per sensor intersection is performed, and integration is performed by an integration circuit. The measurement result of one sensor intersection (one scan) is converted into a digital signal. By measuring the amount of change in the detection signal value as the amount of change in capacitance, it is possible to determine the presence or absence of touch detection (the presence or absence of an approach of an object).
The scanning line driving circuit 83 is a circuit that sequentially selects and drives scanning lines. A weak current is caused to flow through the selected scanning line by the constant current circuit. The number of sub-scans per scanning line can be arbitrarily changed by a command from the system control unit 50 to the control circuit 81. The detection signal processing circuit 84 is a circuit that reads out detection signals by sequentially selecting readout lines.
The scanning line driving circuit 83 and the detection signal processing circuit 84 are driven by a clock signal supplied from the control circuit 81. The control circuit 81 detects whether or not the detection signal value of each electrode output by the detection signal processing circuit exceeds an arbitrary touch determination threshold value. If it exceeds, a touch detection flag is attached and the data is touched. The data is sequentially transferred to the memory 82. When scanning of one frame is completed, grouping of touch detection areas and center of gravity calculation of touch positions are performed from the detection data of one frame stored in the touch panel memory 82, and the number of touch detections, touch detection coordinates, and touch are calculated. . In the present embodiment, the touch area is obtained from the total number of sensor intersections (of the sensors included in the touch panel) in which the amount of change in electrostatic capacitance equal to or greater than the threshold value is measured.
At this time, if the capacitance of the touch panel 29 is amplified or the threshold for detecting a touch operation is reduced, it is possible to detect that an object is approaching the touch panel 29 that has not touched the touch panel 29. Become. Closed object detection methods include not only the amount of change in capacitance but also the distance to the object using infrared rays, the measurement of the distance to the object using ultrasound, and the image sensor. Some of them detect the approach from the captured images.

図3に説明を戻して、S303で、システム制御部50は、タッチパネル29へのタッチ操作が検出されたか否かを判定する。タッチ操作が検出された場合、S304に処理を進め、タッチ操作が検出されなかった場合、S301に処理を戻す。タッチパネル29へのタッチ操作は、タッチパネル29で検出された静電容量の変化量が閾値(所定値)以上であったか否かに応じて判定を行う。なお、S303におけるタッチ操作の検出とは、後述する物体の接近を検出する際よりもさらに物体がタッチパネル29に接近した状態を検出することである。
S304で、システム制御部50は、S303において検出されたタッチにタッチIDを付与する。タッチIDとは、検出したタッチ固有に割り振られるIDであり、タッチIDにはタッチ座標、タッチの有効無効が記録される。このようにタッチIDを付与することにより、例えば複数の指が交差等して入れ替わったときにもどの指がどれだけ動いたかを正確に判断することが可能になる。
Returning to FIG. 3, in S <b> 303, the system control unit 50 determines whether a touch operation on the touch panel 29 is detected. If a touch operation is detected, the process proceeds to S304. If a touch operation is not detected, the process returns to S301. The touch operation on the touch panel 29 is determined according to whether or not the amount of change in capacitance detected by the touch panel 29 is equal to or greater than a threshold value (predetermined value). Note that the detection of the touch operation in S303 is to detect a state in which the object is closer to the touch panel 29 than when an approach of an object described later is detected.
In S304, the system control unit 50 gives a touch ID to the touch detected in S303. The touch ID is an ID assigned to the detected touch, and the touch coordinates and the valid / invalid of the touch are recorded in the touch ID. By assigning the touch ID in this way, it is possible to accurately determine which finger has moved, for example, even when a plurality of fingers are interchanged due to crossing or the like.

S305で、システム制御部50は、タッチパネル29に物体が接近していることを検出したタッチパネル29の領域(以下、ホバー領域と呼ぶ)が所定の面積以上であるかを判定する。ホバー領域は、タッチパネル29の面から垂直に所定距離離れた位置へ物体があることを検出されたタッチパネル29上の領域のことである。物体の接近は、タッチパネル29において検出された静電容量の変化量が閾値を超えたか否かによって判定する。物体の接近とは、例えば3cm〜5cm程度の距離でタッチパネル29に接近している状態を指す。所定の面積以上のタッチパネル29上の領域が検出された場合、S306に処理を進め、所定の面積以上のタッチパネル29上の領域が検出されなかった場合、S311に処理を進める。ここでは、タッチパネル29の総面積に対してどれだけの面積が静電容量の変化量が閾値を超えたかを検出し、その面積が予め定められた面積以上となっている場合、タッチパネル29に指以外の大きな物体が覆い被さっていると判定して、S306に処理を進める。本実施形態では、所定の面積以上のタッチパネル29上のホバー領域を検出することが、表示部28に顔が接近する状態を検出したこととしている。図5に、ホバー検出機能により所定の面積以上のタッチパネル上の領域501を検出した状態を示す。所定の面積とは、接眼ファインダ16を覗いた時にパネル上に顔が覆い被される領域の広さ、例えば15cm2〜20cm2程度の面積とする。また、デジタルカメラを縦位置にして撮影を実施する場合には、所定の面積以上のホバー領域が検出されても、ユーザが接眼ファインダ16を覗いたときに、ユーザの鼻がタッチパネル29にタッチする可能性は低いので、タッチパネル29の全面でのタッチ操作を可能としてもよい。なお、ホバーを検出するための静電容量の変化量の閾値は、S303においてタッチ操作(接触)を検出した際の静電容量の変化量の閾値よりも小さく設定する。 In step S <b> 305, the system control unit 50 determines whether the area (hereinafter referred to as a hover area) of the touch panel 29 that detects that an object is approaching the touch panel 29 is greater than or equal to a predetermined area. The hover area is an area on the touch panel 29 where it is detected that there is an object at a position that is vertically separated from the surface of the touch panel 29 by a predetermined distance. The approach of an object is determined by whether or not the amount of change in capacitance detected on the touch panel 29 exceeds a threshold value. The approach of an object refers to a state of approaching the touch panel 29 at a distance of about 3 cm to 5 cm, for example. If a region on the touch panel 29 having a predetermined area or larger is detected, the process proceeds to S306. If a region on the touch panel 29 having a predetermined area or larger is not detected, the process proceeds to S311. Here, it is detected how much the capacitance change amount exceeds the threshold with respect to the total area of the touch panel 29, and when the area is equal to or larger than a predetermined area, the touch panel 29 is touched. It is determined that a large object other than is covered, and the process proceeds to S306. In the present embodiment, detecting a hover region on the touch panel 29 having a predetermined area or more detects a state in which a face approaches the display unit 28. FIG. 5 shows a state where an area 501 on the touch panel having a predetermined area or more is detected by the hover detection function. The predetermined area, the breadth of the area face is to be covered in the panel when viewed through the eyepiece finder 16, for example a 15cm 2 to 20 cm 2 approximately area. When shooting with the digital camera in the vertical position, the user's nose touches the touch panel 29 when the user looks into the eyepiece finder 16 even if a hover area larger than a predetermined area is detected. Since the possibility is low, a touch operation on the entire surface of the touch panel 29 may be possible. The threshold value of the change amount of the capacitance for detecting the hover is set smaller than the threshold value of the change amount of the capacitance when the touch operation (contact) is detected in S303.

S306で、システム制御部50は、S305において検出されたタッチパネル29の領域を無効領域として設定する。   In S306, the system control unit 50 sets the area of the touch panel 29 detected in S305 as an invalid area.

S307で、システム制御部50は、S304においてタッチID=nが付与されたタッチが、S306において設定された無効領域へのタッチ操作であるか否かを判定する。n=1〜Nであり、S312でnをインクリメントしながら、n=1〜NまでS307〜S310の処理を繰り返す。
S307においてタッチID=nが無効領域へのタッチ操作であると判定した場合、S308に処理を進め、システム制御部50は、タッチID=nを無効にする。一方、S307においてタッチID=nが無効領域外の領域へのタッチ操作であると判定した場合、S309に処理を進め、システム制御部50は、タッチID=nを有効にする。
S310で、システム制御部50は、すべてのタッチIDについて判定を終了したか否かを判定する。その結果、判定が終了していなければ、S312でnをインクリメントしてS307に処理を戻し、判定が終了していれば、S311に処理を進める。
In S307, the system control unit 50 determines whether or not the touch to which the touch ID = n is given in S304 is a touch operation on the invalid area set in S306. n = 1 to N, and the processing of S307 to S310 is repeated from n = 1 to N while incrementing n in S312.
If it is determined in S307 that the touch ID = n is a touch operation on the invalid area, the process proceeds to S308, and the system control unit 50 invalidates the touch ID = n. On the other hand, when it is determined in S307 that the touch ID = n is a touch operation to an area outside the invalid area, the process proceeds to S309, and the system control unit 50 validates the touch ID = n.
In step S310, the system control unit 50 determines whether determination has been completed for all touch IDs. As a result, if the determination is not completed, n is incremented in S312 and the process returns to S307. If the determination is completed, the process proceeds to S311.

S311で、システム制御部50は、有効なタッチIDのタッチ操作に応じた処理を実行する。具体的には、S305において所定の面積以上のタッチパネル29上の領域が検出されなかった場合、S303及びS304において検出され、タッチIDが付与されたすべてのタッチについて、各タッチ操作に応じた処理を実行する。一方、S305において所定の面積以上のタッチパネル29上の領域が検出された場合、S309において有効とされたタッチIDのタッチについて、各タッチ操作に応じた処理を実行する。
これにより、図5に示すように、S305において所定の面積以上のタッチパネル29上の領域501が検出された場合、ユーザの顔が覆い被さっているとして、その領域501を無効領域とする。そして、無効領域501へのタッチ操作502があった場合、ユーザの鼻がタッチした可能性が高いので、そのタッチ操作502を無効にする。その一方で、無効領域501外の領域でタッチ操作503があった場合、指等でタッチした可能性が高いので、そのタッチ操作503を有効にする。
In step S <b> 311, the system control unit 50 executes processing according to the touch operation with a valid touch ID. Specifically, when an area on the touch panel 29 having a predetermined area or more is not detected in S305, processing corresponding to each touch operation is performed for all touches detected in S303 and S304 and given touch IDs. Run. On the other hand, when an area on the touch panel 29 having a predetermined area or more is detected in S305, a process corresponding to each touch operation is executed for the touch with the touch ID validated in S309.
As a result, as shown in FIG. 5, when a region 501 on the touch panel 29 having a predetermined area or more is detected in S305, the user's face is covered and the region 501 is set as an invalid region. If there is a touch operation 502 on the invalid area 501, there is a high possibility that the user's nose has touched, so the touch operation 502 is invalidated. On the other hand, if there is a touch operation 503 outside the invalid area 501, the touch operation 503 is validated because there is a high possibility of touching with a finger or the like.

S316で、システム制御部50は終了条件を判定し、終了条件となっていなければ、S301に処理を戻す。   In step S316, the system control unit 50 determines an end condition. If the end condition is not satisfied, the process returns to step S301.

なお、S313で、システム制御部50は、タッチパネル29の静電容量を減らし、通常の検知状態に戻して、その後、S314に処理を進める。
S314で、システム制御部50は、タッチパネル29へのタッチ操作が検出されたか否かを判定する。タッチ操作が検出された場合、S315に処理を進め、S314において検出されたタッチに基づく処理を実行し、その後、S316に処理を進める。タッチ操作が検出されなかった場合、S316に処理を進める。
なお、S301においてNoと判定された場合には、ホバー検出状態にした上でホバー領域が検出されても対応するタッチパネル29の領域を無効領域としなくてもよい。すなわち、非接眼状態において所定の面積以上のホバー領域が検出されても、対応するタッチパネル29の領域を無効とせず、タッチ操作があったら有効にするようにしてもよい。ファインダへの接眼が検出されていない場合には、ホバー領域を検出するための静電容量の変化の閾値を小さくする、もしくはタッチパネル29への接触のみを検出するようにしてもよい。
In S313, the system control unit 50 reduces the capacitance of the touch panel 29 to return to the normal detection state, and then proceeds to S314.
In S <b> 314, the system control unit 50 determines whether a touch operation on the touch panel 29 has been detected. If a touch operation is detected, the process proceeds to S315, a process based on the touch detected in S314 is executed, and then the process proceeds to S316. If no touch operation is detected, the process proceeds to S316.
If it is determined No in S301, even if the hover area is detected after the hover detection state is set, the corresponding area of the touch panel 29 may not be set as the invalid area. That is, even if a hover area having a predetermined area or more is detected in the non-eyepiece state, the corresponding area of the touch panel 29 may not be invalidated and may be validated when a touch operation is performed. When the eyepiece to the finder is not detected, the threshold value of the capacitance change for detecting the hover region may be reduced, or only the touch on the touch panel 29 may be detected.

以上のように、接眼ファインダ16への接眼が検知されると、タッチパネル29をホバー検出状態にして、顔が覆い被さっていると考えられる領域があれば、この領域内でタッチがあったとしても鼻によるタッチとして無効にするようにしたので、タッチパネル29による直感的な操作性を確保しつつ、ユーザの意図しない操作による動作を防止することができる。
タッチ操作に応じた処理としては、特定の項目の設定値の変更、例えばファインダを覗きながらタッチパネル29上を操作し、AF位置、AE位置等を設定する処理がある。ファインダを覗きながらAF位置等の設定をする場合、タッチパネル29には表示がされていないが、タッチ操作を受付け可能な状態(タッチパッド機能が有効)である。また、ファインダ内のOVF上(露光上)に重なるように表示が可能なフォーカシングスクリーン13や、EVF(電子ビューファインダ)を見ながらユーザが操作を行えるようにしてもよい。例えばAF位置の設定であれば、フォーカシングスクリーン13上にAF枠が表示されており、ユーザがファインダを覗きながらタッチパネル29上にタッチ操作を行うとAF枠が移動する。このとき、ユーザの顔がタッチパネル29に近づき、鼻がタッチパネル29上にタッチしてしまうと、意図せず、鼻のタッチに応じてAF枠が移動してしまう可能性がある。しかしながら、上述したようにタッチパネル29に所定距離以上接近している所定の面積以上の領域(ファインダを覗く顔)が検出されたら、その領域に対応するタッチパネル29の領域を無効とすると、鼻のタッチを無効にすることができる。一方で、顔が接近し、所定距離以上タッチパネルに接近した所定の面積以上の領域が検出されたからといって、鼻のタッチによる意図しない処理を防止するために、タッチ操作を全て無効にしてしまうと、AF枠の移動ができなくなってしまう。また、タッチパネル29に接近する顔とタッチパネル29の間に指を入れてタッチ操作をするよりも、顔の接近していない領域においてタッチ操作をした方が指を動かしやすいので、無効領域を設けても操作性は低下しない。よって、顔の接近していない領域に対応するタッチパネル29上の領域は有効とする。ユーザは、ファインダを覗きながらタッチパネル29への操作を行うので、顔の接近していない領域へのタッチはユーザが意図して指でタッチをした可能性が高い。上述した実施形態によれば、ファインダを見ているユーザの鼻のタッチによる意図しないAF枠の移動処理が行われることを防ぎつつも、ユーザの意図した指のタッチ操作によるAF枠の移動処理は行うことができる。
As described above, when an eyepiece to the eyepiece finder 16 is detected, if there is an area where the touch panel 29 is in a hover detection state and the face is considered to be covered, even if there is a touch in this area Since it is invalidated as a touch with the nose, it is possible to prevent an operation caused by an operation not intended by the user while ensuring intuitive operability with the touch panel 29.
As a process corresponding to the touch operation, there is a process of changing a set value of a specific item, for example, operating the touch panel 29 while looking through the finder to set an AF position, an AE position, and the like. When setting the AF position or the like while looking through the viewfinder, the touch panel 29 is not displayed, but is in a state where a touch operation can be accepted (touch pad function is valid). Further, the user may be able to perform an operation while looking at the focusing screen 13 that can be displayed so as to overlap the OVF (on exposure) in the finder or the EVF (electronic view finder). For example, when the AF position is set, the AF frame is displayed on the focusing screen 13 and the AF frame moves when the user performs a touch operation on the touch panel 29 while looking through the viewfinder. At this time, if the user's face approaches the touch panel 29 and the nose touches the touch panel 29, the AF frame may move unintentionally in response to the nose touch. However, as described above, when a region of a predetermined area or more (face looking into the viewfinder) that is close to the touch panel 29 by a predetermined distance or more is detected, if the region of the touch panel 29 corresponding to the region is invalidated, the nose touch Can be disabled. On the other hand, all the touch operations are invalidated to prevent unintended processing due to the touch of the nose just because the face approaches and a region of a predetermined area or more close to the touch panel is detected for a predetermined distance or more. Then, the AF frame cannot be moved. In addition, it is easier to move a finger in a region where the face is not approaching than when a finger is placed between the face approaching the touch panel 29 and the touch panel 29, so an invalid region is provided. However, the operability does not decrease. Therefore, the area on the touch panel 29 corresponding to the area where the face is not approaching is valid. Since the user performs an operation on the touch panel 29 while looking through the viewfinder, there is a high possibility that the user intentionally touches the area where the face is not approaching with the finger. According to the above-described embodiment, the AF frame moving process by the finger touch operation intended by the user is prevented while the unintended AF frame moving process by the nose touch of the user looking at the finder is prevented. It can be carried out.

以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えばS306において設定された無効領域へのタッチ操作であるときでも、当該タッチ操作が所定の距離以上移動するものであれば、指によるタッチである可能が高いといえるので、当該タッチ操作を有効にしてもよい。
また、S306において設定された無効領域へのタッチ操作であるときでも、S305においてタッチパネル29上の領域が検出されてから所定の時間経過した後であれば、鼻によるタッチである可能性は低いといえるので、当該タッチ操作を有効にしてもよい。
また、S306において設定された無効領域外の領域でタッチがあり、そのタッチ位置が無効領域に移動した場合、そのタッチ操作を有効にしてもよい。すなわち、タッチの開始位置がS306において設定された無効領域内でなければ、そのタッチ操作は有効であるものとする。
Although the present invention has been described together with the embodiments, the above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention is interpreted in a limited manner by these. It must not be. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
For example, even when the touch operation is performed on the invalid area set in S306, if the touch operation moves more than a predetermined distance, it can be said that the touch operation is likely to be performed with a finger. May be.
Further, even when the touch operation is performed on the invalid area set in S306, if a predetermined time has elapsed after the area on the touch panel 29 is detected in S305, the possibility of a touch with the nose is low. Thus, the touch operation may be validated.
Further, when there is a touch outside the invalid area set in S306 and the touch position moves to the invalid area, the touch operation may be validated. That is, if the touch start position is not within the invalid area set in S306, the touch operation is valid.

なお、所定の面積はタッチパネル全体の面積の半分よりも大きくなると、タッチが無効となる領域も広くなってしまうので、操作性が低下してしまう可能性もある。よって、所定の面積はタッチパネルの半分以下とすると操作性が低下せずよい。   Note that if the predetermined area is larger than half of the entire area of the touch panel, the area where the touch is disabled becomes wide, and the operability may be reduced. Therefore, if the predetermined area is less than half of the touch panel, the operability may not be lowered.

また、上記実施形態では、S305において検出されたタッチパネル29上の領域をそのまま無効領域としたが、S305において検出されたタッチパネル29上の領域に基づいて無効領域が設定されればよい。例えばS305において検出されたタッチパネル29上の領域のうち一部だけを無効領域としてもよい。つまり、タッチパネルに3cm程度で接近しているホバー領域に対応するタッチパネル29上の領域のうち、2cm程度で接近しているホバー領域に対応するタッチパネル29上の領域を無効領域として設定するようにしてもよい。このように無効領域を設定することで、ユーザの鼻当たりといった意図しないタッチによる誤動作を防ぎつつ、ユーザのタッチ操作性を低下させないようにすることができる。   Moreover, in the said embodiment, although the area | region on the touch panel 29 detected in S305 was made into the invalid area | region as it is, the invalid area | region should just be set based on the area | region on the touch panel 29 detected in S305. For example, only a part of the area on the touch panel 29 detected in S305 may be set as the invalid area. That is, an area on the touch panel 29 corresponding to a hover area approaching at about 2 cm is set as an invalid area among areas on the touch panel 29 corresponding to a hover area approaching the touch panel at about 3 cm. Also good. By setting the invalid area in this way, it is possible to prevent the user's touch operability from being deteriorated while preventing an erroneous operation due to an unintended touch such as hitting the user's nose.

なお、システム制御部50が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、上述した実施形態においては、本発明をレンズ交換可能な一眼レフタイプのデジタルカメラに適用した場合を例にして説明したが、この例に限定されず、タッチパネルが設けられた撮像装置であれば適用可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又はコンピュータ読み取り可能な記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Note that the various controls described as being performed by the system control unit 50 may be performed by a single piece of hardware, or a plurality of pieces of hardware may share processing to control the entire apparatus. .
In the above-described embodiment, the case where the present invention is applied to a single-lens reflex digital camera with interchangeable lenses has been described as an example. However, the present invention is not limited to this example, and may be an imaging apparatus provided with a touch panel. If applicable.
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a computer-readable storage medium, and one or more processors in the computer of the system or apparatus are provided. It can also be realized by a process of reading and executing a program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

16:接眼ファインダ
28:表示部
29:タッチパネル
50:システム制御部
55:接眼センサ
100:カメラ本体
16: Eyepiece finder 28: Display unit 29: Touch panel 50: System control unit 55: Eyepiece sensor 100: Camera body

Claims (15)

ファインダ外にあるタッチパネルに物体が接近していることの検知によりタッチ操作を検出可能なタッチ検出手段と、
前記タッチパネルへ物体が第1の距離よりも接近していることが検出された所定の面積以上の第1の領域への、前記第1の距離よりも短い第2の距離よりも前記タッチパネルに接近したタッチ操作が検出された場合には、前記第1の領域への前記タッチ操作に応じた処理を行わず、前記タッチパネルへ物体が前記第1の距離よりも接近していることが検出された前記所定の面積未満である第2の領域への前記タッチ操作が検出された場合には、前記第2の領域への前記タッチ操作に応じた処理を行うように制御する制御手段とを有することを特徴とする撮像制御装置。
Touch detection means capable of detecting a touch operation by detecting that an object is approaching the touch panel outside the viewfinder;
It is closer to the touch panel than a second distance shorter than the first distance to a first area that is not less than a predetermined area where it is detected that an object is closer to the touch panel than the first distance. When the touch operation is detected, the processing corresponding to the touch operation on the first area is not performed, and it is detected that the object is closer to the touch panel than the first distance. Control means for controlling to perform processing according to the touch operation on the second region when the touch operation on the second region which is less than the predetermined area is detected. An imaging control device characterized by the above.
前記タッチ検出手段は、前記タッチパネルにおいて検出された静電容量の変化が所定の変化量であった場合に、前記タッチパネルに前記第1の距離よりも物体が接近したことを検出することを特徴とする請求項1に記載の撮像制御装置。   The touch detection unit detects that an object is closer to the touch panel than the first distance when a change in capacitance detected on the touch panel is a predetermined change amount. The imaging control apparatus according to claim 1. 前記ファインダへの物体の接近を検知するファインダ接近手段をさらに有し、
前記制御手段は、前記ファインダ接近手段により前記ファインダへの物体の接近を検知したときに、前記処理を行うように制御することを特徴とする請求項1又は2に記載の撮像制御装置。
A finder approach means for detecting approach of an object to the finder,
The imaging control apparatus according to claim 1, wherein the control unit performs control so that the processing is performed when the approach of the object to the finder is detected by the finder approach unit.
前記制御手段は、前記ファインダ接近手段により前記ファインダへの物体の接近が検知されたことに応じて、前記タッチパネルが前記第1の距離よりも接近した物体を検出できるように制御することを特徴とする請求項3に記載の撮像制御装置。   The control means performs control so that the touch panel can detect an object closer than the first distance in response to detection of an approach of the object to the finder by the finder approach means. The imaging control device according to claim 3. 前記制御手段は、前記ファインダ接近手段により前記ファインダへの物体の接近が検知されていない場合には、前記タッチパネルへ前記第1の距離よりも前記所定の面積以上の物体が接近していても、前記第1の距離よりも物体の接近している前記所定の面積以上の前記タッチパネルの領域へのタッチ操作に応じた処理を行うように制御することを特徴とする請求項3又は4に記載の撮像制御装置。   The control means, when the approach of the object to the finder is not detected by the finder approach means, even if an object of the predetermined area or more closer to the touch panel than the first distance, 5. The control according to claim 3, wherein the control is performed so as to perform a process according to a touch operation on the area of the touch panel that is larger than the predetermined area closer to the object than the first distance. Imaging control device. 前記制御手段は、前記ファインダ接近手段により物体の接近を検知したことに応じて、前記タッチパネルの静電容量を増幅する、又は前記タッチパネルへの前記物体の接近を検出するための静電容量の変化量の閾値を小さくするように制御することを特徴とする請求項3乃至5のいずれか1項に記載の撮像制御装置。   The control means amplifies the capacitance of the touch panel in response to detecting the approach of the object by the finder approach means, or changes in the capacitance for detecting the approach of the object to the touch panel The imaging control apparatus according to claim 3, wherein control is performed so as to reduce a threshold value of the amount. 前記制御手段は、前記第1の領域においてタッチが開始された後、タッチ位置が前記第2の領域に移動したことに応じて、前記第2の領域におけるタッチ操作に応じた処理を行うように制御することを特徴とする請求項1乃至6のいずれか1項に記載の撮像制御装置。   The control means performs processing corresponding to the touch operation in the second area in response to the touch position moving to the second area after the touch is started in the first area. The imaging control apparatus according to claim 1, wherein the imaging control apparatus controls the imaging control apparatus. 前記ファインダは、前記タッチパネルの上部に配設されていることを特徴とする請求項1乃至7のいずれか1項に記載の撮像制御装置。   The imaging control apparatus according to claim 1, wherein the finder is disposed on an upper part of the touch panel. 前記タッチパネルへのタッチ操作に応じた処理は、特定の項目の設定値の変更であることを特徴とする請求項1乃至8のいずれか1項に記載の撮像制御装置。   The imaging control apparatus according to claim 1, wherein the process according to the touch operation on the touch panel is a change of a setting value of a specific item. 前記特定の項目は、AF位置の設定、AE位置の設定のいずれかが含まれることを特徴とする請求項9に記載の撮像制御装置。   The imaging control apparatus according to claim 9, wherein the specific item includes either an AF position setting or an AE position setting. 前記ファインダ内には表示部があり、前記制御手段は、前記タッチパネルへの操作に応じて前記表示部に表示されるアイテムを移動するように制御することを特徴とする請求項1乃至10のいずれか1項に記載の撮像制御装置。   11. The display unit in the finder, wherein the control means controls to move an item displayed on the display unit in response to an operation on the touch panel. The imaging control device according to claim 1. 前記アイテムは、AF位置又はAE位置が設定された位置を示すアイテムであることを特徴とする請求項11に記載の撮像制御装置。   The imaging control apparatus according to claim 11, wherein the item is an item indicating a position where an AF position or an AE position is set. ファインダ外にあるタッチパネルに物体が接近していることの検知によりタッチ操作を検出するステップと、
前記タッチパネルへ物体が第1の距離よりも接近していることが検出された所定の面積以上の第1の領域への、前記第1の距離よりも短い第2の距離よりも前記タッチパネルに接近したタッチ操作が検出された場合には、前記第1の領域への前記タッチ操作に応じた処理を行わず、前記タッチパネルへ物体が前記第1の距離よりも接近していることが検出された前記所定の面積未満である第2の領域への前記タッチ操作が検出された場合には、前記第2の領域への前記タッチ操作に応じた処理を行うように制御するステップとを有することを特徴とする撮像装置の制御方法。
Detecting a touch operation by detecting that an object is approaching the touch panel outside the viewfinder;
It is closer to the touch panel than a second distance shorter than the first distance to a first area that is not less than a predetermined area where it is detected that an object is closer to the touch panel than the first distance. When the touch operation is detected, the processing corresponding to the touch operation on the first area is not performed, and it is detected that the object is closer to the touch panel than the first distance. Controlling to perform processing according to the touch operation to the second region when the touch operation to the second region having the area smaller than the predetermined area is detected. A control method for an imaging apparatus.
コンピュータを、請求項1乃至12のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the imaging control apparatus according to any one of claims 1 to 12. コンピュータを、請求項1乃至12のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium storing a program for causing a computer to function as each unit of the imaging control apparatus according to any one of claims 1 to 12.
JP2016176667A 2016-09-09 2016-09-09 Imaging control device, control method for imaging apparatus, and program Pending JP2018042191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016176667A JP2018042191A (en) 2016-09-09 2016-09-09 Imaging control device, control method for imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016176667A JP2018042191A (en) 2016-09-09 2016-09-09 Imaging control device, control method for imaging apparatus, and program

Publications (1)

Publication Number Publication Date
JP2018042191A true JP2018042191A (en) 2018-03-15

Family

ID=61624032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016176667A Pending JP2018042191A (en) 2016-09-09 2016-09-09 Imaging control device, control method for imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP2018042191A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022522491A (en) * 2019-03-01 2022-04-19 華為技術有限公司 Gesture processing method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022522491A (en) * 2019-03-01 2022-04-19 華為技術有限公司 Gesture processing method and device
JP7391102B2 (en) 2019-03-01 2023-12-04 華為技術有限公司 Gesture processing methods and devices

Similar Documents

Publication Publication Date Title
JP6748582B2 (en) Imaging device, control method thereof, program, and recording medium
US10216313B2 (en) Electronic apparatus and control method of the same
JP6602361B2 (en) Electronic device and control method thereof
JP6742730B2 (en) Electronic device and control method thereof
KR101653602B1 (en) Display control apparatus and control method therefor
JP6590666B2 (en) Electronic device and control method thereof
JP2018129765A (en) Imaging apparatus and control method
JP2018013745A (en) Electronic equipment and control method therefor
JP2017215852A (en) Electronic apparatus, its control method, program and recording medium
JP7492349B2 (en) Imaging device, control method thereof, program, and storage medium
JP2013255203A (en) Imaging apparatus, control method therefor, program, and storage medium
JP2018117186A (en) Imaging control device, imaging device, control method, program, and storage medium
JP2019075699A (en) Electronic device and control method of the same
JP2020204915A (en) Electronic apparatus and method for controlling the same
CN113364945A (en) Electronic apparatus, control method, and computer-readable medium
CN112015266A (en) Electronic device, control method of electronic device, and computer-readable storage medium
JP6071616B2 (en) Imaging apparatus, control method therefor, program, and storage medium
US11184528B2 (en) Electronic apparatus, control method therefor, and non-transitory computer readable medium
JP6701027B2 (en) Imaging device, control method thereof, and program
JP2018042191A (en) Imaging control device, control method for imaging apparatus, and program
JP2018148389A (en) Electronic device and control method thereof
JP7317559B2 (en) Electronics
JP2018085570A (en) Imaging apparatus, imaging method, and program
JP7129244B2 (en) ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM
JP6708516B2 (en) Electronic device, control method thereof, and program