Nothing Special   »   [go: up one dir, main page]

JP5370555B2 - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP5370555B2
JP5370555B2 JP2012197598A JP2012197598A JP5370555B2 JP 5370555 B2 JP5370555 B2 JP 5370555B2 JP 2012197598 A JP2012197598 A JP 2012197598A JP 2012197598 A JP2012197598 A JP 2012197598A JP 5370555 B2 JP5370555 B2 JP 5370555B2
Authority
JP
Japan
Prior art keywords
image
imaging
image quality
unit
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012197598A
Other languages
Japanese (ja)
Other versions
JP2013017218A (en
JP2013017218A5 (en
Inventor
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012197598A priority Critical patent/JP5370555B2/en
Publication of JP2013017218A publication Critical patent/JP2013017218A/en
Publication of JP2013017218A5 publication Critical patent/JP2013017218A5/en
Application granted granted Critical
Publication of JP5370555B2 publication Critical patent/JP5370555B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device capable of setting an image quality desired by a user with ease. <P>SOLUTION: An image processing device applied to an imaging device 1 has an image acquisition part 41, an input operation acceptance part 43, an image quality processing decision part 46, and an image quality processing information presentation part 47. The image acquisition part 41 acquires image data. The input operation acceptance part 43 accepts a selection operation in a predetermined range to the image data acquired by the image acquisition part 41. The image quality processing decision part 46 decides image quality processing to be performed to the image data acquired by the image acquisition part 41 on the basis of the predetermined range accepted by the input operation acceptance part 43. The image quality processing information presentation part 47 presents information related to the image quality processing decided by the image quality processing decision part 46. <P>COPYRIGHT: (C)2013,JPO&amp;INPIT

Description

本発明は、撮像装置、撮像方法及びプログラムに関する。 The present invention relates to an imaging apparatus, an imaging method, and a program.

近年、撮影条件や画像処理条件を設定することにより、設定した撮影条件で撮像動作をしたり設定した画像処理条件で画像処理を実行することが可能なデジタルカメラの需要が高まりつつある。
このような撮影条件や画像処理条件を設定することの困難性に鑑み、撮影時の周囲の環境等に基づいて、撮影条件や画像処理設定条件を自動的に設定するデジタルカメラが知られている(例えば、特許文献1参照)。
In recent years, by setting shooting conditions and image processing conditions, there is an increasing demand for digital cameras capable of performing an imaging operation under the set shooting conditions and performing image processing under the set image processing conditions.
In view of the difficulty of setting such shooting conditions and image processing conditions, a digital camera that automatically sets shooting conditions and image processing setting conditions based on the surrounding environment at the time of shooting is known. (For example, refer to Patent Document 1).

特開2008−11289号公報JP 2008-11289 A

しかしながら、特許文献1に記載のデジタルカメラは、自動的に撮影条件や画像処理条件を設定するため、少々演出が強い画質にあえて仕上げるような条件を設定する。したがって、撮影された後に画像処理が施された結果得られる画像は、ユーザにとって必ずしも満足のいく画質になっていなかった。   However, since the digital camera described in Patent Document 1 automatically sets shooting conditions and image processing conditions, a condition is set so that the image quality is slightly higher than that of a strong effect. Therefore, an image obtained as a result of image processing after being taken does not necessarily have a satisfactory image quality for the user.

一方で、撮影条件や画像処理条件の設定には多くの技術知識が必要である。このため、撮影条件や画像処理条件を手動で設定するモードを仮に設けた場合であっても、多くのユーザにとっては、的確な画質調整をすることは非常に困難であった。   On the other hand, a lot of technical knowledge is required for setting the shooting conditions and image processing conditions. For this reason, even if a mode for manually setting shooting conditions and image processing conditions is provided, it is very difficult for many users to perform accurate image quality adjustment.

本発明は、上記のような実情に鑑みてなされたものであり、ユーザの所望する画質を簡単に設定することが可能な撮像装置、撮像方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging apparatus, an imaging method, and a program that can easily set an image quality desired by a user.

上記目的を達成するため、本発明の一態様の撮像装置は、
撮像手段と、
前記撮像手段により撮像された画像において、所定の領域の選択操作を受け付ける受付手段と、
前記選択操作によって選択された領域の画像に基づいて、前記撮像手段によって画像を撮像する際の撮影条件を提示する提示手段と、
前記提示手段により提示された撮影条件の中から、選択操作に基づいて選択された撮影条件を現在の撮影条件として設定する設定手段と、
前記設定手段によって設定された撮影条件に従って前記撮像手段の撮像動作を制御する制御手段と、
前記撮像手段により撮像された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別手段と、
前記判別手段により判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する決定手段と、
前記判別手段により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像手段の撮影環境を含む撮影状況を判定する判定手段と、
を備え
前記提示手段は、前記決定手段により決定された前記選択領域、及び、前記判定手段により判定された前記撮影状況に基づいて、前記撮影条件を提示する、
ことを特徴とする。
In order to achieve the above object, an imaging device of one embodiment of the present invention includes:
Imaging means;
An accepting means for accepting an operation of selecting a predetermined area in the image captured by the image capturing means;
Presenting means for presenting photographing conditions when an image is picked up by the image pickup means based on an image of an area selected by the selection operation;
A setting unit for setting a shooting condition selected based on a selection operation from the shooting conditions presented by the presenting unit as a current shooting condition;
Control means for controlling the imaging operation of the imaging means in accordance with the imaging conditions set by the setting means;
Discrimination means for discriminating one or more types of target areas included in the image based on the data of the image taken by the imaging means;
A determining unit that determines, as a selection region, a target region that includes a region selected by the selection operation among the one or more types of target regions determined by the determination unit;
A determination unit that determines a shooting situation including a shooting environment of the imaging unit when capturing the image based on the one or more types of target areas determined by the determination unit;
Equipped with a,
The presenting means presents the photographing condition based on the selected area determined by the determining means and the photographing situation determined by the determining means.
It is characterized by that.

本発明によれば、ユーザの所望する画質を簡単に設定することができる。   According to the present invention, it is possible to easily set an image quality desired by a user.

本発明の画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an imaging apparatus 1 as an embodiment of an image processing apparatus of the present invention. 図1の撮像装置の機能的構成のうち、撮影処理を実行するための機能的構成を示すブロック図である。It is a block diagram which shows the functional structure for performing an imaging | photography process among the functional structures of the imaging device of FIG. 図1の撮像装置のROMに記憶されている参照テーブルの構造例を示している。2 shows an example of the structure of a reference table stored in the ROM of the imaging apparatus in FIG. 図1の撮像装置が実行する撮影処理の流れを説明するフローチャートである。3 is a flowchart for explaining a flow of imaging processing executed by the imaging apparatus of FIG. 1. 図4の撮影処理の開始時に表示されるライブビュー画像の一例である。FIG. 5 is an example of a live view image displayed at the start of the photographing process of FIG. 4. FIG. 撮影環境が「人物+逆光等」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。FIG. 5 is an example of a live view image displayed during the shooting process of FIG. 4 when the shooting environment is “person + backlight etc.”; 撮影環境が「人物+逆光等」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。FIG. 5 is an example of a live view image displayed during the shooting process of FIG. 4 when the shooting environment is “person + backlight etc.”; 撮影環境が「人物+逆光等」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。FIG. 5 is an example of a live view image displayed during the shooting process of FIG. 4 when the shooting environment is “person + backlight etc.”; 撮影環境が「夜景+人物」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。FIG. 5 is an example of a live view image displayed during the shooting process of FIG. 4 when the shooting environment is “night view + person”. 撮影環境が「人物」である場合の図4の撮影処理中に表示されるライブビュー画像の一例である。FIG. 5 is an example of a live view image displayed during the shooting process of FIG. 4 when the shooting environment is “person”.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 as an embodiment of an image processing apparatus of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、入力部18と、出力部19と、記憶部20と、角速度センサ21と、通信部22と、ドライブ23と、を備えている。   The imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging unit. 17, an input unit 18, an output unit 19, a storage unit 20, an angular velocity sensor 21, a communication unit 22, and a drive 23.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムにしたがって各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
例えば、画像処理部14は、撮像部17から出力される画像のデータに対して、後述の図2の画質処理情報設定部49により設定される画質処理情報に基づいてノイズ低減、ホワイトバランスの調整、手ぶれ補正等の各種画像処理を施す。
The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.
For example, the image processing unit 14 performs noise reduction and white balance adjustment on image data output from the imaging unit 17 based on image quality processing information set by an image quality processing information setting unit 49 in FIG. Various image processing such as camera shake correction is performed.

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、入力部18、出力部19、記憶部20、角速度センサ21、通信部22及びドライブ23が接続されている。   The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an input unit 18, an output unit 19, a storage unit 20, an angular velocity sensor 21, a communication unit 22, and a drive 23 are connected to the input / output interface 16.

撮像部17は、図示はしないがフォーカスレンズやズームレンズを含む光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit including a focus lens and a zoom lens, and an image sensor.

光学レンズ部は、被写体を撮影するために、フォーカスレンズやズームレンズ等の各種レンズで構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit includes various lenses such as a focus lens and a zoom lens in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Such an output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is appropriately supplied to the CPU 11.

このような撮像部17の動作は、CPU11によって、詳細には、後述の図2を参照して説明する撮像制御部51によって制御される。例えば、撮像制御部51は、撮像部17の各種撮像条件を設定する。例えば撮像制御部51は、撮像条件の1つとしてズーム倍率を設定し、設定したズーム倍率になるように、図示せぬレンズ駆動部を制御してズームレンズを駆動する。   The operation of the imaging unit 17 is controlled by the CPU 11 in detail by an imaging control unit 51 described with reference to FIG. For example, the imaging control unit 51 sets various imaging conditions for the imaging unit 17. For example, the imaging control unit 51 sets a zoom magnification as one of the imaging conditions, and controls a lens driving unit (not shown) to drive the zoom lens so that the set zoom magnification is obtained.

入力部18は、電源ボタン、シャッタボタン等、各種ボタン及びタッチパネルで構成され、ユーザの指示操作に応じて各種情報を入力する。   The input unit 18 includes various buttons and a touch panel such as a power button and a shutter button, and inputs various information according to a user's instruction operation.

タッチパネルの構造と方式については、特に限定されないが、抵抗膜方式や静電容量方式のタッチパネルが採用される。
抵抗膜方式のタッチパネルは、出力部19のディスプレイの表示画面上において、PET(Polyethylene terephthalate)のような柔らかい表面膜と、その奥にある液晶ガラス膜が並行に重ねられて形成される。双方の膜は、それぞれ透明な導電膜が貼り込まれており、透明なスペーサを介してそれぞれ電気的に絶縁されている。表面膜とガラス膜とはそれぞれ導体が通っており、表示画面に対して指或いはスタイラスペンのような突起物を接触させる操作(以下、「画面タッチ操作」と呼ぶ)をユーザが行うと、突起物による応力により表面膜が湾曲し、表面膜とガラス膜が部分的に導通状態となる。この時、突起物の接触位置に応じて電気抵抗値や電位が変化する。CPU11は、このような電気抵抗値や電位の変化に基づいて当該突起物の接触位置の座標を検出する。
The structure and method of the touch panel are not particularly limited, but a resistive film type or capacitive type touch panel is adopted.
The resistive film type touch panel is formed by superimposing a soft surface film such as PET (Polyethylene terephthalate) and a liquid crystal glass film in the back on the display screen of the output unit 19 in parallel. A transparent conductive film is attached to each of the films, and each film is electrically insulated via a transparent spacer. The surface film and the glass film each have a conductor, and when the user performs an operation of bringing a projection such as a finger or a stylus pen into contact with the display screen (hereinafter referred to as “screen touch operation”), the projection The surface film is bent by the stress caused by the object, and the surface film and the glass film are partially in a conductive state. At this time, the electrical resistance value and potential change according to the contact position of the protrusion. CPU11 detects the coordinate of the contact position of the said protrusion based on such an electrical resistance value or a change of electric potential.

出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
The output unit 19 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.

角速度センサ21は、撮像装置1の動きを、物理的かつ直接的に検出し、角速度を示す動き検出信号(ブレ信号)をCPU11に対して、詳細には後述の図2の撮像制御部51に対して出力する。
撮像制御部51は、例えばブレ信号を解析することにより、撮像装置1が三脚(図示せず)を取り付けて撮影されているという付帯条件を満たすか否かを判定することができる。
「付帯条件」とは、撮影条件又は画像処理の条件に直接的に分類されない条件であるが、撮像部17の撮像動作や画像処理部14の画像処理の結果に対して、何らかの影響を及ぼす条件であれば足りる。付帯条件は、任意の数の任意の種類の条件から構成される。即ち、撮像装置1が三脚(図示せず)を取り付けて撮影されていないという条件(以下、「三脚なし」と呼ぶ)は、付帯条件の例示にしか過ぎない。
具体的には、撮像制御部51は、解析した結果、受信したブレ信号が所定の閾値よりも小さいと判定したときには、撮像装置1が三脚に取り付けられていると判定する。他方、撮像制御部51は、受信したブレ信号が所定の閾値よりも大きいと判定したときには、撮像装置1が三脚に取り付けられておらず、手で持って撮影されていると判定する。
なお、撮像制御部51は、角速度センサ21で検出されるブレ信号に応じて補正量を算出し、撮像部17に設けられたアクチュエータによってイメージセンサを駆動させてもよい。この場合、アクチュエータは、撮像制御部51からの補正量に応じてイメージセンサを光学レンズ部の光軸と直交する方向に駆動する。
The angular velocity sensor 21 physically and directly detects the movement of the imaging device 1, and sends a motion detection signal (blur signal) indicating the angular velocity to the CPU 11, in detail to the imaging control unit 51 of FIG. 2 described later. Output.
The imaging control unit 51 can determine whether or not the incidental condition that the imaging apparatus 1 is photographed with a tripod (not shown) attached, for example, by analyzing a blur signal.
“Attachment conditions” are conditions that are not directly classified as shooting conditions or image processing conditions, but conditions that have some influence on the imaging operation of the imaging unit 17 and the results of image processing of the image processing unit 14. If it is enough. The incidental conditions are composed of an arbitrary number of arbitrary types of conditions. That is, the condition that the imaging device 1 is not photographed with a tripod (not shown) attached (hereinafter referred to as “no tripod”) is merely an example of the incidental condition.
Specifically, the imaging control unit 51 determines that the imaging device 1 is attached to a tripod when it is determined as a result of analysis that the received blur signal is smaller than a predetermined threshold. On the other hand, when the imaging control unit 51 determines that the received blur signal is greater than the predetermined threshold, the imaging control unit 51 determines that the imaging device 1 is not attached to the tripod and is captured by hand.
Note that the imaging control unit 51 may calculate the correction amount according to the shake signal detected by the angular velocity sensor 21 and drive the image sensor by an actuator provided in the imaging unit 17. In this case, the actuator drives the image sensor in a direction orthogonal to the optical axis of the optical lens unit according to the correction amount from the imaging control unit 51.

通信部22は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
ドライブ23には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ23によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。
The communication unit 22 controls communication with other devices (not shown) via a network including the Internet.
A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 23. The program read from the removable medium 31 by the drive 23 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、このような撮像装置1の機能的構成のうち、撮影処理を実行するための機能的構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a functional configuration for executing a photographing process among the functional configurations of the imaging apparatus 1 as described above.

ここでいう「撮影処理」とは、一般的な撮影処理を指すのではなく、次のような一連の処理をいう。即ち、撮像装置1は、撮影状況と、ユーザの画面タッチ操作とに基づいて、画質処理の設定に関する情報(以下、「画質処理情報」と呼ぶ)の中から、1以上の表示対象を決定し、当該1以上の表示対象を出力部19のディスプレイから表示させる。
ここで、画質処理とは、画像を撮像して記録するまでの間に実行される撮像装置1の処理のうち、当該画像の画質に影響を及ぼす処理をいう。ここでは、画像を撮像する前又は途中に撮像部17に対して実行される制御処理と、撮像部17から出力された撮像画像のデータ対して施す画像処理とが、画質処理の一例として採用されている。
ユーザは、このようにして表示された1以上の画質処理情報のうち、設定を所望する画質処理情報(それが表示されている画面内の領域)に対して画面タッチ操作を行う。
すると、撮像装置1は、画面タッチ操作が行われた画質処理情報を設定情報として設定する。そして、撮像装置1は、設定された設定情報に基づいて画質処理を実行する。
The “photographing process” here is not a general photographing process but a series of processes as follows. That is, the imaging apparatus 1 determines one or more display targets from information related to image quality processing settings (hereinafter referred to as “image quality processing information”) based on the shooting situation and the user's screen touch operation. The one or more display objects are displayed from the display of the output unit 19.
Here, the image quality process refers to a process that affects the image quality of the image among the processes of the imaging apparatus 1 that are executed until the image is captured and recorded. Here, control processing executed on the image capturing unit 17 before or during the image capturing and image processing performed on the captured image data output from the image capturing unit 17 are employed as an example of image quality processing. ing.
The user performs a screen touch operation on the image quality processing information desired to be set (area in the screen in which it is displayed) among the one or more image quality processing information displayed in this way.
Then, the imaging apparatus 1 sets the image quality processing information on which the screen touch operation has been performed as setting information. Then, the imaging apparatus 1 executes image quality processing based on the set setting information.

CPU11においては、撮影処理の実行が制御される場合、画像取得部41と、領域種別判別部42と、入力操作受付部43と、選択領域決定部44と、撮影状況判定部45と、画質処理決定部46と、画質処理情報提示部47と、表示制御部48と、画質処理情報設定部49と、が機能する。
また、CPU11においては、撮像部17を制御するために、撮像制御部51が機能する。
In the CPU 11, when execution of the shooting process is controlled, the image acquisition unit 41, the region type determination unit 42, the input operation reception unit 43, the selection region determination unit 44, the shooting situation determination unit 45, and the image quality processing The determination unit 46, the image quality processing information presentation unit 47, the display control unit 48, and the image quality processing information setting unit 49 function.
In the CPU 11, the imaging control unit 51 functions to control the imaging unit 17.

画像取得部41は、撮像部17から出力された撮像画像のデータを、ライブビュー画像のデータとして取得する。
即ち、CPU11等は、撮影処理の実行中やその前後に、ライブビュー撮像処理及びライブビュー表示処理を実行することで、ライブビュー画像を出力部19のディスプレイに表示させる。
具体的には、CPU11等は、例えば動作モードが撮像動作のモードに切り替えられると、撮像部17による撮像動作を継続させる。そして、CPU11等は、撮像部17による撮像動作が継続されている間、当該撮像部17から順次出力される撮像画像のデータを、メモリ(本実施形態では記憶部20)に一時的に記憶させる。このような一連の制御処理が、ここでいう「ライブビュー撮像処理」である。
また、CPU11等は、ライブビュー撮像処理の最中にメモリ(本実施形態では記憶部20)に一時的に記録された各撮像画像のデータを順次読み出して、当該撮像画像を出力部19に順次表示させる。このような一連の制御処理が、ここでいう「ライブビュー表示処理」である。また、ライブビュー表示処理により出力部19に表示されている撮像画像が、ここでいう「ライブビュー画像」である。
即ち、画像取得部41は、ライブビュー表示処理のうち、メモリに一時的に記憶されたライブビュー画像のデータを取得して、領域種別判別部42及び表示制御部48に供給する処理まで実行する。後述の表示制御部48は、当該ライブビュー画像を出力部19から表示出力する処理まで実行する。
The image acquisition unit 41 acquires captured image data output from the imaging unit 17 as live view image data.
That is, the CPU 11 and the like display the live view image on the display of the output unit 19 by executing the live view imaging process and the live view display process before and after the shooting process.
Specifically, the CPU 11 or the like continues the imaging operation by the imaging unit 17 when, for example, the operation mode is switched to the imaging operation mode. The CPU 11 and the like temporarily store captured image data sequentially output from the imaging unit 17 in the memory (the storage unit 20 in the present embodiment) while the imaging operation by the imaging unit 17 is continued. . Such a series of control processes is the “live view imaging process” referred to herein.
In addition, the CPU 11 and the like sequentially read out the data of each captured image temporarily recorded in the memory (the storage unit 20 in the present embodiment) during the live view imaging process, and sequentially output the captured image to the output unit 19. Display. Such a series of control processes is the “live view display process” referred to herein. Further, the captured image displayed on the output unit 19 by the live view display process is a “live view image” here.
That is, the image acquisition unit 41 acquires the live view image data temporarily stored in the memory in the live view display process, and executes the process up to the process of supplying the data to the region type determination unit 42 and the display control unit 48. . The display control unit 48 to be described later executes processing up to displaying the live view image from the output unit 19.

領域種別判別部42は、画像取得部41によって供給されたライブビュー画像のデータについて、1種類以上の対象領域を判別する。
「対象領域」とは、ライブビュー画像内において、特徴的な対象を示す領域をいう。ここで、対象とは、一般的に前景となるオブジェクトのみならず、「太陽光」や「青空」といった背景となるもの等、他の被写体(オブジェクト)と対比可能なものをいう。本実施形態では、対象領域の種類としては、「風景」、「青空」、「緑」、「夕日」、「人物」、「夜景」、「逆光」、「マクロ」、「アクション」等の各種領域が採用されている。
具体的には、領域種別判別部42は、ライブビュー画像のデータのうち色情報等を用いて、コントラスト変化を算出し、その算出結果に基づいて、当該ライブビュー画像に含まれる「人物」や「緑」等を示す領域を対象領域として判別する。
なお、対象領域の判別手法は、特にこれに限定されない。背景画像のエッジの画素値を利用して輪郭線を検出し、輪郭線内の領域を対象領域として判別する、といった手法を採用してもよい。
領域種別判別部42は、ライブビュー画像のデータと共に、当該ライブビュー画像内から判別した対象領域を特定可能な情報、例えば対象領域の位置座標を含む情報を選択領域決定部44に供給する。
The region type determination unit 42 determines one or more types of target regions for the live view image data supplied by the image acquisition unit 41.
The “target region” refers to a region indicating a characteristic target in the live view image. Here, the term “object” generally refers to an object that can be compared with other subjects (objects) such as a background such as “sunlight” and “blue sky” as well as an object that is a foreground. In the present embodiment, the types of target areas include various types such as “landscape”, “blue sky”, “green”, “sunset”, “person”, “night view”, “backlight”, “macro”, “action”, etc. The area is adopted.
Specifically, the region type determination unit 42 calculates the contrast change using color information or the like in the live view image data, and based on the calculation result, the “person” or the “person” included in the live view image is calculated. A region indicating “green” or the like is determined as a target region.
Note that the method for determining the target region is not particularly limited to this. A technique may be employed in which a contour line is detected using pixel values of the edge of the background image, and a region in the contour line is determined as a target region.
The region type determination unit 42 supplies information that can identify the target region determined from the live view image, for example, information including the position coordinates of the target region, to the selection region determination unit 44 together with the data of the live view image.

入力操作受付部43は、ユーザの入力部18に対する操作として、画像取得部41により取得されたライブビュー画像のデータに対し、所定の範囲の選択操作を受け付ける。
具体的には、ユーザは、出力部19の表示画面全体に表示されたライブビュー画像の中から、画質調整を行いたいと所望する所定範囲(入力部18のタッチパネル)に対して画面タッチ操作をすることで、当該所定範囲を選択することができる。
入力操作受付部43は、当該画面タッチ操作を受け付け、当該画面タッチ操作により選択された所定の範囲を認識し、その認識結果を選択領域決定部44に供給する。
なお、入力操作受付部43は、画面タッチ操作により所定の範囲を認識しているが、これに限られるものではなく、その他例えば、入力部18の選択範囲設定ボタン(図示せず)からの操作に基づき、所定の範囲を認識するようにしてもよい。
The input operation accepting unit 43 accepts a selection operation within a predetermined range for the live view image data acquired by the image acquiring unit 41 as an operation on the input unit 18 by the user.
Specifically, the user performs a screen touch operation on a predetermined range (touch panel of the input unit 18) desired to perform image quality adjustment from the live view images displayed on the entire display screen of the output unit 19. By doing so, the predetermined range can be selected.
The input operation reception unit 43 receives the screen touch operation, recognizes a predetermined range selected by the screen touch operation, and supplies the recognition result to the selection region determination unit 44.
The input operation accepting unit 43 recognizes a predetermined range by a screen touch operation, but is not limited to this. For example, an operation from a selection range setting button (not shown) of the input unit 18 Based on the above, a predetermined range may be recognized.

選択領域決定部44は、入力操作受付部43により認識された所定の範囲に基づいて、領域種別判別部42により判別された1以上の対象領域の中から、画質処理の処理対象としてユーザにより選択された領域(以下、「選択領域」と呼ぶ)を決定する。
具体的には、選択領域決定部44は、領域種別判別部42により判別された1以上対象領域の中から、入力操作受付部43により認識された所定の範囲を含む領域を、選択領域として決定する。
選択領域決定部44は、決定した選択領域を特定可能な情報を、画質処理決定部46に供給する。
Based on a predetermined range recognized by the input operation accepting unit 43, the selection region determining unit 44 selects the image quality processing target from one or more target regions determined by the region type determining unit 42 by the user. The selected area (hereinafter referred to as “selected area”) is determined.
Specifically, the selection region determination unit 44 determines a region including a predetermined range recognized by the input operation reception unit 43 as a selection region from one or more target regions determined by the region type determination unit 42. To do.
The selection region determination unit 44 supplies information that can specify the determined selection region to the image quality processing determination unit 46.

撮影状況判定部45は、付帯条件及び撮影環境に関する状況(以下、「撮影状況」と呼ぶ)を判定する。
「付帯条件」としては、角速度センサ21により検出されるブレ信号に基づいて判断される、上述した「三脚なし」の条件の他、撮像制御部51により設定された撮像部17のズーム倍率が一定以上に高いという条件(以下、「高ズーム時」と呼ぶ)を採用することができる。
「撮影環境」とは、撮像装置1の画角内に現時点で含まれる内容から特定される環境である。より具体的には、領域種別判別部42により判別された、ライブビュー画像に含まれる1以上の対象領域に基づいて特定される環境である。本実施形態では、「風景」、「風景+青空」、「風景+緑」、「風景+夕日」、「人物」、「風景+人物」、「夜景」、「夜景+人物」、「人物+逆光」、「マクロ」、「アクション」、及び「風景+青空+緑+人物+アクション+逆光」が撮影環境として採用されている。
撮影状況判定部45は、判定した撮影状況を示す情報を、画質処理決定部46に供給する。
The shooting situation determination unit 45 determines a situation (hereinafter referred to as “shooting situation”) related to the incidental conditions and the shooting environment.
As the “additional condition”, the zoom magnification of the imaging unit 17 set by the imaging control unit 51 is constant in addition to the above-mentioned “no tripod” condition determined based on the shake signal detected by the angular velocity sensor 21. It is possible to employ a condition of higher than the above (hereinafter referred to as “during high zoom”).
The “imaging environment” is an environment specified from the contents currently included in the angle of view of the imaging apparatus 1. More specifically, the environment is specified based on one or more target areas included in the live view image determined by the area type determination unit 42. In the present embodiment, “landscape”, “landscape + blue sky”, “landscape + green”, “landscape + sunset”, “person”, “landscape + person”, “night view”, “night view + person”, “person + “Backlight”, “macro”, “action”, and “landscape + blue sky + green + person + action + backlight” are employed as shooting environments.
The shooting situation determination unit 45 supplies information indicating the determined shooting situation to the image quality processing determination unit 46.

画質処理決定部46は、撮影状況判定部45により判定された撮影状況、及び選択領域決定部44により決定された選択領域に基づいて、画像取得部41により取得されたライブビュー画像のデータに対して施されるべき画質処理の1以上の候補を決定する。
具体的には、選択領域とは、上述したように、ライブビュー画像が表示されたディスプレイ(出力部19)の画面全体に重畳されるタッチパネル(入力部18)に対し、当該ライブビュー画像のうち、画質処理を行いたいと所望する範囲として画面タッチ操作された部位をいう。
そこで、以下、選択領域を「タッチ部位」とも呼ぶならば、画質処理決定部46は、ユーザによる画面タッチ操作により特定されたタッチ部位、並びに、撮影状況判定部45により判定された撮影環境及び付帯条件に基づいて、画質処理を決定する。さらに、画質処理決定部46は、決定した画質処理に関する情報(以下、「画質処理情報」と呼ぶ)を画質処理情報提示部47に提供する。
The image quality processing determination unit 46 applies the live view image data acquired by the image acquisition unit 41 based on the shooting status determined by the shooting status determination unit 45 and the selection area determined by the selection area determination unit 44. One or more candidates for image quality processing to be performed are determined.
Specifically, as described above, the selection area refers to the touch panel (input unit 18) superimposed on the entire screen of the display (output unit 19) on which the live view image is displayed. The area where the screen touch operation is performed as a desired range where image quality processing is desired.
Therefore, in the following, if the selected region is also referred to as “touch part”, the image quality processing determination unit 46 determines the touch part specified by the screen touch operation by the user, the shooting environment determined by the shooting state determination unit 45, and the incidental information. Based on the condition, the image quality processing is determined. Further, the image quality processing determination unit 46 provides information regarding the determined image quality processing (hereinafter referred to as “image quality processing information”) to the image quality processing information presentation unit 47.

より具体的には、画質処理決定部46は、ROM12に記録された参照テーブルに基づいて、画質処理情報を決定して、画質処理情報提示部47に供給する。そこで、以下この参照テーブルについて説明する。   More specifically, the image quality processing determining unit 46 determines image quality processing information based on the reference table recorded in the ROM 12 and supplies the image quality processing information to the image quality processing information presenting unit 47. The reference table will be described below.

図3は、図1の撮像装置のROM12に記憶されている参照テーブルの構造例を示している。
参照テーブルとは、「撮影環境」、「タッチ部位」及び「付帯条件」の組み合わせ(以下、「条件組み合わせ」と呼ぶ)と、「メニュー」、「実際の処理」及び「デフォルト」の組み合わせとの関係を示すテーブルである。したがって、参照テーブルの構造は、このような関係を示すものであれば足り、特に限定されないが、本実施形態では図3に示すように行列構造となっている。
図3の参照テーブルの所定行には、「撮影環境」、「タッチ部位」及び「付帯条件」で特定される所定の1つの条件組み合わせが対応付けられている。そして、当該所定行には、当該条件組み合わせに対して適用される、「メニュー」、「実際の処理」、及び「デフォルト」が格納される。
FIG. 3 shows an example of the structure of a reference table stored in the ROM 12 of the imaging apparatus shown in FIG.
The reference table is a combination of “imaging environment”, “touch part” and “incidental conditions” (hereinafter referred to as “condition combination”) and a combination of “menu”, “actual processing” and “default”. It is a table which shows a relationship. Therefore, the structure of the reference table is not particularly limited as long as it shows such a relationship, but in the present embodiment, it has a matrix structure as shown in FIG.
The predetermined row of the reference table in FIG. 3 is associated with one predetermined condition combination specified by “imaging environment”, “touch site”, and “accompanying condition”. In the predetermined row, “menu”, “actual processing”, and “default” applied to the condition combination are stored.

具体的には、所定行に格納される「メニュー」とは、当該所定行に対応付けられた条件組み合わせに対して適用される、画質処理情報の内容を示す情報である。この「メニュー」が、後述の画質処理情報提示部47によって提示される画質処理情報の内容である。
所定行に格納される「実際の処理」とは、当該所定行に対応付けられた条件組み合わせに対して適用される、画質処理の内容を示す情報をいう。即ち、この「実際の処理」が、画像処理部14により実際行われる後述の画像処理、及び撮像制御部51により実際行われる撮像処理のそれぞれの内容を示す。
所定行に格納される「デフォルト」とは、当該所定行に対応付けられた条件組み合わせに対して適用される、当該所定行の「実際の処理」に格納された各画質処理の各々について、実行の許可/禁止の状態のデフォルト(初期設定)を示す。ここで、所定の画像処理の実行の許可は「ON」により示され、当該所定の画像処理の実行の禁止は「OFF」により示される。即ち、デフォルトでONが設定されている画像処理は、ユーザが当該設定を「OFF」に変更しない限り、実行されることになる。一方、デフォルトでOFFが設定されている画像処理は、ユーザが当該設定を「ON」に変更しない限り、実行されない(実効が禁止される)ことになる。
Specifically, the “menu” stored in a predetermined line is information indicating the content of the image quality processing information applied to the condition combination associated with the predetermined line. This “menu” is the content of the image quality processing information presented by the image quality processing information presentation unit 47 described later.
“Actual processing” stored in a predetermined row refers to information indicating the content of image quality processing applied to a condition combination associated with the predetermined row. That is, this “actual processing” indicates the contents of each of image processing described later actually performed by the image processing unit 14 and imaging processing actually performed by the imaging control unit 51.
The “default” stored in the predetermined row is executed for each image quality process stored in the “actual processing” of the predetermined row, which is applied to the condition combination associated with the predetermined row. The default (initial setting) of the permission / prohibition state is shown. Here, permission to execute the predetermined image processing is indicated by “ON”, and prohibition of execution of the predetermined image processing is indicated by “OFF”. That is, image processing that is set to ON by default is executed unless the user changes the setting to “OFF”. On the other hand, image processing that is set to OFF by default is not executed (effective is prohibited) unless the user changes the setting to “ON”.

ここで注目すべき点は、図3に示すように、同じ「タッチ部位」が選択されたとしても、「撮影環境」や「付帯条件」に応じて、「メニュー(画質処理情報)」が異なる点である。
例えば、「タッチ部位」として「顔」が選択された場合であっても、「撮影環境」が「人物」である場合と、「撮影条件」が「人物+夜景」である場合とでは、「メニュー(画質処理情報)」が異なる。
具体的には、「撮影条件」が「人物」であって、「タッチ部位」が「顔」である場合には、「人物の顔をきれいに撮る」、「目をつぶっていない笑顔の瞬間をとらえる」、「ISO感度を上げて手ブレを防ぐ」という「メニュー(画質処理情報)」が決定される。
これに対して、「撮影環境」が「人物+夜景」であって、「タッチ部位」が「顔」である場合には、「フラッシュを発光して明るく写す」、「人物の顔をきれいに撮る」、「人物の顔のテカリを抑える」という「メニュー(画質処理情報)」が決定される。
The point to be noted here is that, as shown in FIG. 3, even if the same “touch part” is selected, the “menu (image quality processing information)” varies depending on the “imaging environment” and “incidental conditions”. Is a point.
For example, even when “face” is selected as the “touch part”, the “shooting environment” is “person” and the “shooting condition” is “person + night view”. Menu (image quality processing information) "is different.
Specifically, when the “shooting condition” is “person” and the “touch part” is “face”, “take a beautiful face of a person”, “ “Menu (image quality processing information)” “determining” and “raising ISO sensitivity to prevent camera shake” are determined.
On the other hand, when the “shooting environment” is “person + night view” and the “touch part” is “face”, “flashes to brighten the image”, “capturing the face of the person cleanly” “Menu (image quality processing information)” “decrease shine on human face” is determined.

また、「実際の処理」になり得る画質処理の種類は、図3に開示された例に特に限定されない。
但し本実施形態では、「実際の処理」となり得る画質処理としては、次の(1)乃至(10)の種類が採用される。なお、1の条件組み合わせに対して、「実際の処理」として対応付けられる画質処理の個数及び種類は特に限定されず、次の(1)乃至(10)の種類のうち、任意の数の任意の種類の組み合わせが対応付けられ得る。
(1)インテリジェントAF(フォーカスポイントの可変制御)
(2)人物メイクアップ
(3)風景メイクアップ(部分的彩度調整)
(4)全体彩度調整
(5)ホワイトバランス
(6)インテリジェントカラー(部分的色相調整)
(7)適応型ノイズリダクション
(8)適応型ISO感度制御〜シャッター速度制御
(9)適応型シャープネス
(10)ライティング(適応型ガンマカーブ調整)
Also, the type of image quality processing that can be “actual processing” is not particularly limited to the example disclosed in FIG. 3.
However, in the present embodiment, the following types (1) to (10) are adopted as image quality processing that can be “actual processing”. Note that the number and type of image quality processing associated with “actual processing” for one condition combination is not particularly limited, and an arbitrary number of arbitrary ones of the following types (1) to (10): Can be associated.
(1) Intelligent AF (Variable control of focus point)
(2) Person makeup (3) Landscape makeup (partial saturation adjustment)
(4) Overall saturation adjustment (5) White balance (6) Intelligent color (partial hue adjustment)
(7) Adaptive noise reduction (8) Adaptive ISO sensitivity control to shutter speed control (9) Adaptive sharpness (10) Lighting (Adaptive gamma curve adjustment)

画質処理情報提示部47は、画質処理決定部46により決定された画質処理情報をユーザに提示する制御を実行する。
ここで、提示の形態は、特に限定されず、例えば所定の音声により提示する形態を採用してもよいが、本実施形態では、画質処理情報を示すメニューを含む画像を出力部19のディスプレイに表示する形態が採用される。
具体的には、画質処理情報提示部47は、図3の適応テーブルを参照して、「撮影環境」、「タッチ部位」及び「付帯条件」の条件組み合わせに対応する「メニュー(画質処理情報)」を読み出し、画質処理情報設定部49及び表示制御部48に供給する。
The image quality processing information presentation unit 47 executes control for presenting the image quality processing information determined by the image quality processing determination unit 46 to the user.
Here, the form of presentation is not particularly limited, and for example, a form presented by a predetermined voice may be adopted. However, in the present embodiment, an image including a menu indicating image quality processing information is displayed on the display of the output unit 19. A display form is adopted.
Specifically, the image quality processing information presenting unit 47 refers to the adaptation table of FIG. 3 and selects “menu (image quality processing information) corresponding to the condition combination of“ imaging environment ”,“ touch site ”, and“ accompanying condition ”. Is supplied to the image quality processing information setting unit 49 and the display control unit 48.

表示制御部48は、画質処理情報提示部47により提示されたメニュー(画質処理情報)を示す画像のデータを、撮像部17から供給されたライブビュー画像のデータに重畳し、その結果得られるデータにより表現される画像(以下、「画質処理情報重畳画像」と呼ぶ)を、出力部19のディスプレイに表示させる制御を実行する。
なお、画質処理情報重畳画像のデータは、通信部22によって、図示せぬ外部機器に出力させることもできる。これにより、外部機器、例えば、テレビジョン受像機、パーソナルコンピュータ、プロジェクタ等でも、画質処理情報重畳画像の表示が可能になる。
The display control unit 48 superimposes the image data indicating the menu (image quality processing information) presented by the image quality processing information presentation unit 47 on the data of the live view image supplied from the imaging unit 17, and the data obtained as a result Control for displaying the image expressed by the above (hereinafter referred to as “image quality processing information superimposed image”) on the display of the output unit 19 is executed.
The image quality processing information superimposed image data can also be output to an external device (not shown) by the communication unit 22. As a result, the image quality processing information superimposed image can be displayed also by an external device such as a television receiver, a personal computer, or a projector.

画質処理情報設定部49は、画質処理情報提示部47により提示された複数の画質処理情報(メニュー)の中から、選択された画質処理情報を現在の設定情報として設定する。
画質処理情報設定部49は、設定した画質処理情報を撮像制御部51及び画像処理部14に供給する。なお、画質処理情報の設定の詳細については、後述の図5乃至図10を参照して説明する。
The image quality processing information setting unit 49 sets the image quality processing information selected from the plurality of image quality processing information (menu) presented by the image quality processing information presentation unit 47 as the current setting information.
The image quality processing information setting unit 49 supplies the set image quality processing information to the imaging control unit 51 and the image processing unit 14. Details of the setting of the image quality processing information will be described with reference to FIGS.

撮像制御部51は、画質処理情報設定部49により設定された画質処理情報に基づき、撮像部17の撮像動作の制御を実行する。   The imaging control unit 51 controls the imaging operation of the imaging unit 17 based on the image quality processing information set by the image quality processing information setting unit 49.

画像処理部14は、画質処理情報設定部49により設定された画質処理情報に基づき、画像処理を行う。具体的には、画像処理部14は、画質処理情報設定部49により画質処理情報の設定が行われると、その指示の時点のライブビュー画像として表示されている撮像画像のデータを記憶部20から取得する。そして、画像処理部14は、当該撮像画像(ライブビュー画像)のデータから、設定された画質処理情報に基づいて画質処理後の画像のデータを生成して、リムーバブルメディア31に記憶させる。   The image processing unit 14 performs image processing based on the image quality processing information set by the image quality processing information setting unit 49. Specifically, when the image quality processing information setting is performed by the image quality processing information setting unit 49, the image processing unit 14 stores the captured image data displayed as the live view image at the time of the instruction from the storage unit 20. get. Then, the image processing unit 14 generates image data after the image quality processing based on the set image quality processing information from the captured image (live view image) data, and stores the image data in the removable medium 31.

次に、図4を参照して、このような図2の機能的構成を有する撮像装置1が実行する処理のうち、撮影処理について説明する。
図4は、図2の機能的構成を有する図1の撮像装置1が実行する撮影処理の流れを説明するフローチャートである。
Next, with reference to FIG. 4, a photographing process will be described among the processes executed by the imaging apparatus 1 having the functional configuration of FIG.
FIG. 4 is a flowchart for explaining the flow of imaging processing executed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG.

撮影処理は、ユーザの入力部18に対する所定操作により、撮像装置1の動作モードが撮影モードに切り替えられたことを契機として開始される。その後、所定の単位時間毎に繰り返し実行される。即ち、所定の単位時間毎に、次のような処理が繰り返し実行される。   The photographing process is started when the operation mode of the imaging apparatus 1 is switched to the photographing mode by a predetermined operation on the input unit 18 by the user. Thereafter, it is repeatedly executed every predetermined unit time. That is, the following processing is repeatedly executed every predetermined unit time.

ステップS11において、表示制御部48は、ライブビュー表示処理を開始する。これにより、ライブビュー画像が出力部19のディスプレイに表示される。
なお、本実施形態では、ステップS11の処理でライブビュー表示処理が開始されると、それ以降撮影処理が終了されるまでの間、ライブビュー画像が出力部19のディスプレイに表示され続けるものとする。また、領域種別判別部42は、ライブビュー画像表示処理が開始されると、画像取得部41により取得されたライブビュー画像のデータの中の対象領域の種別の判別を、フレーム単位で繰り返し実行し続ける。
In step S11, the display control unit 48 starts live view display processing. Thereby, the live view image is displayed on the display of the output unit 19.
In the present embodiment, when the live view display process is started in the process of step S <b> 11, the live view image is continuously displayed on the display of the output unit 19 until the shooting process is ended thereafter. . In addition, when the live view image display process is started, the region type determination unit 42 repeatedly determines the type of the target region in the live view image data acquired by the image acquisition unit 41 in units of frames. to continue.

ステップS12において、撮影状況判定部45は、現在の撮影状況を判定する。
即ち、撮影状況判定部45は、領域種別判別部42により判定された1種類以上の対象領域に基づいて、撮影状況のうち撮影環境を判定すると共に、角速度センサ21からのブレ信号や、撮像部17のズーム倍率に基づいて、撮影状況のうち付帯条件を判定する。
In step S12, the shooting situation determination unit 45 determines the current shooting situation.
That is, the shooting situation determination unit 45 determines the shooting environment in the shooting situation based on one or more types of target areas determined by the area type determination unit 42, and also detects a blur signal from the angular velocity sensor 21 and an imaging unit. Based on the zoom magnification of 17, an incidental condition is determined from the shooting situation.

ステップS13において、撮像制御部51は、入力部18のシャッタボタンが押下されたか否かを判定する。
シャッタボタンが押下されていない場合、ステップS13においてNOであると判定されて、処理はステップS14に進む。
In step S <b> 13, the imaging control unit 51 determines whether the shutter button of the input unit 18 has been pressed.
When the shutter button is not pressed, it is determined as NO in Step S13, and the process proceeds to Step S14.

ステップS14において、入力操作受付部43は、画面タッチ操作が行われたか否かを判定する。
画面タッチ操作が行われていない場合には、ステップS14においてNOであると判定され、処理はステップS12に戻され、それ以降の処理が繰り返される。即ち、シャッタボタンが操作されず、かつ、画面タッチ操作が行われないと、ステップS11乃至S14のループ処理が繰り返し実行されて、撮影処理は待機状態となる。
In step S14, the input operation reception unit 43 determines whether or not a screen touch operation has been performed.
When the screen touch operation is not performed, it is determined as NO in Step S14, the process returns to Step S12, and the subsequent processes are repeated. That is, when the shutter button is not operated and the screen touch operation is not performed, the loop processing of steps S11 to S14 is repeatedly executed, and the photographing processing enters a standby state.

その後、画面タッチ操作が行われた場合には、ステップS14においてYESであると判定されて、画面タッチ操作が行われた所定範囲が入力操作受付部43によって認識されて、処理はステップS15に進む。
ステップS15において、選択領域決定部44は、領域種別判別部42によってライブビュー画像の中から判別された1種類以上の対象領域のうち、ステップS14の処理で画面タッチ操作された所定範囲を含む対象領域を、選択領域として決定する。
Thereafter, when a screen touch operation is performed, it is determined as YES in Step S14, a predetermined range where the screen touch operation is performed is recognized by the input operation reception unit 43, and the process proceeds to Step S15. .
In step S15, the selection area determination unit 44 includes a target including a predetermined range in which the screen touch operation is performed in the process of step S14 among the one or more target areas determined from the live view image by the area type determination unit 42. The area is determined as the selection area.

ステップS16において、画質処理決定部46は、ステップS12の処理で判定された撮影状況と、ステップS15の処理で決定された選択領域とに基づいて、図3の参照テーブルを参照して画質処理情報(メニュー)を決定する。   In step S16, the image quality processing determination unit 46 refers to the reference table in FIG. 3 based on the shooting situation determined in the process in step S12 and the selected area determined in the process in step S15. (Menu) is determined.

ステップS17において、表示制御部48は、画質処理情報提示部47の制御の下、ステップS16の処理で決定された画質処理情報(メニュー)を出力部19のディスプレイに表示する。具体的には、表示制御部48は、当該画質処理情報(メニュー)ライブビュー画像に重畳して、即ち画質処理情報重畳画像として出力部19のディスプレイに表示させる。   In step S <b> 17, the display control unit 48 displays the image quality processing information (menu) determined in step S <b> 16 on the display of the output unit 19 under the control of the image quality processing information presentation unit 47. Specifically, the display control unit 48 superimposes the image quality processing information (menu) on the live view image, that is, displays the image quality processing information superimposed image on the display of the output unit 19.

ステップS18において、入力操作受付部43は、画面タッチ操作が行われたか否かを判定する。
ここで、このステップS18の処理で判定される画面タッチ操作は、ステップS14の処理で判定される画面タッチ操作とは意味づけが異なる。
即ち、詳細については図6以降の図面を参照して後述するが、ステップS17の処理で表示された画質処理情報(メニュー)とは、1以上の画質処理情報が各項目に分類されて表示され、各項目毎に、対応する画質処理情報が表わす画質処理の実行有無が「ON」/又は「OFF」として表示されることを意味する。ただし、ステップS17の処理で画質処理情報(メニュー)が表示された段階では、各項目毎の画質処理の実行有無の設定が確定されているわけではない。
そこで、ユーザは、表示されている画質処理情報(メニュー)のうち、設定の変更を所望する画質処理情報の項目に対して画面タッチ操作を行うことで、当該画質処理情報により表わされる画質処理の実行有無の設定を変更することができる。
一方、ユーザは、表示されている画質処理情報(メニュー)のままで、各項目に対応する画質処理の実行有無の設定が問題ないと判断した場合、当該画質処理情報(メニュー)以外の領域に対して画面タッチ操作を行うことで、現状の設定を維持することができる。この場合、画質処理情報(メニュー)の表示は消去される。なお、このように、当該画質処理情報(メニュー)以外の領域に対して行われる画面タッチ操作を、以下、「キャンセル操作」と呼ぶ。
このため、ステップS18においては、出力部19のディスプレイの画面全体の何れかの領域に対して、画面タッチ操作がなされていないか否かが判定される。
入力操作受付部43は、このような画面タッチ操作が行われていないと判定した場合(ステップS18:NO)には、処理をステップS18に再び戻す。即ち、画面タッチ操作が行われるまで、ステップS18の判定処理が繰り返し実行され、撮像処理が待機状態になる。
その後、ユーザにより画質処理情報重畳画像の画質処理情報内の領域に画面タッチ操作が行われた場合、ステップS18においてYESであると判定されて、処理はステップS19に進む。
In step S18, the input operation reception unit 43 determines whether a screen touch operation has been performed.
Here, the screen touch operation determined in the process of step S18 has a different meaning from the screen touch operation determined in the process of step S14.
That is, details will be described later with reference to FIG. 6 and subsequent drawings. The image quality processing information (menu) displayed in the process of step S17 is displayed by classifying one or more image quality processing information into each item. This means that for each item, whether or not the image quality processing indicated by the corresponding image quality processing information is executed is displayed as “ON” or “OFF”. However, at the stage where the image quality processing information (menu) is displayed in the process of step S17, the setting of whether or not to execute the image quality processing for each item is not fixed.
Therefore, the user performs a screen touch operation on the item of the image quality processing information whose setting is desired to be changed in the displayed image quality processing information (menu), so that the image quality processing represented by the image quality processing information is displayed. The execution setting can be changed.
On the other hand, when the user determines that there is no problem in setting the execution / non-execution of the image quality processing corresponding to each item while maintaining the displayed image quality processing information (menu), the user enters an area other than the image quality processing information (menu). On the other hand, the current setting can be maintained by performing the screen touch operation. In this case, the display of the image quality processing information (menu) is deleted. Note that a screen touch operation performed on an area other than the image quality processing information (menu) in this way is hereinafter referred to as a “cancel operation”.
Therefore, in step S18, it is determined whether or not a screen touch operation has been performed on any region of the entire display screen of the output unit 19.
When it is determined that such a screen touch operation is not performed (step S18: NO), the input operation receiving unit 43 returns the process to step S18 again. That is, until the screen touch operation is performed, the determination process in step S18 is repeatedly executed, and the imaging process is in a standby state.
Thereafter, when the user performs a screen touch operation on an area in the image quality processing information of the image quality processing information superimposed image, it is determined as YES in Step S18, and the process proceeds to Step S19.

ステップS19において、入力操作受付部43は、キャンセル操作がなされたか否かを判定する。
具体的には、画質処理情報重畳画像のうち、画質処理情報(メニュー)以外の領域に対して画面タッチ操作がなされた場合には、キャンセル操作が行われたとして、ステップS19においてYESであると判定されて、画質処理情報(メニュー)の表示が消去された後、処理はステップS12に戻され、それ以降の処理が繰り返される。
一方、画質処理情報重畳画像の画質処理情報(メニュー)内の何れかの領域に対して画面タッチ操作がなされた場合には、ステップS18においてYESであると判定された後にステップS19においてNOであると判定されて、処理はステップS20に進む。
In step S19, the input operation reception unit 43 determines whether or not a cancel operation has been performed.
Specifically, if a screen touch operation is performed on an area other than the image quality processing information (menu) in the image quality processing information superimposed image, it is determined that the cancel operation has been performed and YES is determined in step S19. After the determination and the display of the image quality processing information (menu) are erased, the processing is returned to step S12, and the subsequent processing is repeated.
On the other hand, if a screen touch operation is performed on any region in the image quality processing information (menu) of the image quality processing information superimposed image, it is determined NO in step S18 and then NO in step S19. And the process proceeds to step S20.

ステップS20において、画質処理情報設定部49は、ステップS18の処理で画面タッチ操作がなされた画質処理情報について、その項目のON/OFF(設定)を反転し現在の画質処理情報として設定する。
この処理が終了すると、画質処理情報(メニュー)の表示が消去された後、処理はステップS12に戻され、それ以降の処理が繰り返される。
In step S20, the image quality processing information setting unit 49 reverses ON / OFF (setting) of the item and sets it as the current image quality processing information for the image quality processing information for which the screen touch operation has been performed in the processing of step S18.
When this process ends, the display of the image quality processing information (menu) is erased, and then the process returns to step S12, and the subsequent processes are repeated.

その後、シャッタボタンが操作された場合には、ステップS13においてYESであると判定されて、処理はステップS21に進む。
ステップS21において、撮像制御部51及び画像処理部14は、撮像記録処理を行う。
撮像記録処理とは、設定された画質処理情報に基づいて、当該画質処理情報に表わされる撮影条件で撮影動作を行い、その結果得られる撮像画像のデータに対して、当該画質処理情報に表わされる条件で画像処理を施し、当該画像処理後の撮像画像のデータをメモリ(図1のリムーバブルメディア31等)に記録させるまでの一連の処理をいう。
この処理が終了すると、撮像処理を終了する。
なお、ユーザが画面タッチ操作を何も行わずに(図4のステップS14:NO)、シャッタボタンを操作した場合(図4のステップS13:YES)には、撮像制御部51及び画像処理部14は、図3の参照テーブルを参照して、デフォルトの状態でそれぞれ撮像記録処理を実行する。
Thereafter, when the shutter button is operated, it is determined as YES in Step S13, and the process proceeds to Step S21.
In step S21, the imaging control unit 51 and the image processing unit 14 perform imaging recording processing.
The imaging recording process is represented in the image quality processing information with respect to the data of the captured image obtained as a result of performing a shooting operation under the shooting conditions represented in the image quality processing information based on the set image quality processing information. This refers to a series of processing until image processing is performed under conditions and data of the captured image after the image processing is recorded in a memory (such as the removable medium 31 in FIG. 1).
When this process ends, the imaging process ends.
When the user does not perform any screen touch operation (step S14 in FIG. 4: NO) and operates the shutter button (step S13: YES in FIG. 4), the imaging control unit 51 and the image processing unit 14 are operated. Referring to the reference table of FIG. 3, the imaging recording process is executed in the default state.

さらに、以下、図5乃至図10を参照して、撮影処理について具体的に説明する。   Further, the photographing process will be specifically described below with reference to FIGS. 5 to 10.

図5は、撮影処理の開始時に出力部19のディスプレイに表示されるライブビュー画像の一例を示している。
ユーザは、入力部18(図1)を操作して、撮像装置1の動作モードを撮像モードに切り替えることで、ステップS11(図4)のライブビュー表示処理を撮像装置1に開始させることができる。この時、領域種別判別部42は、画像取得部41から取得したライブビュー画像のデータに基づき、当該ライブビュー画像に含まれる1種類以上の対象領域を判別する。
対象領域の判別は、ライブビュー画像を「明度」、「色相」、「彩度」等の観点に基づき、領域毎に判別される。これにより、領域種別判別部42は、例えば、「人の顔」、「人の肌」、「暗部」、「青空」、「緑」、「夕日」、「夜の暗さ」等の各種の対象領域を判別することができる。図5の例では、対象領域121の種類は「緑」であると判別され、対象領域122の種類は「青空」であると判別され、対象領域123の種類は「人の肌」であるとそれぞれ判別される。
FIG. 5 shows an example of a live view image displayed on the display of the output unit 19 at the start of the photographing process.
The user can cause the imaging device 1 to start the live view display process in step S11 (FIG. 4) by operating the input unit 18 (FIG. 1) and switching the operation mode of the imaging device 1 to the imaging mode. . At this time, the region type determination unit 42 determines one or more types of target regions included in the live view image based on the data of the live view image acquired from the image acquisition unit 41.
The target area is determined for each area based on the viewpoint of “lightness”, “hue”, “saturation”, and the like of the live view image. As a result, the area type determination unit 42 performs various types such as “human face”, “human skin”, “dark part”, “blue sky”, “green”, “sunset”, “darkness at night”, and the like. The target area can be determined. In the example of FIG. 5, the type of the target area 121 is determined to be “green”, the type of the target area 122 is determined to be “blue sky”, and the type of the target area 123 is “human skin”. Each is distinguished.

図6〜図8は、撮影環境が「人物+逆光等」である場合の図4の撮影処理中における出力部19のディスプレイに表示される画像、即ち対象領域として「人物」と「逆光」を少なくとも対象領域に含むライブビュー画像の一例を示している。   6 to 8 show images displayed on the display of the output unit 19 during the shooting process of FIG. 4 when the shooting environment is “person + backlight etc.”, that is, “person” and “backlight” as target areas. An example of a live view image included in at least a target area is shown.

図6(A)に示すように、撮影状況判定部45により、現在の撮影環境が判定されると(図4のステップS12)、判定された撮影環境を示す撮影環境情報欄130が出力部19のディスプレイの下段に表示される。本実施形態においては、撮影環境として、「人物+逆光+青空+緑+太陽光」であると判定されたため、撮影環境情報欄130には、短縮された撮影環境の情報である「人物+逆光等」と表示されている。   As shown in FIG. 6A, when the current shooting environment is determined by the shooting state determination unit 45 (step S12 in FIG. 4), a shooting environment information column 130 indicating the determined shooting environment is displayed in the output unit 19. Is displayed at the bottom of the display. In this embodiment, since it is determined that “person + backlight + blue sky + green + sunlight” is set as the shooting environment, the shooting environment information column 130 includes “person + backlight” that is information on the shortened shooting environment. Etc. "is displayed.

図6(B)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、ユーザの指101により「人の顔」を示す対象領域123に対し画面タッチ操作が行われると、当該対象領域123が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。   As shown in FIG. 6B, the operation of the shutter button of the input unit 18 is not performed (step S13: NO in FIG. 4), and the screen is displayed with respect to the target region 123 indicating “human face” with the user's finger 101. When the touch operation is performed, the target area 123 is determined as the selection area (step S15 in FIG. 4). Then, the image quality processing determination unit 46 determines image quality processing information (menu) based on the shooting situation and the determined selection area with reference to the reference table of FIG.

図6(C)に示すように、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)132を出力部19のディスプレイに表示する(図4のステップS17)。
図6(C)の例では、選択領域として決定された「顔」が枠131により通知されると共に、この選択領域に対応する画質処理情報(メニュー)132がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物+逆光+青空+緑+太陽光」であり、タッチ部位が「顔」であり、付帯条件がない場合により選択される画質処理情報(メニュー)132が表示される。即ち、画質処理情報(メニュー)132として、「フラッシュを発光して逆光を補正する」、「フラッシュを発光しないで逆光を補正する」、「人物の顔をきれいに撮る」、「目をつぶっていない笑顔の瞬間をとらえる」といった項目(各々の画質処理情報)が表示される。
As shown in FIG. 6C, the image quality processing information presentation unit 47 displays the image quality processing information (menu) 132 determined for the determined selection area on the display of the output unit 19 (step of FIG. 4). S17).
In the example of FIG. 6C, “face” determined as the selection area is notified by the frame 131, and image quality processing information (menu) 132 corresponding to the selection area is displayed on the display.
That is, in the case of this example, referring to the reference table of FIG. 3, the shooting environment is “person + backlight + blue sky + green + sunlight”, the touched part is “face”, and there are no incidental conditions. The selected image quality processing information (menu) 132 is displayed. That is, as the image quality processing information (menu) 132, “flash is corrected by emitting a flash”, “correct backlight is corrected without emitting a flash”, “taking a beautiful face of a person”, “not closing eyes” An item (each image quality processing information) such as “capturing the moment of smile” is displayed.

図7(A)に示すように、引き続き、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、ユーザの指101により「青空」を示す対象領域122に対し画面タッチ操作が行われると、当該対象領域122が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。   As shown in FIG. 7A, the operation of the shutter button of the input unit 18 is not continuously performed (step S13: NO in FIG. 4), and the screen is displayed on the target region 122 indicating “blue sky” with the user's finger 101. When the touch operation is performed, the target area 122 is determined as a selection area (step S15 in FIG. 4). Then, the image quality processing determination unit 46 determines image quality processing information (menu) based on the shooting situation and the determined selection area with reference to the reference table of FIG.

図7(B)に示すように、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)142を出力部19のディスプレイに表示する(図4のステップS17)。
図7(B)の例では、本実施形態においては、選択領域として決定された青空が枠141により通知されると共に、この選択領域に対応する画質処理情報(メニュー)142がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物+逆光+青空+緑+太陽光」であり、タッチ部位が「青空」であり、付帯条件がない場合により選択される画質処理情報(メニュー)142が表示される。即ち、画質処理情報(メニュー)142として、「青空を強調する」、「青空を濃い青に変える」、「木陰向きのホワイトバランスにする」といった項目(各々の画質処理情報)が表示される。
As shown in FIG. 7B, the image quality processing information presentation unit 47 displays the image quality processing information (menu) 142 determined for the determined selection area on the display of the output unit 19 (step of FIG. 4). S17).
In the example of FIG. 7B, in this embodiment, a blue sky determined as a selection area is notified by a frame 141, and image quality processing information (menu) 142 corresponding to the selection area is displayed on the display. Yes.
That is, in the case of this example, referring to the reference table of FIG. 3, the shooting environment is “person + backlight + blue sky + green + sunlight”, the touched part is “blue sky”, and there are no incidental conditions. The selected image quality processing information (menu) 142 is displayed. That is, as the image quality processing information (menu) 142, items such as “emphasize blue sky”, “change blue sky to dark blue”, and “white balance in the shade of a tree” are displayed (each image quality processing information).

図8(A)に示すように、引き続き、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、ユーザの指101により「緑」を示す対象領域121に対し画面タッチ操作が行われると、当該対象領域121が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。   As shown in FIG. 8A, the screen of the target area 121 indicating “green” is displayed by the user's finger 101 without operating the shutter button of the input unit 18 (step S13: NO in FIG. 4). When the touch operation is performed, the target area 121 is determined as a selection area (step S15 in FIG. 4). Then, the image quality processing determination unit 46 determines image quality processing information (menu) based on the shooting situation and the determined selection area with reference to the reference table of FIG.

図8(B)に示すように、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)152を出力部19のディスプレイに表示する(図4のステップS17)。
図8(B)の例では、選択領域として決定された「緑」が枠151により通知されると共に、この選択領域に対応する画質処理情報(メニュー)152がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物+逆光+青空+緑+太陽光」であり、タッチ部位が「緑」であり、付帯条件がない場合により選択される画質処理情報(メニュー)152が表示される。即ち、画質処理情報(メニュー)152として、「緑を爽やかな色にする」、「緑を濃い緑色に変える」、「木陰向きのホワイトバランスにする」といった項目が表示される。
As shown in FIG. 8B, the image quality processing information presentation unit 47 displays the determined image quality processing information (menu) 152 for the determined selected area on the display of the output unit 19 (step of FIG. 4). S17).
In the example of FIG. 8B, “green” determined as the selection area is notified by a frame 151, and image quality processing information (menu) 152 corresponding to the selection area is displayed on the display.
That is, in the case of this example, referring to the reference table of FIG. 3, the shooting environment is “person + backlight + blue sky + green + sunlight”, the touched part is “green”, and there are no incidental conditions. The selected image quality processing information (menu) 152 is displayed. That is, items such as “change green to a fresh color”, “change green to dark green”, and “set white balance in the shade of a tree” are displayed as the image quality processing information (menu) 152.

図9は、撮影環境が「夜景+人物」である場合の図4の撮影処理中における出力部19のディスプレイに表示される画像、即ち対象領域として「夜景」と「人物」を対象領域に含むライブビュー画像の一例を示している。   FIG. 9 includes images displayed on the display of the output unit 19 during the shooting process of FIG. 4 when the shooting environment is “night view + person”, that is, “night view” and “person” are included in the target area. An example of a live view image is shown.

図9(A)に示すように、撮影状況判定部45により、現在の撮影環境が判定されると(図4のステップS12)、判定された撮影環境を示す撮影環境情報欄160が出力部19のディスプレイの下段に表示される。本実施形態においては、撮影環境として、「夜景+人物」であると判定されたため、撮影環境情報欄160には、撮影環境の情報である「夜景+人物」と表示されている。   As shown in FIG. 9A, when the current shooting environment is determined by the shooting state determination unit 45 (step S12 in FIG. 4), a shooting environment information column 160 indicating the determined shooting environment is displayed in the output unit 19. Is displayed at the bottom of the display. In this embodiment, since it is determined that the shooting environment is “night view + person”, the shooting environment information field 160 displays “night view + person” as information on the shooting environment.

図9(B)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、人の顔を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
そして、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)162を出力部19のディスプレイに表示する(図4のステップS17)。
図9(B)の例では、選択領域として決定された顔が枠161により通知されると共に、この選択領域に対応する画質処理情報(メニュー)162がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「夜景+人物」であり、タッチ部位が「顔」であり、付帯条件がない場合により選択される画質処理情報(メニュー)162が表示される。即ち、画質処理情報(メニュー)162として、「フラッシュを発光して明るく写す」、「人物の顔をきれいに撮る」、「人物の顔のテカリを抑える」といった項目(各々の画質処理情報)が表示される。
As shown in FIG. 9 (B), when the operation of the shutter button of the input unit 18 is not performed (step S13: NO in FIG. 4), when the screen touch operation is performed on the target area indicating the human face, The target area is determined as the selection area (step S15 in FIG. 4). Then, the image quality processing determination unit 46 determines image quality processing information (menu) based on the shooting situation and the determined selection area with reference to the reference table of FIG.
Then, the image quality processing information presentation unit 47 displays the image quality processing information (menu) 162 determined for the determined selection area on the display of the output unit 19 (step S17 in FIG. 4).
In the example of FIG. 9B, the face determined as the selection area is notified by the frame 161, and image quality processing information (menu) 162 corresponding to the selection area is displayed on the display.
That is, in the case of this example, with reference to the reference table of FIG. 3, the image quality processing information (selected at the time when the shooting environment is “night view + person”, the touch part is “face”, and there is no incidental condition) Menu) 162 is displayed. That is, as the image quality processing information (menu) 162, items (each image quality processing information) such as “flash to brighten the image,” “capturing the face of the person cleanly”, and “suppressing the shininess of the face of the person” are displayed. Is done.

また、図9(C)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、顔以外背景を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
そして、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)172を出力部19のディスプレイに表示する(図4のステップS17)。
図9(C)の例では、選択領域として決定された顔以外背景が枠171により通知されると共に、この選択領域に対応する画質処理情報(メニュー)172がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「夜景+人物」であり、タッチ部位が「顔以外背景」であり、付帯条件がない場合により選択される画質処理情報(メニュー)172が表示される。即ち、画質処理情報(メニュー)172として、「ISO感度を上げて手ブレを防ぐ」、「シャッター速度を遅くして背景を明るく」、「ノイズリダクションを弱くかける」、「ノイズリダクションを強くかける」といった項目(各々の画質処理情報)が表示される。
As shown in FIG. 9C, when the operation of the shutter button of the input unit 18 is not performed (step S13: NO in FIG. 4), the screen touch operation is performed on the target area indicating the background other than the face. The target area is determined as the selection area (step S15 in FIG. 4). Then, the image quality processing determination unit 46 determines image quality processing information (menu) based on the shooting situation and the determined selection area with reference to the reference table of FIG.
Then, the image quality processing information presentation unit 47 displays the image quality processing information (menu) 172 determined for the determined selection area on the display of the output unit 19 (step S17 in FIG. 4).
In the example of FIG. 9C, a background other than the face determined as the selection area is notified by a frame 171 and image quality processing information (menu) 172 corresponding to the selection area is displayed on the display.
That is, in the case of this example, referring to the reference table in FIG. 3, the image quality processing selected when the shooting environment is “night view + person”, the touched part is “background other than face”, and there is no incidental condition. Information (menu) 172 is displayed. That is, as the image quality processing information (menu) 172, “Increase ISO sensitivity to prevent camera shake”, “Slow shutter speed to brighten the background”, “Apply noise reduction”, “Apply noise reduction” Are displayed (each image quality processing information).

図10は、撮影環境が「人物」である場合の図4の撮影処理中における出力部19のディスプレイに表示される画像、即ち対象領域として「人物」を対象領域に含むライブビュー画像の一例を示している。   FIG. 10 shows an example of an image displayed on the display of the output unit 19 during the shooting process of FIG. 4 when the shooting environment is “person”, that is, an example of a live view image including “person” as the target area in the target area. Show.

図10(A)に示すように、撮影状況判定部45により、現在の撮影環境が判定されると(図4のステップS12)、判定された撮影環境を示す撮影環境情報欄180が出力部19のディスプレイの下段に表示される。本実施形態においては、撮影環境として、「人物」であると判定されたため、撮影環境情報欄180には、撮影環境の情報である「人物」と表示されている。   As shown in FIG. 10A, when the current shooting environment is determined by the shooting state determination unit 45 (step S12 in FIG. 4), a shooting environment information column 180 indicating the determined shooting environment is displayed in the output unit 19. Is displayed at the bottom of the display. In the present embodiment, since it is determined that the person is the person as the photographing environment, the person information, which is information on the photographing environment, is displayed in the photographing environment information field 180.

図10(B)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、人の顔を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
そして、画質処理情報提示部47は、決定された選択領域に対して決定された画質処理情報(メニュー)182を出力部19のディスプレイに表示する(図4のステップS17)。
図10(B)の例では、選択領域として決定された顔が枠181により通知されると共に、この選択領域に対応する画質処理情報(メニュー)182がディスプレイに表示されている。
即ち、本例の場合、図3の参照テーブルを参照して、撮影環境が「人物」であり、タッチ部位が「顔」であり、付帯条件がない場合により選択される画質処理情報(メニュー)182が表示される。即ち、画質処理情報(メニュー)182として、「人物の顔をきれいに撮る」、「目をつぶっていない笑顔の瞬間をとらえる」といった項目(各々の画質処理情報)が表示される。
As shown in FIG. 10B, when the operation of the shutter button of the input unit 18 is not performed (step S13: NO in FIG. 4), when the screen touch operation is performed on the target area indicating the human face, The target area is determined as the selection area (step S15 in FIG. 4). Then, the image quality processing determination unit 46 determines image quality processing information (menu) based on the shooting situation and the determined selection area with reference to the reference table of FIG.
Then, the image quality processing information presenting unit 47 displays the image quality processing information (menu) 182 determined for the determined selection area on the display of the output unit 19 (step S17 in FIG. 4).
In the example of FIG. 10B, a face determined as a selection area is notified by a frame 181 and image quality processing information (menu) 182 corresponding to the selection area is displayed on the display.
That is, in the case of this example, referring to the reference table of FIG. 3, the image quality processing information (menu) selected when the shooting environment is “person”, the touched part is “face”, and there is no incidental condition. 182 is displayed. That is, as the image quality processing information (menu) 182, items (each image quality processing information) such as “take a beautiful face of a person” and “capture a smiling moment without closing your eyes” are displayed.

また、図10(C)に示すように、入力部18のシャッタボタンの操作が行われずに(図4のステップS13:NO)、顔以外を示す対象領域に対し画面タッチ操作が行われると、当該対象領域が選択領域として決定される(図4のステップS15)。そして、画質処理決定部46は、図3の参照テーブルを参照して、撮影状況と、判別された選択領域とに基づいて、画質処理情報(メニュー)を決定する。
この場合、画質処理情報提示部47は、決定された選択領域に対応する枠191のみを出力部19のディスプレイに表示する(図4のステップS17)。
図10(C)の例では、選択領域として決定された顔以外が枠191により通知されるが、この選択領域に対応する画質処理情報(メニュー)は、図3の参照テーブルには存在しないため、画質処理情報(メニュー)は表示されない。
このように、同じ撮影環境において画面タッチ操作を行ったとしても、タッチ部位によって異なる画質処理情報(メニュー)が表示される。
また、人の顔を示す対象領域に対し画面タッチ操作を行ったとしても、図9の実施形態と、図10の実施形態とでは、異なる画質処理情報(メニュー)が表示される。即ち、画質処理情報(メニュー)は、同じタッチ部位を選択した場合であっても、撮影環境に応じて異なる画質処理情報(メニュー)が表示される。
Further, as shown in FIG. 10C, when the operation of the shutter button of the input unit 18 is not performed (Step S13: NO in FIG. 4), when the screen touch operation is performed on the target area other than the face, The target area is determined as a selection area (step S15 in FIG. 4). Then, the image quality processing determination unit 46 determines image quality processing information (menu) based on the shooting situation and the determined selection area with reference to the reference table of FIG.
In this case, the image quality processing information presentation unit 47 displays only the frame 191 corresponding to the selected selection area on the display of the output unit 19 (step S17 in FIG. 4).
In the example of FIG. 10C, the frame 191 notifies other than the face determined as the selection area, but the image quality processing information (menu) corresponding to this selection area does not exist in the reference table of FIG. The image quality processing information (menu) is not displayed.
In this way, even when a screen touch operation is performed in the same shooting environment, different image quality processing information (menu) is displayed depending on the touched part.
Even if a screen touch operation is performed on a target area indicating a human face, different image quality processing information (menu) is displayed in the embodiment of FIG. 9 and the embodiment of FIG. In other words, the image quality processing information (menu) displays different image quality processing information (menu) depending on the imaging environment even when the same touch site is selected.

以上説明したように、本実施形態の撮像装置1に適用される画像処理装置は、画像取得部41と、入力操作受付部43と、画質処理決定部46と、画質処理情報提示部47と、を備える。
画像取得部41は画像のデータを取得する。
入力操作受付部43は、画像取得部41により取得された画像のデータに対して、所定の範囲の選択操作を受け付ける。
画質処理決定部46は、入力操作受付部43により受け付けられた所定の範囲に基づいて画像取得部41により取得される画像のデータに対して施される画質処理を決定する。
画質処理情報提示部47は、画質処理決定部46により決定された画質処理に関する情報を提示する。
この場合、入力操作受付部43により受け付けられたユーザの選択に基づき、画質処理の情報(画質処理情報)を決定することができる。そして、決定された画質処理の情報(画質処理情報)が提示される。したがって、ユーザは、予め一律に規定された画質処理にとらわれずに、ユーザの広範な嗜好に応じた画質調整を行うことができる。
また、画質処理の情報(画質処理情報)は、ユーザが画質を変更したいと所望する選択した範囲に基づいて決定される。したがって、ユーザは、選択した範囲に対応する画質処理の情報(画質処理情報)の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。
As described above, the image processing apparatus applied to the imaging device 1 of the present embodiment includes the image acquisition unit 41, the input operation reception unit 43, the image quality processing determination unit 46, the image quality processing information presentation unit 47, Is provided.
The image acquisition unit 41 acquires image data.
The input operation accepting unit 43 accepts a selection operation within a predetermined range for the image data acquired by the image acquiring unit 41.
The image quality processing determination unit 46 determines the image quality processing to be performed on the image data acquired by the image acquisition unit 41 based on the predetermined range received by the input operation reception unit 43.
The image quality processing information presentation unit 47 presents information regarding the image quality processing determined by the image quality processing determination unit 46.
In this case, the image quality processing information (image quality processing information) can be determined based on the user selection received by the input operation reception unit 43. Then, the determined image quality processing information (image quality processing information) is presented. Therefore, the user can perform image quality adjustment according to the user's wide range of preferences without being constrained by the image quality processing uniformly defined in advance.
The image quality processing information (image quality processing information) is determined based on a selected range that the user desires to change the image quality. Therefore, it is sufficient for the user to select a desired image quality process from the image quality process information (image quality process information) corresponding to the selected range, so that anyone can easily adjust his / her desired image quality.

また、本実施形態の撮像装置1に適用される画像表示装置の画像取得部41は、撮像部17により取得された画像のデータを取得する。
さらに、本実施形態の撮像装置1に適用される画像表示装置の画像取得部41は、領域種別判別部42と、選択領域決定部44と、撮影状況判定部45と、を備える。
領域種別判別部42は、画像取得部41により取得された画像のデータに基づいて、画像に含まれる1種類以上の対象領域を判別する。
選択領域決定部44は、領域種別判別部42により判別された1種類以上の対象領域のうち、入力操作受付部43により受け付けられた所定の範囲を含む対象領域を、選択領域として決定する。
撮影状況判定部45は、領域種別判別部42により判別された1種類以上の対象領域に基づいて、画像を撮像する際の撮像部17の撮影環境を含む撮影状況を判定する。
そして、画質処理決定部46は、選択領域決定部44により決定された選択領域、及び、撮影状況判定部45により判定された撮影環境に基づいて、画像取得部41により取得された画像のデータに対して施される画質処理を決定する。
この場合、画質処理の情報は、入力操作受付部43により受け付けられたユーザの選択に基づき決定された選択領域に加えて、さらに、撮影環境を含む撮影状況に基づいて決定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。
In addition, the image acquisition unit 41 of the image display device applied to the imaging device 1 of the present embodiment acquires image data acquired by the imaging unit 17.
Further, the image acquisition unit 41 of the image display device applied to the imaging device 1 of the present embodiment includes an area type determination unit 42, a selection area determination unit 44, and a shooting situation determination unit 45.
The region type determination unit 42 determines one or more types of target regions included in the image based on the image data acquired by the image acquisition unit 41.
The selection area determination unit 44 determines, as a selection area, a target area including a predetermined range received by the input operation reception unit 43 among one or more types of target areas determined by the area type determination unit 42.
The shooting situation determination unit 45 determines the shooting situation including the shooting environment of the imaging unit 17 when shooting an image, based on one or more types of target areas determined by the area type determination unit 42.
Then, the image quality processing determination unit 46 converts the image data acquired by the image acquisition unit 41 based on the selection region determined by the selection region determination unit 44 and the shooting environment determined by the shooting state determination unit 45. The image quality processing to be performed is determined.
In this case, since the information on the image quality processing is determined based on the shooting situation including the shooting environment in addition to the selection area determined based on the user selection received by the input operation receiving unit 43, the image quality processing is performed. The determination of the information becomes more accurate. Therefore, it is sufficient for the user to select a desired image quality process from the image quality process information determined and determined accurately, so that anyone can easily adjust the image quality desired by the user.

さらに、本実施形態の撮像装置1に適用される画像処理装置の撮影状況判定部45は、撮影環境に加えて、付帯条件を判定する。
この場合、画質処理の情報は、撮影環境に加えて付帯条件を含む撮影状況に基づいて決定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。
Furthermore, the imaging state determination unit 45 of the image processing apparatus applied to the imaging apparatus 1 of the present embodiment determines the incidental conditions in addition to the imaging environment.
In this case, since the information on the image quality processing is determined based on the shooting situation including the incidental conditions in addition to the shooting environment, the information on the image quality processing becomes more accurate. Therefore, it is sufficient for the user to select a desired image quality process from the image quality process information determined and determined accurately, so that anyone can easily adjust the image quality desired by the user.

さらに、本実施形態の撮像装置1に適用される画像処理装置の撮影状況判定部45は、撮影時に角速度センサ21から送信されたブレ信号を含む撮影状況に応じて付帯条件を判定する。
この場合、付帯条件は、ブレ信号に基づいて判定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。
Furthermore, the shooting situation determination unit 45 of the image processing apparatus applied to the imaging apparatus 1 of the present embodiment determines the incidental conditions according to the shooting situation including the blur signal transmitted from the angular velocity sensor 21 during shooting.
In this case, since the incidental condition is determined based on the blur signal, the determination of the image quality processing information becomes more accurate. Therefore, it is sufficient for the user to select a desired image quality process from the image quality process information determined and determined accurately, so that anyone can easily adjust the image quality desired by the user.

さらに、本実施形態の撮像装置1に適用される画像処理装置の撮影状況判定部45は、撮像部17のズーム倍率に応じて付帯条件を判定する。
この場合、付帯条件は、ズーム倍率に基づいて判定されるため、画質処理の情報の決定がより正確なものとなる。したがって、ユーザは、正確に判断されて決定された画質処理の情報の中から気に入った画質処理を選択すれば足りるので、誰でも簡単に自分の所望する画質調整を行うことができる。
Further, the shooting state determination unit 45 of the image processing apparatus applied to the imaging device 1 of the present embodiment determines the incidental conditions according to the zoom magnification of the imaging unit 17.
In this case, since the incidental condition is determined based on the zoom magnification, the determination of image quality processing information becomes more accurate. Therefore, it is sufficient for the user to select a desired image quality process from the image quality process information determined and determined accurately, so that anyone can easily adjust the image quality desired by the user.

また、本実施形態の撮像装置1に適用される画像表示装置は、画質処理情報提示部47により提示された情報の中から、入力操作受付部43により受け付けられた選択操作に基づいて選択された情報を現在の情報として設定する画質処理情報設定部49をさらに備える。この場合、入力操作受付部43により受け付けられたユーザの選択に基づき、画質処理の情報(画質処理情報)を設定することができる。そして、設定された画質処理の情報(画質処理情報)に基づき、画質処理が行われる。したがって、ユーザは、予め一律に規定された画質処理にとらわれずに、ユーザの広範な嗜好に応じた画質調整を行うことができる。   In addition, the image display device applied to the imaging device 1 of the present embodiment is selected based on the selection operation received by the input operation reception unit 43 from the information presented by the image quality processing information presentation unit 47. It further includes an image quality processing information setting unit 49 that sets information as current information. In this case, image quality processing information (image quality processing information) can be set based on the user's selection received by the input operation reception unit 43. Then, image quality processing is performed based on the set image quality processing information (image quality processing information). Therefore, the user can perform image quality adjustment according to the user's wide range of preferences without being constrained by the image quality processing uniformly defined in advance.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、ズーム倍率に応じて付帯条件を判定しているがこれに限られない。例えば、撮像部17へ入射する光の量を調整するための絞りに基づき付帯条件を判定してもよい。   In the above-described embodiment, the incidental condition is determined according to the zoom magnification, but the present invention is not limited to this. For example, the incidental condition may be determined based on a diaphragm for adjusting the amount of light incident on the imaging unit 17.

また、本実施形態の画像処理装置は、撮像装置1に適用しているがこれに限られるものではなく、画質処理を含む画像処理を行うことができる端末であれば、何れの端末にも適用することができる。   In addition, the image processing apparatus of the present embodiment is applied to the imaging apparatus 1, but is not limited to this, and is applicable to any terminal as long as the terminal can perform image processing including image quality processing. can do.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、撮像機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an imaging function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded in the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
画像のデータを取得する取得手段と、
前記取得手段により取得された画像のデータに対して、所定の範囲の選択操作を受け付ける受付手段と、
前記受付手段により受け付けられた前記所定の範囲に基づいて、前記取得手段により取得される画像のデータに対して施される画質処理を決定する画質処理決定手段と、
前記画質処理決定手段により決定された画質処理に関する情報を提示する提示手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記取得手段は、撮像手段により取得された画像のデータを取得し、
前記取得手段により取得された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別手段と、
前記判別手段により判別された前記1種類以上の対象領域のうち、前記受付手段により受け付けられた前記所定の範囲を含む対象領域を、選択領域として決定する選択領域決定手段と、
前記判別手段により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像手段の撮影環境を含む撮影状況を判定する判定手段と、
をさらに備え、
前記画質処理決定手段は、前記選択領域決定手段により決定された前記選択領域、及び、前記判定手段により判定された前記撮影状況に基づいて、前記取得手段により取得された前記画像のデータに対して施される前記画質処理を決定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記判定手段は、前記撮影環境に加えて、付帯条件を判定する
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記判定手段は、
撮影時に角速度センサから送信されたブレ信号を含む撮影状況に応じて前記付帯条件を判定する、
ことを特徴とする付記3に記載の画像処理装置。
[付記5]
前記判定手段は、
前記撮像手段のズーム倍率に応じて前記付帯条件を判定する、
ことを特徴とする付記3乃至4に記載の画像処理装置。
[付記6]
前記提示手段により提示された情報の中から、前記受付手段により受け付けられた選択操作に基づいて選択された情報を現在の情報として設定する画質処理情報設定手段をさらに備える
ことを特徴とする付記1乃至5に記載の画像処理装置。
[付記7]
画像を取得する画像処理装置が実行する画像処理方法において、
画像のデータを取得する取得ステップと、
前記取得ステップにおいて取得された画像のデータに対して、所定の範囲の選択操作を受け付ける受付ステップと、
前記受付ステップにおいて受け付けられた前記所定の範囲に基づいて、前記取得ステップにおいて取得される画像のデータに対して施される画質処理を決定する決定ステップと、
前記決定ステップにおいて決定された画質処理に関する情報を提示する提示ステップと、
を含むことを特徴とする画像処理方法。
[付記8]
画像を取得する画像処理装置を制御するコンピュータに、
画像のデータを取得する取得機能、
前記取得機能により取得された画像のデータに対して、所定の範囲の選択操作を受け付ける受付機能、
前記受付機能により受け付けられた前記所定の範囲に基づいて、前記取得機能により取得される画像のデータに対して施される画質処理を決定する決定機能、
前記決定機能により決定された画質処理に関する情報を提示する提示機能、
を実現させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Acquisition means for acquiring image data;
Receiving means for receiving a selection operation of a predetermined range for the image data acquired by the acquiring means;
Based on the predetermined range received by the receiving means, image quality processing determining means for determining image quality processing to be performed on image data acquired by the acquiring means;
Presenting means for presenting information relating to image quality processing determined by the image quality processing determining means;
An image processing apparatus comprising:
[Appendix 2]
The acquisition unit acquires data of an image acquired by the imaging unit,
Discrimination means for discriminating one or more types of target regions included in the image based on the data of the image acquired by the acquisition means;
A selection area determining means for determining, as a selection area, a target area that includes the predetermined range received by the receiving means, among the one or more types of target areas determined by the determining means;
A determination unit that determines a shooting situation including a shooting environment of the imaging unit when capturing the image based on the one or more types of target areas determined by the determination unit;
Further comprising
The image quality processing determination unit is configured to apply the image data acquired by the acquisition unit based on the selection region determined by the selection region determination unit and the shooting situation determined by the determination unit. Determining the image quality processing to be performed;
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The image processing apparatus according to appendix 2, wherein the determination unit determines an incidental condition in addition to the shooting environment.
[Appendix 4]
The determination means includes
The incidental condition is determined according to a shooting situation including a blur signal transmitted from the angular velocity sensor at the time of shooting,
The image processing apparatus according to appendix 3, characterized in that:
[Appendix 5]
The determination means includes
The incidental condition is determined according to the zoom magnification of the imaging means.
The image processing apparatus according to any one of supplementary notes 3 to 4, wherein:
[Appendix 6]
Supplementary note 1 further comprising image quality processing information setting means for setting, as current information, information selected from the information presented by the presenting means based on a selection operation accepted by the accepting means. The image processing apparatus according to any one of Items 5 to 5.
[Appendix 7]
In an image processing method executed by an image processing apparatus that acquires an image,
An acquisition step of acquiring image data;
A receiving step for receiving a selection operation of a predetermined range for the image data acquired in the acquiring step;
A determination step for determining an image quality process to be performed on image data acquired in the acquisition step based on the predetermined range received in the reception step;
A presenting step of presenting information relating to the image quality processing determined in the determining step;
An image processing method comprising:
[Appendix 8]
In a computer that controls an image processing apparatus that acquires an image,
Acquisition function to acquire image data,
A reception function for receiving a selection operation of a predetermined range for the image data acquired by the acquisition function;
A determination function for determining image quality processing to be performed on image data acquired by the acquisition function based on the predetermined range received by the reception function;
A presentation function for presenting information on image quality processing determined by the determination function;
A program characterized by realizing.

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・入力部、19・・・出力部、20・・・記憶部、21・・・角速度センサ、22・・・通信部、23・・・ドライブ、31・・・リムーバブルメディア、41・・・画像取得部、42・・・領域種別判別部、43・・・入力操作受付部、44・・・選択領域決定部、45・・・撮影状況判定部、46・・・画質処理決定部、47・・・画質処理情報提示部、48・・・表示制御部、49・・・画質処理情報設定部、51・・・撮像制御部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17 ... Image pick-up unit, 18 ... input unit, 19 ... output unit, 20 ... storage unit, 21 ... angular velocity sensor, 22 ... communication unit, 23 ... drive, 31 ... removable Media 41... Image acquisition unit 42... Region type determination unit 43... Input operation reception unit 44. Image quality processing determining unit 47... Image quality processing information presenting unit 48... Display control unit 49... Image quality processing information setting unit 51.

Claims (6)

撮像手段と、
前記撮像手段により撮像された画像において、所定の領域の選択操作を受け付ける受付手段と、
前記選択操作によって選択された領域の画像に基づいて、前記撮像手段によって画像を撮像する際の撮影条件を提示する提示手段と、
前記提示手段により提示された撮影条件の中から、選択操作に基づいて選択された撮影条件を現在の撮影条件として設定する設定手段と、
前記設定手段によって設定された撮影条件に従って前記撮像手段の撮像動作を制御する制御手段と、
前記撮像手段により撮像された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別手段と、
前記判別手段により判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する決定手段と、
前記判別手段により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像手段の撮影環境を含む撮影状況を判定する判定手段と、
を備え、
前記提示手段は、前記決定手段により決定された前記選択領域、及び、前記判定手段により判定された前記撮影状況に基づいて、前記撮影条件を提示する、
ことを特徴とする撮像装置。
Imaging means;
An accepting means for accepting an operation of selecting a predetermined area in the image captured by the image capturing means;
Presenting means for presenting photographing conditions when an image is picked up by the image pickup means based on an image of an area selected by the selection operation;
A setting unit for setting a shooting condition selected based on a selection operation from the shooting conditions presented by the presenting unit as a current shooting condition;
Control means for controlling the imaging operation of the imaging means in accordance with the imaging conditions set by the setting means;
Discrimination means for discriminating one or more types of target areas included in the image based on the data of the image taken by the imaging means;
A determining unit that determines, as a selection region, a target region that includes a region selected by the selection operation among the one or more types of target regions determined by the determination unit;
A determination unit that determines a shooting situation including a shooting environment of the imaging unit when capturing the image based on the one or more types of target areas determined by the determination unit;
Bei to give a,
The presenting means presents the photographing condition based on the selected area determined by the determining means and the photographing situation determined by the determining means.
It shall be the said imaging device.
前記判定手段は、前記撮影環境に加えて、付帯条件を判定する
ことを特徴とする請求項に記載の撮像装置。
The imaging apparatus according to claim 1 , wherein the determination unit determines an incidental condition in addition to the shooting environment.
前記判定手段は、
撮影時に角速度センサから送信されたブレ信号を含む撮影状況に応じて前記付帯条件を判定する、
ことを特徴とする請求項に記載の撮像装置。
The determination means includes
The incidental condition is determined according to a shooting situation including a blur signal transmitted from the angular velocity sensor at the time of shooting,
The imaging apparatus according to claim 2 .
前記判定手段は、
前記撮像手段のズーム倍率に応じて前記付帯条件を判定する、
ことを特徴とする請求項乃至の何れか1項に記載の撮像装置
The determination means includes
The incidental condition is determined according to the zoom magnification of the imaging means.
The imaging apparatus according to any one of claims 2 to 3, characterized in that.
撮像装置が実行する撮像方法において、
前記撮像装置により撮像された画像において、所定の領域の選択操作を受け付ける受付ステップと、
前記選択操作によって選択された領域の画像に基づいて、前記撮像装置によって画像を撮像する際の撮影条件を提示する提示ステップと、
前記提示された撮影条件の中から、選択操作に基づいて選択された撮影条件を現在の撮影条件として設定する設定ステップと、
前記設定された撮影条件に従って前記撮像装置の撮像動作を制御する制御ステップと、
前記撮像装置により撮像された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別ステップと、
前記判別ステップで判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する決定ステップと、
前記判別ステップで判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像装置の撮影環境を含む撮影状況を判定する判定ステップと、
を含み、
前記提示ステップは、前記決定ステップで決定された前記選択領域、及び、前記判定ステップで判定された前記撮影状況に基づいて、前記撮影条件を提示する、
ことを特徴とする撮像方法。
In the imaging method executed by the imaging device,
An accepting step of accepting an operation of selecting a predetermined area in the image captured by the imaging device;
A presenting step of presenting imaging conditions when an image is captured by the imaging device based on an image of an area selected by the selection operation;
A setting step of setting the shooting condition selected based on the selection operation from the presented shooting conditions as the current shooting condition;
A control step of controlling the imaging operation of the imaging device according to the set imaging conditions;
A determination step of determining one or more types of target regions included in the image based on data of the image captured by the imaging device;
A determination step of determining, as a selection region, a target region including a region selected by the selection operation among the one or more types of target regions determined in the determination step;
A determination step of determining a shooting situation including a shooting environment of the imaging device when capturing the image based on the one or more types of target areas determined in the determination step;
Only including,
The presenting step presents the photographing condition based on the selected area determined in the determining step and the photographing situation determined in the determining step.
An imaging method characterized by the above.
撮像装置を制御するコンピュータに、
前記撮像装置により撮像された画像において、所定の領域の選択操作を受け付ける受付機能、
前記選択操作によって選択された領域の画像に基づいて、前記撮像装置によって画像を撮像する際の撮影条件を提示する提示機能、
前記提示された撮影条件の中から、選択操作に基づいて選択された撮影条件を現在の撮影条件として設定する設定機能、
前記設定された撮影条件に従って前記撮像装置の撮像動作を制御する制御機能、
前記撮像装置により撮像された前記画像のデータに基づいて、当該画像に含まれる1種類以上の対象領域を判別する判別機能、
前記判別機能により判別された前記1種類以上の対象領域のうち、前記選択操作によって選択された領域を含む対象領域を、選択領域として決定する決定機能、
前記判別機能により判別された前記1種類以上の対象領域に基づいて、前記画像を撮像する際の前記撮像装置の撮影環境を含む撮影状況を判定する判定機能、
を実現させるためのプログラムであって、
前記提示機能は、前記決定機能により決定された前記選択領域、及び、前記判定機能により判定された前記撮影状況に基づいて、前記撮影条件を提示する、
ことを特徴とするプログラム。
In the computer that controls the imaging device,
A reception function for receiving a selection operation of a predetermined area in an image captured by the imaging device;
A presentation function for presenting photographing conditions when an image is picked up by the image pickup device based on an image of an area selected by the selection operation;
A setting function for setting a shooting condition selected based on a selection operation from the presented shooting conditions as a current shooting condition;
A control function for controlling the imaging operation of the imaging device according to the set imaging conditions;
A discrimination function for discriminating one or more types of target regions included in the image based on the data of the image captured by the imaging device;
A determination function for determining, as a selection area, a target area that includes an area selected by the selection operation among the one or more types of target areas determined by the determination function;
A determination function for determining a shooting situation including a shooting environment of the imaging device when capturing the image based on the one or more types of target regions determined by the determination function;
Is a program for realizing
The presenting function presents the shooting condition based on the selection area determined by the determination function and the shooting situation determined by the determination function.
A program characterized by that .
JP2012197598A 2012-09-07 2012-09-07 Imaging apparatus, imaging method, and program Expired - Fee Related JP5370555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012197598A JP5370555B2 (en) 2012-09-07 2012-09-07 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012197598A JP5370555B2 (en) 2012-09-07 2012-09-07 Imaging apparatus, imaging method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011061417A Division JP5136669B2 (en) 2011-03-18 2011-03-18 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2013017218A JP2013017218A (en) 2013-01-24
JP2013017218A5 JP2013017218A5 (en) 2013-04-18
JP5370555B2 true JP5370555B2 (en) 2013-12-18

Family

ID=47689374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012197598A Expired - Fee Related JP5370555B2 (en) 2012-09-07 2012-09-07 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP5370555B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11689798B2 (en) * 2014-09-30 2023-06-27 Nikon Corporation Electronic device, image-capturing device, and image-capturing system
JP6529355B2 (en) * 2015-06-18 2019-06-12 キヤノン株式会社 Imaging control apparatus, control method thereof and program
JP7279365B2 (en) * 2019-01-09 2023-05-23 株式会社Jvcケンウッド Display control device, display device, display control method and program
WO2021149950A1 (en) 2020-01-20 2021-07-29 Lg Electronics Inc. Laundry treating apparatus
CN114189621A (en) * 2020-09-14 2022-03-15 阿里巴巴集团控股有限公司 Image processing method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003234916A (en) * 2002-02-08 2003-08-22 Seiko Epson Corp Image processing apparatus, image processing method, printing apparatus, image processing program, and medium recording image processing program
JP5313043B2 (en) * 2009-05-22 2013-10-09 オリンパスイメージング株式会社 Shooting condition control device, camera, program
JP2011107899A (en) * 2009-11-16 2011-06-02 Sony Corp Information processor, method and program for changing setting

Also Published As

Publication number Publication date
JP2013017218A (en) 2013-01-24

Similar Documents

Publication Publication Date Title
JP5136669B2 (en) Image processing apparatus, image processing method, and program
US9578260B2 (en) Digital photographing apparatus and method of controlling the digital photographing apparatus
US7826730B2 (en) Image capturing device having a hand shake correction function, hand shake correction method, and storage medium storing a hand shake correction process program
US8570429B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
JP6720881B2 (en) Image processing apparatus and image processing method
US8786749B2 (en) Digital photographing apparatus for displaying an icon corresponding to a subject feature and method of controlling the same
US20110128401A1 (en) Digital photographing apparatus and method of controlling the same
US8988545B2 (en) Digital photographing apparatus and method of controlling the same
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
JP5370555B2 (en) Imaging apparatus, imaging method, and program
JP2010199727A (en) Imager
JP2011049988A (en) Image processing apparatus and camera
US9626932B2 (en) Image processing apparatus, image processing method and recording medium recording program for correcting image in predetermined area
US20110279649A1 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2024013019A (en) Control device, imaging apparatus, control method, and program
JP2018195938A (en) Imaging apparatus, control method of imaging apparatus, and program
KR20100098122A (en) Image processing method and apparatus, and digital photographing apparatus using thereof
JP6575231B2 (en) Imaging apparatus, imaging setting method, and program
US20230162707A1 (en) Imaging apparatus, method of controlling imaging apparatus, and program
JP6467827B2 (en) Imaging apparatus, image processing apparatus, display control apparatus, image correction method, and program
KR101448539B1 (en) Image processing method and apparatus, and digital photographing apparatus using thereof
JP5797301B2 (en) Imaging apparatus and imaging method
JP2012257168A (en) Imaging apparatus and imaging method
JP2017117143A (en) Image processing device, image processing method and program
KR20100098118A (en) Image processing method and apparatus, and digital photographing apparatus using thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130306

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130306

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5370555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees