Nothing Special   »   [go: up one dir, main page]

JP2008092515A - Electronic camera, image processing apparatus and program - Google Patents

Electronic camera, image processing apparatus and program Download PDF

Info

Publication number
JP2008092515A
JP2008092515A JP2006273954A JP2006273954A JP2008092515A JP 2008092515 A JP2008092515 A JP 2008092515A JP 2006273954 A JP2006273954 A JP 2006273954A JP 2006273954 A JP2006273954 A JP 2006273954A JP 2008092515 A JP2008092515 A JP 2008092515A
Authority
JP
Japan
Prior art keywords
unit
image
subject
range
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006273954A
Other languages
Japanese (ja)
Inventor
Ikuya Saito
郁哉 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006273954A priority Critical patent/JP2008092515A/en
Publication of JP2008092515A publication Critical patent/JP2008092515A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means of highly accurately and quickly extracting a subject from a photographic image. <P>SOLUTION: An electronic camera comprises an imaging unit, a region dividing unit, a first arithmetic unit, and a subject extracting unit. The imaging unit photographs a subject image and generates data of a photographic image. The region dividing unit determines, in the photographic image, the range of a first partial region including a main subject and the range of a second partial region excluding the first partial region. The first arithmetic unit analyzes a spatial frequency of data in the first partial region. The subject extracting unit extracts a main subject from the range of the first partial region in the photographic image based on an arithmetic result of the first arithmetic unit. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮影画像から主要被写体を抽出する機能を有する電子カメラ、画像処理装置および画像処理装置のプログラムに関する。   The present invention relates to an electronic camera, an image processing apparatus, and a program for an image processing apparatus having a function of extracting a main subject from a captured image.

従来から、電子カメラの撮影画像から主要被写体を抽出する技術については数多くの方法が提案されている。例えば、従来技術の一例として、特許文献1には輝度信号レベルの変化によるエッジ抽出処理によって、撮影画像中の主要被写体を検出する技術が開示されている。
特開平9−233384号公報
Conventionally, a number of methods have been proposed for techniques for extracting a main subject from an image captured by an electronic camera. For example, as an example of the prior art, Patent Document 1 discloses a technique for detecting a main subject in a captured image by edge extraction processing based on a change in luminance signal level.
JP-A-9-233384

しかし、従来技術では撮影画像全体を対象として被写体抽出処理を行なうため、プロセッサの演算量が非常に大きくなっていた。しかも、被写体抽出処理の対象となる撮影画像のサイズが大きくなると、1つの画像内に複数の類似する被写体が共存する可能性が高くなり、被写体抽出処理の精度が低下する傾向がある。その結果、従来技術では、撮影画像から被写体を高い精度で迅速に抽出することが非常に困難であり、その改善が要望されていた。   However, since the subject extraction processing is performed on the entire captured image in the conventional technology, the calculation amount of the processor has become very large. Moreover, when the size of the captured image that is the subject of the subject extraction process increases, there is a high possibility that a plurality of similar subjects coexist in one image, and the accuracy of the subject extraction process tends to decrease. As a result, in the prior art, it is very difficult to quickly extract a subject from a captured image with high accuracy, and there has been a demand for improvement.

本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、撮影画像から被写体を高い精度で迅速に抽出できる手段を提供することである。   The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide means capable of quickly extracting a subject from a captured image with high accuracy.

第1の発明の電子カメラは、撮像部と、領域分割部と、第1演算部と、被写体抽出部とを備える。撮像部は、被写体像を撮影して撮影画像のデータを生成する。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第1演算部は、第1部分領域のデータの空間周波数を解析する。被写体抽出部は、第1演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。   An electronic camera according to a first aspect includes an imaging unit, a region dividing unit, a first calculation unit, and a subject extraction unit. The imaging unit captures a subject image and generates captured image data. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The first calculation unit analyzes the spatial frequency of the data in the first partial region. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the first calculation unit.

第2の発明の電子カメラは、撮像部と、発光部と、領域分割部と、第2演算部と、被写体抽出部とを備える。撮像部は、被写体像を撮影して撮影画像のデータを生成する。発光部は、被写体に対して光を照射する。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第2演算部は、発光部を発光させて取得した第1撮影画像と発光部を発光させずに取得した第2撮影画像と基づいて、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第2演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。   An electronic camera of a second invention includes an imaging unit, a light emitting unit, a region dividing unit, a second calculating unit, and a subject extracting unit. The imaging unit captures a subject image and generates captured image data. The light emitting unit irradiates the subject with light. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The second calculation unit is configured to generate the first partial region of the first captured image and the second captured image based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light. At least one of the brightness difference from the first partial region and the brightness ratio. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the second calculation unit.

第3の発明の電子カメラは、撮像部と、発光部と、領域分割部と、第1演算部と、第2演算部と、被写体抽出部と、制御部とを備える。撮像部は、被写体像を撮影して撮影画像のデータを生成する。発光部は、被写体に対して光を照射する。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第1演算部は、第1部分領域のデータの空間周波数を解析する。第2演算部は、発光部を発光させて取得した第1撮影画像と発光部を発光させずに取得した第2撮影画像と基づいて、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第1演算部および第2演算部の少なくとも一方の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。制御部は、第1演算部および第2演算部の動作のオン/オフをそれぞれ変更する。   An electronic camera according to a third invention includes an imaging unit, a light emitting unit, a region dividing unit, a first calculation unit, a second calculation unit, a subject extraction unit, and a control unit. The imaging unit captures a subject image and generates captured image data. The light emitting unit irradiates the subject with light. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The first calculation unit analyzes the spatial frequency of the data in the first partial region. The second calculation unit is configured to generate the first partial region of the first captured image and the second captured image based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light. At least one of the brightness difference from the first partial region and the brightness ratio. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of at least one of the first calculation unit and the second calculation unit. A control part changes ON / OFF of operation | movement of a 1st calculating part and a 2nd calculating part, respectively.

第4の発明は、第3の発明において、制御部は、撮影モードの設定が発光部の発光を禁止する状態のときに第2演算部の動作をオフにする。
第5の発明は、第3の発明において、電子カメラが操作部をさらに備える。操作部は、第1演算部および第2演算部の動作の設定入力をユーザーから受け付ける。そして、制御部は、第1演算部および第2演算部の動作のオン/オフを設定入力に基づいて変更する。
In a fourth aspect based on the third aspect, the control section turns off the operation of the second calculation section when the shooting mode setting is in a state where the light emission section prohibits light emission.
In a fifth aspect based on the third aspect, the electronic camera further includes an operation unit. The operation unit receives input of setting of operations of the first calculation unit and the second calculation unit from the user. And a control part changes ON / OFF of operation | movement of a 1st calculating part and a 2nd calculating part based on a setting input.

第6の発明は、第1から第3のいずれかの発明において、電子カメラが被写体認識部をさらに備える。被写体認識部は、撮影画像から主要被写体の特徴部分を検出して、撮影画像における主要被写体の概略位置を推定する。そして、領域分割部は、被写体認識部の出力に基づいて、第1部分領域の範囲および第2部分領域の範囲を決定する。
第7の発明は、第6の発明において、被写体認識部は、撮影画像から人間の顔を検出する。
In a sixth aspect based on any one of the first to third aspects, the electronic camera further includes a subject recognition unit. The subject recognizing unit detects a characteristic portion of the main subject from the captured image, and estimates the approximate position of the main subject in the captured image. Then, the region dividing unit determines the range of the first partial region and the range of the second partial region based on the output of the subject recognition unit.
In a seventh aspect based on the sixth aspect, the subject recognition unit detects a human face from the captured image.

第8の発明は、第7の発明において、領域分割部は、第1部分領域の範囲の大きさを、被写体認識部の検出した顔の大きさに比例させて決定する。
第9の発明は、第1から第3のいずれかの発明において、電子カメラが操作部をさらに備える。操作部は、主要被写体の概略位置を指定する指定入力をユーザーから受け付ける。そして、領域分割部は、第1部分領域の範囲および第2部分領域の範囲を指定入力に基づいて決定する。
In an eighth aspect based on the seventh aspect, the region dividing unit determines the size of the range of the first partial region in proportion to the size of the face detected by the subject recognition unit.
In a ninth aspect based on any one of the first to third aspects, the electronic camera further includes an operation unit. The operation unit receives a designation input for designating the approximate position of the main subject from the user. Then, the region dividing unit determines the range of the first partial region and the range of the second partial region based on the designated input.

第10の発明は、第1から第3のいずれかの発明において、撮像部は、記録用の本画像と、本画像よりも解像度の低いスルー画像とを撮影する。領域分割部、第1演算部および第2演算部は、本画像もしくはスルー画像のデータに対して各々の処理を実行する。そして、被写体抽出部は、スルー画像と対応する本画像から主要被写体を抽出する。
第11の発明は、第10の発明において、電子カメラがモニタをさらに備える。モニタは、第1部分領域の範囲をユーザーに認知させる表示とともに、スルー画像を表示する。
In a tenth aspect based on any one of the first to third aspects, the imaging unit captures a main image for recording and a through image having a resolution lower than that of the main image. The area dividing unit, the first calculation unit, and the second calculation unit perform respective processes on the data of the main image or the through image. Then, the subject extraction unit extracts the main subject from the main image corresponding to the through image.
In an eleventh aspect based on the tenth aspect, the electronic camera further includes a monitor. The monitor displays a through image together with a display that allows the user to recognize the range of the first partial region.

第12の発明は、第1から第3のいずれかの発明において、電子カメラが画像処理部をさらに備える。画像処理部は、被写体抽出部による主要被写体の抽出範囲に基づいて、撮影画像のデータに対して画像処理を施す。
第13の発明は、第12の発明において、画像処理部は、撮影画像から主要被写体の抽出範囲を除いた背景領域のボケ度合いを大きくするボケ強調処理を施す。
In a twelfth aspect based on any one of the first to third aspects, the electronic camera further includes an image processing unit. The image processing unit performs image processing on the captured image data based on the extraction range of the main subject by the subject extraction unit.
In a thirteenth aspect based on the twelfth aspect, the image processing section performs a blur enhancement process for increasing the degree of blur in the background area excluding the main subject extraction range from the photographed image.

第14の発明は、第1から第3のいずれかの発明において、電子カメラが撮影条件決定部をさらに備える。撮影条件決定部は、被写体抽出部による主要被写体の抽出範囲に基づいて、撮像部の撮影条件を決定する。
第15の発明は、第1から第3のいずれかの発明において、電子カメラが記録部をさらに備える。記録部は、被写体抽出部による主要被写体の抽出範囲のデータを、撮影画像のデータとともに記録する。
In a fourteenth aspect based on any one of the first to third aspects, the electronic camera further includes a photographing condition determining unit. The imaging condition determination unit determines the imaging condition of the imaging unit based on the extraction range of the main subject by the subject extraction unit.
In a fifteenth aspect based on any one of the first to third aspects, the electronic camera further includes a recording unit. The recording unit records the data of the extraction range of the main subject by the subject extracting unit together with the captured image data.

第16の発明の画像処理装置は、データ読込部と、領域分割部と、第1演算部と、被写体抽出部とを備える。データ読込部は、被写体像を撮影した撮影画像のデータを読み込む。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第1演算部は、第1部分領域のデータの空間周波数を解析する。被写体抽出部は、第1演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。   An image processing apparatus according to a sixteenth aspect includes a data reading unit, a region dividing unit, a first calculating unit, and a subject extracting unit. The data reading unit reads data of a photographed image obtained by photographing the subject image. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The first calculation unit analyzes the spatial frequency of the data in the first partial region. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the first calculation unit.

第17の発明の画像処理装置は、データ読込部と、領域分割部と、第2演算部と、被写体抽出部とを備える。データ読込部は、被写体に対して光を照射して撮影した第1撮影画像のデータと、被写体に対して光を照射せずに撮影した第2撮影画像のデータとを読み込む。領域分割部は、第1撮影画像および第2撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とそれぞれを決定する。第2演算部は、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第2演算部の演算結果に基づいて、第1撮影画像および第2撮影画像の少なくとも一方の第1部分領域の範囲から主要被写体を抽出する。   An image processing apparatus according to a seventeenth aspect includes a data reading unit, a region dividing unit, a second calculating unit, and a subject extracting unit. The data reading unit reads the data of the first photographed image taken by irradiating the subject with light and the data of the second photographed image taken without irradiating the subject with light. The region dividing unit determines a range of the first partial region including the main subject and a range of the second partial region excluding the first partial region in the first captured image and the second captured image. The second calculation unit obtains at least one of a brightness difference and a brightness ratio between the first partial region of the first captured image and the first partial region of the second captured image. The subject extraction unit extracts a main subject from the range of the first partial region of at least one of the first captured image and the second captured image based on the calculation result of the second calculation unit.

第18の発明の画像処理装置は、データ読込部と、第1演算部と、被写体抽出部とを備える。データ読込部は、被写体像を撮影した撮影画像のデータと、撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを読み込む。第1演算部は、撮影画像における部分領域のデータの空間周波数を解析する。被写体抽出部は、第1演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。   An image processing apparatus according to an eighteenth aspect includes a data reading unit, a first calculation unit, and a subject extraction unit. The data reading unit reads data of a photographed image obtained by photographing the subject image and data indicating the range of the first partial area including the main subject in the photographed image. The first calculation unit analyzes the spatial frequency of the data of the partial region in the captured image. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the first calculation unit.

第19の発明の画像処理装置は、データ読込部と、第2演算部と、被写体抽出部とを備える。データ読込部は、被写体に対して光を照射して撮影した第1撮影画像のデータと、被写体に対して光を照射せずに撮影した第2撮影画像のデータと、第1撮影画像および第2撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを読み込む。第2演算部は、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第2演算部の演算結果に基づいて、第1撮影画像および第2撮影画像の少なくとも一方の第1部分領域の範囲から主要被写体を抽出する。   An image processing apparatus according to a nineteenth invention includes a data reading unit, a second calculation unit, and a subject extraction unit. The data reading unit includes data of a first captured image captured by irradiating the subject with light, data of a second captured image captured without irradiating the subject with light, the first captured image, and the first captured image. Data indicating the range of the first partial area including the main subject in the two captured images is read. The second calculation unit obtains at least one of a brightness difference and a brightness ratio between the first partial region of the first captured image and the first partial region of the second captured image. The subject extraction unit extracts a main subject from the range of the first partial region of at least one of the first captured image and the second captured image based on the calculation result of the second calculation unit.

なお、上記の画像処理装置に関する構成をプログラム、画像処理方法、記録媒体などに変換して表現したものも本発明の具体的態様として有効である。   In addition, what expressed the structure regarding said image processing apparatus converted into a program, an image processing method, a recording medium, etc. is also effective as a specific aspect of this invention.

本発明の電子カメラまたは画像処理装置によれば、撮影画像から被写体を高い精度で迅速に抽出できる。   According to the electronic camera or the image processing apparatus of the present invention, it is possible to quickly extract a subject from a captured image with high accuracy.

(第1実施形態の説明)
図1は第1実施形態の電子カメラの構成を示すブロック図である。
電子カメラは、撮影レンズ11と、レンズ駆動部12と、撮像素子13と、アナログ処理部14と、メモリ15と、画像処理部16と、圧縮伸長処理部17と、記録I/F18と、外部I/F19と、通信部20と、発光部21と、操作部22と、モニタ23と、CPU24およびシステムバス25とを有している。なお、メモリ15、画像処理部16、圧縮伸長処理部17、記録I/F18、外部I/F19、通信部20、モニタ23およびCPU24は、システムバス25を介して接続されている。
(Description of the first embodiment)
FIG. 1 is a block diagram showing the configuration of the electronic camera of the first embodiment.
The electronic camera includes a photographic lens 11, a lens driving unit 12, an image sensor 13, an analog processing unit 14, a memory 15, an image processing unit 16, a compression / decompression processing unit 17, a recording I / F 18, an external An I / F 19, a communication unit 20, a light emitting unit 21, an operation unit 22, a monitor 23, a CPU 24 and a system bus 25 are included. The memory 15, the image processing unit 16, the compression / decompression processing unit 17, the recording I / F 18, the external I / F 19, the communication unit 20, the monitor 23, and the CPU 24 are connected via a system bus 25.

撮影レンズ11は、ズームレンズと合焦位置調節用のフォーカシングレンズとを含む複数のレンズ群で構成されている。撮影レンズ11の位置はレンズ駆動部12によって光軸方向に駆動調整される。なお、レンズ駆動部12の入出力はCPU24と接続されている。
撮像素子13は、撮影レンズ11を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。被写体の撮影を行う撮影モードでは、撮像素子13は、撮影時に記録用画像(本画像)を撮影するとともに、撮影待機時にも所定間隔毎に間引き読み出しでスルー画像を出力する。上記のスルー画像のデータは、CPU24による各種の演算処理やモニタ23での表示などに使用される。
The photographing lens 11 is composed of a plurality of lens groups including a zoom lens and a focusing lens for adjusting a focus position. The position of the photographic lens 11 is driven and adjusted in the optical axis direction by the lens driving unit 12. The input / output of the lens driving unit 12 is connected to the CPU 24.
The image sensor 13 photoelectrically converts the light beam that has passed through the photographing lens 11 to generate an analog image signal of the subject image. In the shooting mode for shooting a subject, the image sensor 13 captures a recording image (main image) at the time of shooting, and outputs a through image by thinning out at predetermined intervals even during standby for shooting. The through image data is used for various arithmetic processes by the CPU 24 and display on the monitor 23.

アナログ処理部14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このアナログ処理部14は、CDS回路、ゲイン回路、A/D変換回路を内部に有している。アナログ処理部14のCDS回路は、相関二重サンプリングによって撮像素子13の出力のノイズ成分を低減する。アナログ処理部14のゲイン回路は、CPU24の指示に基づいて入力信号の利得を増幅する。上記のゲイン回路では、ISO感度に相当する撮像感度の調整を行うことができる。また、アナログ処理部14のA/D変換回路は、ゲイン回路から出力されたアナログ画像信号にA/D変換を行う。このA/D変換回路の出力はメモリ15に接続されている。   The analog processing unit 14 is an analog front-end circuit that performs analog signal processing on the output of the image sensor 13. The analog processing unit 14 includes a CDS circuit, a gain circuit, and an A / D conversion circuit. The CDS circuit of the analog processing unit 14 reduces the noise component of the output of the image sensor 13 by correlated double sampling. The gain circuit of the analog processing unit 14 amplifies the gain of the input signal based on an instruction from the CPU 24. In the gain circuit described above, the imaging sensitivity corresponding to the ISO sensitivity can be adjusted. The A / D conversion circuit of the analog processing unit 14 performs A / D conversion on the analog image signal output from the gain circuit. The output of this A / D conversion circuit is connected to the memory 15.

メモリ15は、後述の画像処理の前工程や後工程などで画像のデータを一時的に記録するためのバッファメモリである。
画像処理部16は、上記の撮影モードにおいて撮影時のデジタル画像信号に各種の画像処理を施して本画像を生成する。また、画像処理部16は、上記の撮影モードにおいて、CPU24の指示によりスルー画像の画像信号から表示用画像(ビュー画像)を生成する。一方、画像処理部16は、予め撮影されている本画像のデータに後処理で画像処理を施すことも可能である。なお、画像処理部16による画像処理の具体的な内容は後述する。
The memory 15 is a buffer memory for temporarily recording image data in a pre-process or post-process of image processing described later.
The image processing unit 16 performs various kinds of image processing on the digital image signal at the time of shooting in the above shooting mode to generate a main image. Further, the image processing unit 16 generates a display image (view image) from the image signal of the through image in accordance with an instruction from the CPU 24 in the above shooting mode. On the other hand, the image processing unit 16 can also perform image processing by post-processing on the data of the main image captured in advance. The specific contents of the image processing by the image processing unit 16 will be described later.

圧縮伸長処理部17は解析部および圧縮部を有するASICである(解析部および圧縮部の個別的な図示は省略する)。圧縮伸長処理部17の解析部では、撮影画像のデータに対して空間周波数の解析を行う。一方、圧縮伸長処理部17の圧縮部は、JPEG(Joint Photographic Experts Group)形式による圧縮伸長処理を実行する。
ここで、電子カメラの被写体抽出処理(第1抽出処理)では、解析部による空間周波数の解析処理を利用することができる。なお、解析部が被写体抽出のために空間周波数解析を行なう場合には、圧縮部による画像データの圧縮処理は必ずしも必要でない。すなわち、被写体抽出処理に必要なのは空間周波数の解析結果であり、画像データの圧縮処理は不要である。したがって、被写体抽出処理の場合には圧縮伸長処理部17の出力するデータは、後述の記録媒体26などには記録されない。
The compression / decompression processing unit 17 is an ASIC having an analysis unit and a compression unit (a separate illustration of the analysis unit and the compression unit is omitted). The analysis unit of the compression / decompression processing unit 17 performs spatial frequency analysis on the captured image data. On the other hand, the compression unit of the compression / decompression processing unit 17 executes compression / decompression processing in JPEG (Joint Photographic Experts Group) format.
Here, in subject extraction processing (first extraction processing) of the electronic camera, spatial frequency analysis processing by an analysis unit can be used. When the analysis unit performs spatial frequency analysis for subject extraction, image data compression processing by the compression unit is not necessarily required. That is, what is necessary for the subject extraction process is a spatial frequency analysis result, and image data compression processing is unnecessary. Accordingly, in the case of subject extraction processing, data output from the compression / decompression processing unit 17 is not recorded on the recording medium 26 described later.

記録I/F18には記録媒体26を接続するためのコネクタが形成されている。そして、記録I/F18は、コネクタに接続された記録媒体26に対して本画像データなどの書き込み/読み込みを実行する。上記の記録媒体26は、ハードディスクや半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記録媒体26の一例としてメモリカードを図示する。   A connector for connecting the recording medium 26 is formed in the recording I / F 18. The recording I / F 18 executes writing / reading of main image data and the like with respect to the recording medium 26 connected to the connector. The recording medium 26 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the recording medium 26.

外部I/F19は、USB(Universal Serial Bus)などのシリアル通信規格の接続端子を有している。そして、外部I/F19は、接続端子を介して接続された外部装置(コンピュータなど)とのデータ送受信を上記の通信規格に準拠して制御する。
通信部20は、無線LANの標準規格IEEE802.11やBluetooth(登録商標)などの公知の無線通信規格に規定された仕様に準拠して、外部装置との通信を制御する。例えば、撮影画像のデータを外部装置に送信する場合、通信部20は撮影画像のデータを無線通信可能なデータに変換するとともに、変換後のデータを外部装置に送信する。
The external I / F 19 has a connection terminal of a serial communication standard such as USB (Universal Serial Bus). The external I / F 19 controls data transmission / reception with an external device (such as a computer) connected via a connection terminal in accordance with the communication standard.
The communication unit 20 controls communication with an external device in accordance with specifications defined in a known wireless communication standard such as the wireless LAN standard IEEE 802.11 or Bluetooth (registered trademark). For example, when transmitting captured image data to an external device, the communication unit 20 converts the captured image data into data that can be wirelessly communicated, and transmits the converted data to the external device.

発光部21は、CPU24の指示に応じて被写体に対して撮影時に閃光を照射する。この発光部21は、例えば、キセノン発光管、発光のエネルギを蓄えるメインコンデンサ、閃光を被写体に効率良く照射するための反射傘やレンズ部材、発光制御回路などから構成されている。
操作部22はレリーズ釦、モードダイヤル、操作釦などを備えている。操作部22のレリーズ釦は露光動作開始の指示入力をユーザーから受け付ける。操作部22のモードダイヤルは、電子カメラの撮影モードの切換入力をユーザーから受け付ける。操作部22の操作釦は、例えば十字キーなどで構成されている。この操作釦は、後述のメニュー画面での設定入力や、後述の被写体抽出処理での範囲指定入力をユーザーから受け付ける。
The light emitting unit 21 irradiates a subject with a flash according to an instruction from the CPU 24 at the time of photographing. The light emitting unit 21 includes, for example, a xenon arc tube, a main capacitor for storing light emission energy, a reflector or lens member for efficiently irradiating a subject with flash light, a light emission control circuit, and the like.
The operation unit 22 includes a release button, a mode dial, an operation button, and the like. The release button of the operation unit 22 receives an instruction input for starting an exposure operation from the user. The mode dial of the operation unit 22 receives a switching input of the photographing mode of the electronic camera from the user. The operation buttons of the operation unit 22 are configured with, for example, a cross key. This operation button receives a setting input on a menu screen described later and a range designation input in a subject extraction process described later from the user.

モニタ23は、CPU24の指示に応じて各種画像を表示する。本実施形態でのモニタ23は液晶モニタで構成されている。このモニタ23には、撮影モードでの撮影待機時にビュー画像が動画表示される。また、モニタ23は、オンスクリーン機能によって、撮影に必要となる各種情報の表示(例えば、後述の顔検出処理で検出された顔領域の枠表示や、後述の被写体抽出処理での各種情報など)をビュー画像に重畳表示させることができる。   The monitor 23 displays various images according to instructions from the CPU 24. The monitor 23 in this embodiment is a liquid crystal monitor. The monitor 23 displays a moving image of the view image during shooting standby in the shooting mode. Further, the monitor 23 displays various information necessary for photographing by an on-screen function (for example, display of a frame of a face area detected by a face detection process described later, various information in a subject extraction process described later, etc.). Can be superimposed on the view image.

さらに、モニタ23には、GUI(Graphical User Interface)形式の入力が可能なメニュー画面なども表示できる。上記のメニュー画面では、後述の被写体抽出処理の各種設定をCPU24に入力することができる。例えば、ユーサーは、被写体抽出処理のオン/オフ、被写体抽出処理における第1抽出処理(空間周波数解析)および第2抽出処理(2画像間の明るさの解析)の各々のオン/オフ、画像処理のオン/オフなどをメニュー画面で設定できる。なお、上記のメニュー画面での表示処理などはCPU24がプログラムに基づいて実行する(メニュー画面の図示は省略する)。   Further, the monitor 23 can display a menu screen or the like that allows input in GUI (Graphical User Interface) format. On the menu screen, various settings for subject extraction processing, which will be described later, can be input to the CPU 24. For example, the user turns on / off the subject extraction process, turns on / off each of the first extraction process (spatial frequency analysis) and the second extraction process (analysis of brightness between two images) in the subject extraction process, image processing You can set on / off of the on the menu screen. Note that the display processing on the menu screen is executed by the CPU 24 based on a program (the menu screen is not shown).

CPU24は、操作部22のモードダイヤルや上記のメニュー画面で選択されたモードに応じて、電子カメラの各部動作を制御する。また、CPU24は、後述の被写体抽出処理に必要となる各種演算を実行する。さらに、本実施形態のCPU24は、撮影条件決定部27、顔検出部28としても機能する。
撮影条件決定部27は、スルー画像のデータに基づいてコントラスト検出方式で公知のオートフォーカス(AF)を行う。また、撮影条件決定部27は、スルー画像のデータに基づいて自動露出(AE)演算や、オートホワイトバランス(AWB)演算を実行する。
The CPU 24 controls the operation of each part of the electronic camera according to the mode dial of the operation unit 22 or the mode selected on the menu screen. Further, the CPU 24 executes various calculations necessary for subject extraction processing described later. Furthermore, the CPU 24 of the present embodiment also functions as a shooting condition determination unit 27 and a face detection unit 28.
The imaging condition determination unit 27 performs known autofocus (AF) by a contrast detection method based on the data of the through image. The photographing condition determination unit 27 performs an automatic exposure (AE) calculation and an auto white balance (AWB) calculation based on the through image data.

顔検出部28は、スルー画像または本画像のデータから被写体の顔領域、顔の大きさ等を検出する。例えば、顔検出部28は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。あるいは、顔検出部28は、特開平8−63597号公報のように、被写体の色情報に基いて肌色領域の輪郭を抽出し、さらに予め用意された顔部品のテンプレートとのマッチングを行って顔領域を検出してもよい。   The face detection unit 28 detects the face area of the subject, the size of the face, and the like from the data of the through image or the main image. For example, the face detection unit 28 extracts a face region by a feature point extraction process described in Japanese Patent Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head apexes, and chin lower end points. Alternatively, the face detection unit 28 extracts the outline of the skin color area based on the color information of the subject as in Japanese Patent Laid-Open No. 8-63597, and performs matching with a template of a face component prepared in advance. An area may be detected.

以下、第1実施形態の電子カメラにおける撮影時のCPU24の動作を、図2の流れ図を参照しつつ説明する。
ステップ101:CPU24は、撮像素子13を駆動させてスルー画像の取得を開始する。撮像素子13は所定間隔毎に間引き読み出しでスルー画像の画像信号を取得する。画像処理部16はスルー画像のデータに基づいてビュー画像を逐次生成する。そして、撮影待機時のモニタ23にはビュー画像が動画表示される。したがって、ユーザーはモニタ23のビュー画像によって、撮影構図を決定するためのフレーミングを行うことができる。
The operation of the CPU 24 at the time of shooting in the electronic camera of the first embodiment will be described below with reference to the flowchart of FIG.
Step 101: The CPU 24 drives the imaging device 13 to start acquiring a through image. The imaging element 13 acquires an image signal of a through image by thinning out reading at predetermined intervals. The image processing unit 16 sequentially generates view images based on the through image data. The view image is displayed as a moving image on the monitor 23 at the time of shooting standby. Therefore, the user can perform framing for determining the shooting composition based on the view image on the monitor 23.

ステップ102:CPU24は、撮影画面に対応するスルー画像において、第1部分領域の範囲と第2部分領域の範囲とを決定する。これにより、撮影画面は、第1部分領域の範囲と第2部分領域の範囲とで2分割されることとなる。
第1部分領域は、後述の被写体抽出処理の演算対象となる画像であって、抽出対象となる主要被写体の全体が含まれるようにその外縁が決定される。すなわち、第1部分領域の範囲には、抽出対象となる主要被写体の全体が含まれている。また、第2部分領域は、上記の撮影画面から第1部分領域の範囲を除いた残りの範囲の画像である。この第2部分領域は主要被写体を含まないため、後述の被写体抽出処理の演算対象となることはない。
Step 102: The CPU 24 determines the range of the first partial area and the range of the second partial area in the through image corresponding to the shooting screen. As a result, the photographing screen is divided into two parts by the range of the first partial region and the range of the second partial region.
The first partial area is an image that is a calculation target of a subject extraction process, which will be described later, and its outer edge is determined so as to include the entire main subject to be extracted. That is, the range of the first partial area includes the entire main subject to be extracted. The second partial area is an image of the remaining range obtained by removing the range of the first partial area from the above-described shooting screen. Since the second partial region does not include the main subject, the second partial region is not a calculation target for subject extraction processing described later.

ここで、S102において、CPU24は以下の(1)から(3)のいずれかの方法で第1部分領域および第2部分領域の範囲を決定する。
(1)CPU24の顔検出部28はスルー画像に対して顔検出処理を実行する。そして、CPU24は、検出された顔領域の位置に基づいて主要被写体の概略位置を推定し、第1部分領域の範囲を決定する。この場合は、人が主要被写体となる可能性が高いからである。そして、この場合には、顔検出の結果に応じて第1部分領域の範囲が自動的に設定されるので、電子カメラの操作性が大幅に向上する。
Here, in S102, the CPU 24 determines the range of the first partial area and the second partial area by any one of the following methods (1) to (3).
(1) The face detection unit 28 of the CPU 24 executes face detection processing on the through image. Then, the CPU 24 estimates the approximate position of the main subject based on the detected position of the face area, and determines the range of the first partial area. In this case, there is a high possibility that a person will be the main subject. In this case, since the range of the first partial area is automatically set according to the result of face detection, the operability of the electronic camera is greatly improved.

なお、顔が複数検出された場合、CPU24は、最もサイズが大きく至近側にあると推定される顔領域か、最も中央寄りに位置する顔領域のいずれかを基準として第1部分領域の範囲を決定する。
以下、顔検出による第1部分領域の範囲の決定方法をより具体的に説明する。
まず、CPU24は顔検出処理を実行する。そして、CPU24は各々の特徴点や顔のパーツなどの位置関係から顔のサイズと顔の上下方向とを求める。このとき、CPU24はモニタ23のビュー画像において主要被写体の顔の位置に矩形の枠を重畳して表示する(図3参照)。
When a plurality of faces are detected, the CPU 24 determines the range of the first partial area based on either the face area that is estimated to be the largest and closest to the face, or the face area that is located closest to the center. decide.
Hereinafter, a method for determining the range of the first partial region by face detection will be described more specifically.
First, the CPU 24 executes face detection processing. Then, the CPU 24 obtains the face size and the vertical direction of the face from the positional relationship of each feature point and face part. At this time, the CPU 24 displays a rectangular frame superimposed on the face position of the main subject in the view image of the monitor 23 (see FIG. 3).

また、撮影画面上の顔が大きすぎる場合または小さすぎる場合のように、人物全体を抽出する被写体抽出処理に適さないシーンでは、CPU24はユーザーに対して警告を行う。この警告の有無によって、ユーザーは被写体抽出処理に適した撮影構図か否かを容易に判断できる。そのため、電子カメラの使い勝手はより良好なものとなる。なお、上記の警告の方法としては、例えば、モニタ23上に警告表示を重畳表示するものや、音声や振動でユーザーに警告を通知するものなどが挙げられる(モニタ23上での警告表示の図示は省略する)。   Further, in a scene that is not suitable for subject extraction processing for extracting the entire person, such as when the face on the shooting screen is too large or too small, the CPU 24 warns the user. Based on the presence or absence of this warning, the user can easily determine whether or not the photographing composition is suitable for subject extraction processing. Therefore, the usability of the electronic camera becomes better. Examples of the warning method include a method in which a warning display is superimposed on the monitor 23 and a method in which a warning is given to the user by voice or vibration (illustration of the warning display on the monitor 23). Is omitted).

次に、CPU24は、主要被写体の顔の位置と顔の上下方向とに基づいて、第1部分領域の候補領域を仮設定する。図4の例では、第1部分領域の候補領域は人型の形状となっている。また、CPU24は、上記の候補領域の大きさを主要被写体の顔のサイズに比例させて拡大または縮小する。その後、CPU24は上記の候補領域を第1部分領域の範囲に設定する。ここで、図4(a)では、図3に対応するシーンでの第1部分領域の範囲を示す。また、図4(b)では、図4(a)よりも人物の顔が大きいシーンでの第1部分領域の範囲を示す。   Next, the CPU 24 temporarily sets a candidate area for the first partial area based on the face position of the main subject and the vertical direction of the face. In the example of FIG. 4, the candidate area of the first partial area has a humanoid shape. The CPU 24 enlarges or reduces the size of the candidate area in proportion to the face size of the main subject. Thereafter, the CPU 24 sets the candidate area as the range of the first partial area. Here, FIG. 4A shows the range of the first partial region in the scene corresponding to FIG. FIG. 4B shows the range of the first partial region in a scene in which a human face is larger than that in FIG.

(2)CPU24は操作部22から主要被写体の概略位置をマニュアルで指定する指定入力をユーザーから受け付ける。そして、CPU24は、上記の指定入力に基づいて第1部分領域の範囲を決定する。この場合には、ユーザー自身で選択した第1部分領域によって、被写体抽出処理が行われることとなる。
一例として、CPU24がモニタ23のビュー画像上に、例えば矩形、円形、楕円形などの形状の候補領域を重畳表示する。ユーザーは操作部22の操作釦で候補領域のサイズ変更および移動を行なう。そして、第1部分領域の範囲として候補領域が所望の位置および大きさとなったときに、ユーザーは候補領域を第1部分領域の範囲とする指定入力をCPU24に対して行う。
(2) The CPU 24 receives a designation input for manually designating the approximate position of the main subject from the operation unit 22 from the user. Then, the CPU 24 determines the range of the first partial area based on the above specified input. In this case, subject extraction processing is performed by the first partial region selected by the user himself / herself.
As an example, the CPU 24 superimposes and displays a candidate area having a shape such as a rectangle, a circle, and an ellipse on the view image of the monitor 23. The user uses the operation buttons on the operation unit 22 to change the size and move the candidate area. Then, when the candidate area has a desired position and size as the range of the first partial area, the user performs designation input for setting the candidate area as the range of the first partial area to the CPU 24.

(3)撮影構図を決めるための構図補助フレームをモニタ23のビュー画像に重畳表示した状態で撮影を行なう場合には、構図補助フレームの位置に基づいて第1部分領域の範囲を決定する。この場合には、構図補助フレーム内に主要被写体が位置していると考えられるからである。なお、CPU24は、第1部分領域の範囲と構図補助フレームの範囲とを一致させてもよく、第1部分領域の範囲を構図補助フレームの範囲よりも広く設定してもよい。   (3) When shooting is performed in a state where a composition assist frame for determining the composition is superimposed on the view image of the monitor 23, the range of the first partial region is determined based on the position of the composition assist frame. In this case, it is considered that the main subject is located in the composition assistance frame. The CPU 24 may match the range of the first partial area with the range of the composition auxiliary frame, or may set the range of the first partial area wider than the range of the composition auxiliary frame.

ステップ103:CPU24は、S102で決定された第1部分領域の範囲を示す表示を、モニタ23のビュー画像に重畳して表示する。これにより、S102で決定された第1部分領域の範囲をユーザーが確認できる。そして、第1部分領域の範囲が不適切な場合には、ユーザーによって撮影構図の変更や第1部分領域の範囲の再設定などが行われることとなる。   Step 103: The CPU 24 displays a display indicating the range of the first partial area determined in S102 in a superimposed manner on the view image of the monitor 23. Thereby, the user can confirm the range of the first partial area determined in S102. When the range of the first partial area is inappropriate, the user changes the shooting composition, resets the range of the first partial area, or the like.

ここで、S103での表示では、CPU24は第1部分領域の外縁部を枠で囲って示してもよい。あるいは、CPU24は、第1部分領域と第2部分領域との範囲で色や明るさの表示状態を変化させた画像を表示してもよい。なお、図5では、図4(a)に対応する第1部分領域の範囲をビュー画像において枠表示した例を示している。
ステップ104:CPU24はレリーズ釦が半押しされたか否かを判定する。レリーズ釦が半押しされた場合(YES側)にはS105に移行する。一方、レリーズ釦が半押しされていない場合(NO側)には、CPU24はS102に戻って上記動作を繰り返す。
Here, in the display in S103, the CPU 24 may enclose the outer edge portion of the first partial region with a frame. Or CPU24 may display the image which changed the display state of the color and the brightness in the range of the 1st partial field and the 2nd partial field. FIG. 5 shows an example in which the range of the first partial area corresponding to FIG. 4A is displayed as a frame in the view image.
Step 104: The CPU 24 determines whether or not the release button is half-pressed. If the release button is pressed halfway (YES side), the process proceeds to S105. On the other hand, when the release button is not half-pressed (NO side), the CPU 24 returns to S102 and repeats the above operation.

ステップ105:CPU24は、第1部分領域に対する被写体抽出処理を省略するか否かを判定する。例えば、メニュー画面で被写体抽出処理の項目がオフに設定されている場合には、CPU24は上記判定において、第1部分領域の被写体抽出処理を省略する判定を行う。
第1部分領域に対する被写体抽出処理を省略する場合(YES側)にはS106に移行する。一方、第1部分領域に対して被写体抽出処理を実行する場合(NO側)にはS108に移行する。
Step 105: The CPU 24 determines whether or not to omit subject extraction processing for the first partial region. For example, when the subject extraction processing item is set to OFF on the menu screen, the CPU 24 performs the determination of omitting the subject extraction processing of the first partial area in the above determination.
When the subject extraction process for the first partial region is omitted (YES side), the process proceeds to S106. On the other hand, when subject extraction processing is executed for the first partial region (NO side), the process proceeds to S108.

ステップ106:CPU24の撮影条件決定部27は、第1部分領域の範囲内にあるAFエリアを基準としてAFを実行する。また、CPU24の撮影条件決定部27は、第1部分領域に対応するスルー画像のデータに基づいてAE演算およびAWB演算を実行し、撮影条件(露光時間、絞り値、撮像感度)を決定する。なお、顔検出処理とともに主要被写体の顔を基準として顔認識AFを行っている場合には、CPU24はレリーズ釦の半押しによってAFロックを行う。   Step 106: The photographing condition determination unit 27 of the CPU 24 executes AF with reference to the AF area within the first partial area. In addition, the shooting condition determination unit 27 of the CPU 24 performs AE calculation and AWB calculation based on the through image data corresponding to the first partial region, and determines shooting conditions (exposure time, aperture value, and imaging sensitivity). When face recognition AF is performed with the face of the main subject as a reference together with the face detection process, the CPU 24 performs AF lock by pressing the release button halfway.

ステップ107:CPU24は、レリーズ釦の全押しに応じて被写体を撮影する。そして、CPU24は、画像処理部16に本画像のデータを生成させる。そして、本画像のデータは最終的に記録媒体26に記録される。このS107の場合には、第1部分領域に対する被写体抽出処理を行うことなく撮影動作が終了する。
なお、S107において、CPU24は、上記の第1部分領域の範囲と第2部分領域の範囲とを示す付属データを、本画像のデータに記録するようにしてもよい。上記の付属データは、例えばExif(Exchangeable image file format for digital still cameras)規格のMakerNoteタグを利用して記録される。この本画像のデータによれば、画像処理装置などで後述の被写体抽出処理を事後的に実行することが容易となる。
Step 107: The CPU 24 shoots the subject in response to the release button being fully pressed. Then, the CPU 24 causes the image processing unit 16 to generate main image data. The data of the main image is finally recorded on the recording medium 26. In the case of S107, the photographing operation is terminated without performing subject extraction processing for the first partial region.
In S107, the CPU 24 may record attached data indicating the range of the first partial area and the range of the second partial area in the data of the main image. The attached data is recorded using, for example, a MakerNote tag of the Exif (Exchangeable image file format for digital still cameras) standard. According to the data of the main image, it becomes easy to execute a subject extraction process described later later by an image processing apparatus or the like.

ステップ108:この場合には、CPU24は、後述の第1抽出処理(空間周波数解析)のみで第1部分領域の範囲から主要被写体を抽出するか否かを判定する。すなわち、S108では、被写体抽出処理で後述の第2抽出処理を省略するか否かをCPU24が判定する。
例えば、(1)メニュー画面で第2抽出処理の項目がオフに設定されている場合、(2)発光部21の発光を禁止する撮影モードが選択されている場合、(3)電子カメラのバッテリーレベルが閾値以下の場合のいずれかに該当するときに、CPU24は上記判定において第2抽出処理を省略する判定を行う。
Step 108: In this case, the CPU 24 determines whether or not a main subject is to be extracted from the range of the first partial region only by a first extraction process (spatial frequency analysis) described later. That is, in S108, the CPU 24 determines whether or not a second extraction process described later is omitted in the subject extraction process.
For example, (1) when the item of the second extraction process is set to OFF on the menu screen, (2) when a shooting mode for prohibiting light emission of the light emitting unit 21 is selected, (3) battery of the electronic camera When the level corresponds to any of the cases where the level is equal to or lower than the threshold value, the CPU 24 performs a determination of omitting the second extraction process in the determination.

第1抽出処理のみで被写体抽出処理を行う場合(YES側)にはS109に移行する。一方、第2抽出処理を伴う被写体抽出処理を行う場合(NO側)にはS110に移行する。
ステップ109:CPU24は、圧縮伸長処理部17を用いた周波数解析(第1抽出処理)によって第1部分領域から主要被写体を抽出する。なお、S109の処理後には、CPU24はS113に移行する。
When the subject extraction process is performed only by the first extraction process (YES side), the process proceeds to S109. On the other hand, when subject extraction processing involving the second extraction processing is performed (NO side), the process proceeds to S110.
Step 109: The CPU 24 extracts a main subject from the first partial region by frequency analysis (first extraction processing) using the compression / decompression processing unit 17. Note that after the processing of S109, the CPU 24 proceeds to S113.

このS109の第1抽出処理では、まず、CPU24はスルー画像の第1部分領域を8×8画素程度の画素ブロックに分割する。次に、圧縮伸長処理部17は、CPU24の指示によって、上記の各々の画素ブロックに離散コサイン変換(DCT)処理を施し、各々の画素ブロック毎のDCT係数を取得する。CPU24は、第1部分領域の画素ブロックのうちから主要被写体の輪郭を構成する画素ブロックを抽出する。   In the first extraction process of S109, first, the CPU 24 divides the first partial area of the through image into pixel blocks of about 8 × 8 pixels. Next, the compression / decompression processing unit 17 performs a discrete cosine transform (DCT) process on each pixel block in accordance with an instruction from the CPU 24, and acquires a DCT coefficient for each pixel block. The CPU 24 extracts a pixel block constituting the outline of the main subject from the pixel blocks in the first partial area.

ここで、上記のDCT係数と主要被写体の抽出処理との関係について簡単に説明する。図6はモノクロ画像における輪郭部分での階調変化を示す図である。図6(a)のように明暗の変化が急峻な場合(輪郭が明確な画像)には、画像データに高域空間周波数成分が多く含まれる。そのため、図6(a)に対応する画像から得たDCT係数は高い空間周波数まで0でない値を有する。   Here, the relationship between the DCT coefficient and the main subject extraction process will be briefly described. FIG. 6 is a diagram showing a change in gradation at a contour portion in a monochrome image. When the change in brightness is steep (an image with a clear outline) as shown in FIG. 6A, the image data includes many high-frequency spatial frequency components. Therefore, the DCT coefficient obtained from the image corresponding to FIG. 6A has a non-zero value up to a high spatial frequency.

一方、図6(b)のように明暗の変化がなだらかな場合(輪郭を含まない画像)は、図6(a)の場合と比べて画像データから高域空間周波数成分が少なくなる。図6(b)に対応する画像から得たDCT係数の値は、図6(a)の場合よりも低い空間周波数成分から0となる。したがって、CPU24は、各周波数成分に対するDCT係数の分布に着目し、高域周波数成分に対応するDCT係数が0値ではない画素ブロックを主要被写体の輪郭として抽出する。なお、CPU24は、画像の色差および明度などの情報に基づいて輪郭で仕切られた各々の領域をグループ化するようにしてもよい。   On the other hand, when the change in brightness is gentle as shown in FIG. 6B (an image that does not include an outline), the high frequency spatial frequency component is reduced from the image data as compared with the case of FIG. The value of the DCT coefficient obtained from the image corresponding to FIG. 6B is 0 from the lower spatial frequency component than in the case of FIG. Therefore, the CPU 24 pays attention to the distribution of the DCT coefficient for each frequency component, and extracts a pixel block whose DCT coefficient corresponding to the high frequency component is not zero as the outline of the main subject. Note that the CPU 24 may group the areas partitioned by the outline based on information such as the color difference and brightness of the image.

ステップ110:この場合には、CPU24は、被写体抽出処理で第1抽出処理を省略するか否かを判定する。具体的には、メニュー画面で第1抽出処理の項目がオフに設定されている場合には、CPU24は上記判定において第1抽出処理を省略する判定を行う。第1抽出処理を省略する場合(YES側)にはS111に移行する。一方、被写体抽出処理で第1抽出処理および第2抽出処理の両方を行う場合(NO側)にはS112に移行する。   Step 110: In this case, the CPU 24 determines whether or not to omit the first extraction process in the subject extraction process. Specifically, when the item of the first extraction process is set to OFF on the menu screen, the CPU 24 performs a determination of omitting the first extraction process in the above determination. When the first extraction process is omitted (YES side), the process proceeds to S111. On the other hand, when both the first extraction process and the second extraction process are performed in the subject extraction process (NO side), the process proceeds to S112.

ステップ111:CPU24は、発光部21の発光状態を変化させて撮影した2画像間の明るさの解析(第2抽出処理)によって、第1部分領域から主要被写体を抽出する。なお、S111の処理後には、CPU24はS113に移行する。
このS111の第2抽出処理では、CPU24は発光部21を発光させた状態と発光させない状態とで略同一の被写体を撮影した画像をそれぞれ取得する。説明の便宜上、発光部21を発光させて撮影した画像を第1撮影画像と定義する。また、発光部21を発光させずに撮影したスルー画像を第2撮影画像と定義する。この第1実施形態では、第1撮影画像および第2撮影画像はいずれもスルー画像である。
Step 111: The CPU 24 extracts the main subject from the first partial region by analyzing the brightness between the two images captured by changing the light emission state of the light emitting unit 21 (second extraction process). Note that after the processing of S111, the CPU 24 proceeds to S113.
In the second extraction process of S111, the CPU 24 acquires images obtained by photographing substantially the same subject in a state where the light emitting unit 21 emits light and a state where the light emitting unit 21 does not emit light. For convenience of explanation, an image captured by causing the light emitting unit 21 to emit light is defined as a first captured image. A through image captured without causing the light emitting unit 21 to emit light is defined as a second captured image. In the first embodiment, the first captured image and the second captured image are both through images.

次に、CPU24は以下の(1)または(2)の方法によって第1部分領域から主要被写体を抽出する(図7参照)。
(1)CPU24は、第1撮影画像および第2撮影画像の第1部分領域において、明るさの差分値を画素毎に演算する。そして、CPU24は明るさの差分値に基づいて、第1撮影画像または第2撮影画像の第1部分領域から主要被写体を抽出する。
Next, the CPU 24 extracts a main subject from the first partial area by the following method (1) or (2) (see FIG. 7).
(1) The CPU 24 calculates a brightness difference value for each pixel in the first partial region of the first captured image and the second captured image. Then, the CPU 24 extracts a main subject from the first partial area of the first photographed image or the second photographed image based on the brightness difference value.

一般に発光撮影時の照度は光源からの距離の2乗に比例して小さくなる。すなわち、発光撮影時には主要被写体は明るく照射される一方で、主要被写体より遠くに位置する背景部分の明るさは低くなる。したがって、発光撮影時と非発光撮影時との明るさの差分値はカメラからの距離に応じて変化するので、かかる差分値を用いれば撮影画像から主要被写体を抽出できる。   In general, the illuminance during flash photography decreases in proportion to the square of the distance from the light source. That is, during flash photography, the main subject is illuminated brightly, while the brightness of the background portion located farther from the main subject is low. Therefore, since the difference value of brightness between the flash photography and the non-flash photography changes according to the distance from the camera, the main subject can be extracted from the photographed image by using such a difference value.

(2)CPU24は、第1撮影画像および第2撮影画像の第1部分領域において、第1撮影画像の明るさと第2撮影画像の明るさとの比率を演算する。そして、CPU24は明るさの比率に基づいて、第1撮影画像または第2撮影画像の第1部分領域から主要被写体を抽出する。
上記(1)の差分値で被写体抽出を行うと、反射率の高い部分と低い部分とが隣接する被写体では抽出精度が低下することがある。例えば、黒髪の人物の顔を撮影する場合を考えると、黒髪の部分は反射率が低いので明るさの差分値が小さくなる一方で、顔の部分では相対的に反射率が高いことから明るさの差分値が大きくなる。従って、上記の場合には、人物が髪の部分と顔の部分とが同一の被写体として認識されない可能性がある。
(2) The CPU 24 calculates the ratio between the brightness of the first captured image and the brightness of the second captured image in the first partial region of the first captured image and the second captured image. Then, the CPU 24 extracts a main subject from the first partial region of the first captured image or the second captured image based on the brightness ratio.
If subject extraction is performed with the difference value of (1) above, the extraction accuracy may be reduced for subjects in which a portion with a high reflectance and a portion with a low reflectance are adjacent. For example, when shooting the face of a black-haired person, the dark-hair part has a low reflectance, so the difference in brightness is small, while the face part has a relatively high reflectance, so the brightness is high. The difference value of becomes larger. Therefore, in the above case, there is a possibility that the person does not recognize the hair part and the face part as the same subject.

ここで、第1撮影画像の明るさは、発光部21による照明光と環境光との和に被写体の反射率を乗じた値((照明光成分+環境光成分)×反射率)となる。また、第2撮影画像の明るさは環境光に被写体の反射率を乗じた値(環境光成分×反射率)となる。すなわち、したがって、明るさの比率に基づいて被写体を抽出する場合には被写体の反射率が相殺される。したがって、上記のように反射率の高い部分と低い部分とが隣接する被写体についても高い精度で抽出することが可能となる。   Here, the brightness of the first captured image is a value ((illumination light component + environment light component) × reflectance) obtained by multiplying the sum of the illumination light and the ambient light by the light emitting unit 21 by the reflectance of the subject. The brightness of the second captured image is a value obtained by multiplying the ambient light by the reflectance of the subject (environmental light component × reflectance). That is, when the subject is extracted based on the brightness ratio, the reflectance of the subject is canceled out. Therefore, it is possible to extract with high accuracy a subject in which a portion with a high reflectance and a portion with a low reflectance are adjacent as described above.

ステップ112:この場合には、CPU24は、上記の第1抽出処理(S109)と第2抽出処理(S111)との両方を行って第1部分領域から主要被写体を抽出する。例えば、CPU24は、第1抽出処理および第2抽出処理のいずれか一方の処理で第1部分領域から主要被写体を絞り込んだ後に、他方の処理を行って抽出結果を補正して主要被写体の範囲を最終的に確定する。この場合には、主要被写体の抽出をより高い精度で行うことができる。   Step 112: In this case, the CPU 24 performs both the first extraction process (S109) and the second extraction process (S111) to extract the main subject from the first partial area. For example, the CPU 24 narrows down the main subject from the first partial region in either one of the first extraction processing and the second extraction processing, and then performs the other processing to correct the extraction result and thereby reduce the range of the main subject. Finalize. In this case, the main subject can be extracted with higher accuracy.

ステップ113:CPU24の撮影条件決定部27は、第1部分領域において主要被写体の範囲内にあるAFエリアを基準としてAFを実行する。また、CPU24の撮影条件決定部27は、上記の主要被写体の範囲に対応するスルー画像のデータに基づいてAE演算およびAWB演算を実行し、撮影条件(露光時間、絞り値、撮像感度)を決定する。なお、顔検出処理とともに主要被写体の顔を基準として顔認識AFを行っている場合には、CPU24はレリーズ釦の半押しによってAFロックを行う。   Step 113: The photographing condition determination unit 27 of the CPU 24 executes AF with reference to an AF area in the range of the main subject in the first partial area. Further, the shooting condition determination unit 27 of the CPU 24 executes AE calculation and AWB calculation based on the through image data corresponding to the range of the main subject to determine the shooting conditions (exposure time, aperture value, imaging sensitivity). To do. When face recognition AF is performed with the face of the main subject as a reference together with the face detection process, the CPU 24 performs AF lock by pressing the release button halfway.

ステップ114:CPU24は、レリーズ釦の全押しに応じて被写体を撮影する。そして、CPU24は、画像処理部16に本画像のデータを生成させる。
ステップ115:CPU24は、メニュー画面において被写体抽出処理が必要となる画像処理の項目がオンに設定されているか否かを判定する。上記項目の設定がオンの場合(YES側)にはS116に移行する。一方、上記項目の設定がいずれもオフの場合(NO側)にはS117に移行する。
Step 114: The CPU 24 captures the subject in response to the release button being fully pressed. Then, the CPU 24 causes the image processing unit 16 to generate main image data.
Step 115: The CPU 24 determines whether or not an item of image processing that requires subject extraction processing is set on in the menu screen. When the setting of the above item is on (YES side), the process proceeds to S116. On the other hand, if all of the above items are set off (NO side), the process proceeds to S117.

ステップ116:CPU24は、被写体抽出処理の結果に基づいて、画像処理部16に本画像のデータ(S114)の画像処理を実行させる。画像処理部16は、主要被写体の範囲または主要被写体以外の範囲(背景領域)のいずれかに、メニュー画面の項目で設定された所定の画像処理を施す。その後、CPU24は本画像のデータを記録媒体26などに記録する。以下、S116での画像処理の例を説明する。   Step 116: The CPU 24 causes the image processing unit 16 to perform image processing of the main image data (S114) based on the result of the subject extraction processing. The image processing unit 16 performs predetermined image processing set in the menu screen item on either the main subject range or a range other than the main subject (background region). Thereafter, the CPU 24 records the data of the main image on the recording medium 26 or the like. Hereinafter, an example of image processing in S116 will be described.

(1)画像処理部16は、本画像の背景領域に対して、画像のボケ度合いを大きくするボケ強調処理を実行する(図8参照)。具体的には、画像処理部16は、本画像の背景領域に点拡がり関数(PSF:Point Spread Function)のフィルタを畳み込み演算する。これにより、背景のぼかしによって主要被写体が浮かび上がるように表現された画像を容易に得ることができる。   (1) The image processing unit 16 performs a blur enhancement process for increasing the degree of blur of the image on the background area of the main image (see FIG. 8). Specifically, the image processing unit 16 performs a convolution operation with a point spread function (PSF) filter on the background region of the main image. As a result, it is possible to easily obtain an image expressed so that the main subject appears due to the background blur.

また、画像処理部16は、本画像の主要被写体の範囲に対して、コントラストを強調する公知の補正処理(階調補正やエッジ強調フィルタ処理等)をさらに施すようにしてもよい。この場合には本画像の主要被写体が強調されるので、画像処理後の画像の立体感をさらに高めることができる。
(2)画像処理部16は、本画像の主要被写体の範囲の彩度や明度を背景領域よりも高める補正を行う。この場合には、主要被写体の人物の肌色のくすみなどが軽減された好ましい撮影画像を得ることができる。あるいは、画像処理部16は、本画像の主要被写体の範囲の彩度を下げる補正を行って、人物の肌を白く表現するようにしてもよい。
Further, the image processing unit 16 may further perform a known correction process (tone correction, edge enhancement filter process, etc.) for enhancing the contrast on the range of the main subject of the main image. In this case, since the main subject of the main image is emphasized, the stereoscopic effect of the image after image processing can be further enhanced.
(2) The image processing unit 16 performs correction to increase the saturation and brightness of the main subject range of the main image over the background area. In this case, it is possible to obtain a preferable captured image in which the skin color dullness of the person who is the main subject is reduced. Alternatively, the image processing unit 16 may perform correction for lowering the saturation of the main subject range of the main image so as to express the human skin white.

(3)画像処理部16は、本画像の主要被写体の範囲には他の領域の階調曲線よりも相対的にコントラストが低めになる軟調の階調曲線の階調特性テーブルを適用する。この場合には、主要被写体の顔などに柔らかさのある好ましい撮影画像を得ることができる。
(4)画像処理部16は、本画像の背景領域の範囲に、漫画などのキャラクタや、文字、図形などを合成する処理を実行する。あるいは、画像処理部16は主要被写体の範囲のみをトリミングで抜き出して本画像のデータを生成してもよい。この場合には、娯楽性の高い撮影画像をユーザーに提供することができる。
(3) The image processing unit 16 applies a gradation characteristic table of a soft gradation curve in which the contrast is relatively lower than the gradation curves of other areas to the range of the main subject of the main image. In this case, it is possible to obtain a preferable photographed image with softness on the face of the main subject.
(4) The image processing unit 16 executes a process of synthesizing a character such as a cartoon, a character, a figure, or the like in the range of the background area of the main image. Alternatively, the image processing unit 16 may generate the data of the main image by extracting only the range of the main subject by trimming. In this case, a photographed image with high entertainment can be provided to the user.

ステップ117:CPU24は、被写体抽出処理で抽出した主要被写体の範囲を示す付属データを、本画像のデータとともに記録媒体26などに記録する。上記の付属データは、例えばExif規格のMakerNoteタグを利用して記録される。この場合には、撮影後に付属データを利用することで、画像処理装置によってS116で説明したような画像の編集を容易に行うことが可能となる。以上で、図2の一連の動作説明を終了する。   Step 117: The CPU 24 records the attached data indicating the range of the main subject extracted by the subject extraction process on the recording medium 26 together with the main image data. The attached data is recorded using, for example, an Exif standard MakerNote tag. In this case, by using the attached data after shooting, the image processing apparatus can easily edit the image as described in S116. This is the end of the description of the series of operations in FIG.

なお、第1実施形態の電子カメラでは、画像処理装置で第2抽出処理(S111)を事後的に行う場合を考慮して、第1撮影画像および第2撮影画像にそれぞれ対応する2つの本画像のデータを含む画像ファイルも生成することもできる。また、上記の画像ファイルには、第1部分領域の範囲と第2部分領域の範囲とを示す付属データとを対応付けして記録するようにしてもよい。   Note that in the electronic camera of the first embodiment, two main images corresponding to the first captured image and the second captured image are considered in consideration of the case where the second extraction process (S111) is performed afterwards in the image processing apparatus. It is also possible to generate an image file including the data. The image file may be recorded in association with attached data indicating the range of the first partial area and the range of the second partial area.

以下、第1実施形態の効果を説明する。
第1実施形態の電子カメラでは、撮影画像の第1部分領域に対して被写体抽出処理を施す。そのため、撮影画像全体に被写体抽出処理を行なう場合と比べて、主要被写体を高い精度で迅速に抽出できる。そして、第1実施形態の電子カメラでは、上記の被写体抽出処理を利用して、例えば、ポートレート撮影調の本画像などを画像処理によって容易に得ることができる。
Hereinafter, effects of the first embodiment will be described.
In the electronic camera of the first embodiment, subject extraction processing is performed on the first partial region of the captured image. Therefore, it is possible to quickly extract the main subject with high accuracy compared to the case where subject extraction processing is performed on the entire captured image. In the electronic camera according to the first embodiment, the subject extraction process described above can be used to easily obtain, for example, a portrait image and the like by image processing.

(第2実施形態の説明)
図9は、第2実施形態での電子カメラによる画像処理を説明する流れ図である。第2実施形態では、第1実施形態と同じ構成の電子カメラが画像処理装置として機能し、予め撮影されている本画像のデータを読み込んで被写体抽出処理を行う例を説明する。なお、第2実施形態での電子カメラの構成は第1実施形態と共通するため重複説明を省略する。
(Description of Second Embodiment)
FIG. 9 is a flowchart for explaining image processing by the electronic camera in the second embodiment. In the second embodiment, an example will be described in which an electronic camera having the same configuration as that of the first embodiment functions as an image processing apparatus, and the subject extraction process is performed by reading data of a main image that has been captured in advance. Note that the configuration of the electronic camera in the second embodiment is the same as that of the first embodiment, and thus a duplicate description is omitted.

ステップ201:CPU24は、編集対象となる本画像のデータを外部から読み込む。例えば、CPU24は本画像のデータを記録媒体26から読み込んでもよく、あるいは外部I/F19や通信部20を介して接続された外部装置(コンピュータなど)から本画像のデータを読み込んでもよい。
ステップ202:CPU24は、S201で読み込んだ編集対象のデータが、被写体抽出処理で抽出された主要被写体の範囲を示す付属データを含むか否かを判定する。すなわち、CPUは、上記第1実施形態のS117で生成された本画像のデータが編集対象であるか否かを判定する。上記の付属データを含む場合(YES側)にはS210に移行する。一方、上記の付属データを含まない場合(NO側)にはS203に移行する。
Step 201: The CPU 24 reads the main image data to be edited from the outside. For example, the CPU 24 may read main image data from the recording medium 26, or may read main image data from an external device (such as a computer) connected via the external I / F 19 or the communication unit 20.
Step 202: The CPU 24 determines whether or not the data to be edited read in S201 includes attached data indicating the range of the main subject extracted by the subject extraction process. That is, the CPU determines whether the data of the main image generated in S117 of the first embodiment is an editing target. If the above-mentioned attached data is included (YES side), the process proceeds to S210. On the other hand, if the above-mentioned attached data is not included (NO side), the process proceeds to S203.

ステップ203:CPU24は、S201で読み込んだ編集対象のデータが、第1撮影画像および第2撮影画像に対応する2つの本画像を含む画像ファイルであるか否かを判定する。上記の画像ファイルに該当する場合(YES側)にはS204に移行する。一方、上記の画像ファイルに該当しない場合(NO側)にはS207に移行する。
ステップ204:CPU24は、S201で読み込んだ編集対象のデータ(画像ファイル)が、第1部分領域の範囲と第2部分領域の範囲とを示す付属データを含んでいるか否かを判定する。上記の付属データを含む場合(YES側)にはS206に移行する。一方、上記の付属データを含まない場合(NO側)にはS205に移行する。
Step 203: The CPU 24 determines whether or not the data to be edited read in S201 is an image file including two main images corresponding to the first captured image and the second captured image. If the image file corresponds to the above (YES side), the process proceeds to S204. On the other hand, if the image file does not correspond (NO side), the process proceeds to S207.
Step 204: The CPU 24 determines whether or not the data to be edited (image file) read in S201 includes attached data indicating the range of the first partial area and the range of the second partial area. When the above-mentioned attached data is included (YES side), the process proceeds to S206. On the other hand, if the above-mentioned attached data is not included (NO side), the process proceeds to S205.

ステップ205:CPU24は、第1撮影画像または第2撮影画像のいずれかの本画像を用いて、第1部分領域の範囲と第2部分領域の範囲とを決定する。このS205では、本画像に対する顔検出処理(第1実施形態のS102(1)に対応する処理)か、ユーザーによる第1部分領域の範囲の指定入力(第1実施形態のS102(2)に対応する処理)に基づいて、CPU24が第1部分領域の範囲を決定する。   Step 205: The CPU 24 determines the range of the first partial area and the range of the second partial area by using either the first captured image or the second captured image. In this S205, a face detection process for the main image (a process corresponding to S102 (1) of the first embodiment) or a designation input of the range of the first partial area by the user (S102 (2) of the first embodiment) CPU 24 determines the range of the first partial area based on the processing to be performed.

ステップ206:CPU24は、第1撮影画像および第2撮影画像の明るさの解析(第2抽出処理)によって、いずれかの本画像の第1部分領域から主要被写体を抽出する。なお、このS206の第2抽出処理は、第1実施形態のS111の第2抽出処理に対応するので重複説明は省略する。
ステップ207:CPU24は、S201で読み込んだ編集対象のデータが、第1部分領域の範囲と第2部分領域の範囲とを示す付属データを含んでいるか否かを判定する。上記の付属データを含む場合(YES側)にはS209に移行する。一方、上記の付属データを含まない場合(NO側)にはS208に移行する。
Step 206: The CPU 24 extracts the main subject from the first partial region of any one of the main images by analyzing the brightness of the first and second captured images (second extraction process). Note that the second extraction process in S206 corresponds to the second extraction process in S111 of the first embodiment, and thus a duplicate description is omitted.
Step 207: The CPU 24 determines whether or not the data to be edited read in S201 includes attached data indicating the range of the first partial area and the range of the second partial area. When the above-mentioned attached data is included (YES side), the process proceeds to S209. On the other hand, if the above-mentioned attached data is not included (NO side), the process proceeds to S208.

ステップ208:CPU24は、本画像における第1部分領域の範囲と第2部分領域の範囲とを決定する。このS208では上記のS205と同様に、本画像に対する顔検出処理(第1実施形態のS102(1)に対応する処理)か、ユーザーによる第1部分領域の範囲の指定入力(第1実施形態のS102(2)に対応する処理)に基づいて、CPU24が第1部分領域の範囲を決定する。   Step 208: The CPU 24 determines the range of the first partial area and the range of the second partial area in the main image. In S208, as in S205 described above, face detection processing for the main image (processing corresponding to S102 (1) in the first embodiment) or designation input of the range of the first partial area by the user (in the first embodiment) CPU 24 determines the range of the first partial area based on the process corresponding to S102 (2).

ステップ209:CPU24は、圧縮伸長処理部17を用いた周波数解析(第1抽出処理)によって本画像の第1部分領域から主要被写体を抽出する。なお、このS209の第1抽出処理は、第1実施形態のS109の第1抽出処理に対応するので重複説明は省略する。
ステップ210:CPU24は、被写体抽出処理の結果に基づいて、画像処理部16に本画像のデータの画像処理を実行させる。画像処理部16は、主要被写体の範囲または主要被写体以外の範囲(背景領域)のいずれかに、メニュー画面の項目で設定された所定の画像処理を施す。その後、CPU24は本画像のデータを記録媒体26などに記録する。なお、各々の画像処理の説明は、第1実施形態のS116と同様であるので重複説明は省略する。
Step 209: The CPU 24 extracts a main subject from the first partial region of the main image by frequency analysis (first extraction processing) using the compression / decompression processing unit 17. Note that the first extraction process of S209 corresponds to the first extraction process of S109 of the first embodiment, and thus a duplicate description is omitted.
Step 210: The CPU 24 causes the image processing unit 16 to perform image processing of the main image data based on the result of the subject extraction processing. The image processing unit 16 performs predetermined image processing set in the menu screen item on either the main subject range or a range other than the main subject (background region). Thereafter, the CPU 24 records the data of the main image on the recording medium 26 or the like. Note that the description of each image processing is the same as that of S116 of the first embodiment, and thus a duplicate description is omitted.

上記の第2実施形態の電子カメラでは、撮影後の画像編集において、第1実施形態とほぼ同様の被写体抽出処理を行うことができる。そのため、撮影後の画像編集でのユーザーの利便性が大きく向上する。
(第3実施形態の説明)
図10は第3実施形態の画像処理装置のブロック図である。第3実施形態は第2実施形態の変形例であって、パーソナルコンピュータ等に画像処理プログラムを実行させて、第2実施形態と同様の画像処理装置を構成する例である。この第3実施形態の画像処理装置によっても、第2実施形態とほぼ同様の効果を得ることができる。
The electronic camera of the second embodiment can perform subject extraction processing that is substantially the same as that of the first embodiment in image editing after shooting. Therefore, the convenience of the user in image editing after shooting is greatly improved.
(Description of the third embodiment)
FIG. 10 is a block diagram of an image processing apparatus according to the third embodiment. The third embodiment is a modification of the second embodiment, in which an image processing program is executed by a personal computer or the like to configure an image processing apparatus similar to the second embodiment. The image processing apparatus according to the third embodiment can obtain substantially the same effect as that of the second embodiment.

画像処理装置は、制御部31と、メモリ32と、外部I/F33と、表示ドライバ部34と、ディスクモジュール35と、各部を接続するシステムバス36とを有している。また、画像処理装置には、キーボードやポインティングデバイス等の入力デバイス37と、モニタ38とが接続されている。
制御部31は画像処理装置の各部を演算制御する。また、制御部31は、画像処理プログラムの実行によって、上記実施形態の電子カメラの画像処理部16、圧縮伸長処理部17、CPU24の機能をソフトウエア上で再現する。メモリ32はプログラムおよびデータを記憶し、制御部31へのデータ送信や制御部31から返された処理結果を記憶する。外部I/F33は、画像処理装置に接続された周辺機器(例えば、電子カメラや記録媒体26など)とのデータ送受信を、USBなどのシリアル通信規格に準拠して制御する。表示ドライバ部34はモニタ38に画像出力を行う。ディスクモジュール35では、光ディスク、光磁気ディスクなどの記録媒体に対してデータの読み出し/書き込みを実行する。
The image processing apparatus includes a control unit 31, a memory 32, an external I / F 33, a display driver unit 34, a disk module 35, and a system bus 36 that connects the units. In addition, an input device 37 such as a keyboard or a pointing device and a monitor 38 are connected to the image processing apparatus.
The control unit 31 controls and controls each unit of the image processing apparatus. In addition, the control unit 31 reproduces the functions of the image processing unit 16, the compression / decompression processing unit 17, and the CPU 24 of the electronic camera of the above embodiment on software by executing the image processing program. The memory 32 stores programs and data, and stores data transmitted to the control unit 31 and processing results returned from the control unit 31. The external I / F 33 controls data transmission / reception with peripheral devices (for example, the electronic camera, the recording medium 26, and the like) connected to the image processing apparatus in accordance with a serial communication standard such as USB. The display driver unit 34 outputs an image to the monitor 38. The disk module 35 reads / writes data to / from a recording medium such as an optical disk or a magneto-optical disk.

(実施形態の補足事項)
(1)上記第1実施形態では、本画像の撮影前にスルー画像で被写体抽出処理を実行し、本画像の画像処理などに主要被写体の抽出結果を反映させる例を説明した。しかし、本発明では、スルー画像で被写体抽出処理を行うことなく、本画像に対して上記の第1抽出処理や第2抽出処理を実行して主要被写体を抽出してもよい。また、上記第1実施形態で第2抽出処理を行う場合には、第1撮影画像または第2撮影画像の一方をスルー画像とし、他方を本画像として画像間の明るさの解析を行うようにしてもよい。
(Supplementary items of the embodiment)
(1) In the first embodiment, the example in which the subject extraction process is executed with the through image before the main image is captured and the extraction result of the main subject is reflected in the image processing of the main image has been described. However, in the present invention, the main subject may be extracted by performing the first extraction process and the second extraction process on the main image without performing the subject extraction process on the through image. Further, when performing the second extraction process in the first embodiment, the brightness between the images is analyzed by using one of the first photographed image and the second photographed image as a through image and the other as the main image. May be.

(2)本発明の電子カメラの構成は上記実施形態に限定されることはない。例えば、CPU24はスルー画像のデータに基づいてAE演算を行うことなく、測光専用のセンサで分割測光を行なうようにしてもよい。また、電子カメラから通信部20などを省略してもよい。
(3)上記実施形態の第1抽出処理では、ウェーブレット変換などのDCT以外の直交変換を用いてもよい。また、第1抽出処理において、例えば、高速フーリエ変換などの他の公知の周波数解析を行うようにしてもよい。
(2) The configuration of the electronic camera of the present invention is not limited to the above embodiment. For example, the CPU 24 may perform division photometry with a sensor dedicated to photometry without performing AE calculation based on through image data. Further, the communication unit 20 and the like may be omitted from the electronic camera.
(3) In the first extraction process of the above embodiment, orthogonal transform other than DCT such as wavelet transform may be used. In the first extraction process, for example, other known frequency analysis such as fast Fourier transform may be performed.

(4)上記実施形態において、電子カメラまたは画像処理装置は、パターンマッチング処理などで人間の顔以外を対象とした被写体認識を行なって第1部分領域の範囲を決定するようにしてもよい。
(5)第1実施形態では、被写体抽出処理において第1抽出処理および第2抽出処理の両方を選択的に実行可能な電子カメラの例を説明した。しかし、本発明の電子カメラは、第1抽出処理または第2抽出処理のいずれか一方のみを実行可能な構成であってもよい。
(4) In the above-described embodiment, the electronic camera or the image processing apparatus may perform subject recognition on a subject other than a human face by pattern matching processing or the like to determine the range of the first partial region.
(5) In the first embodiment, the example of the electronic camera that can selectively execute both the first extraction process and the second extraction process in the subject extraction process has been described. However, the electronic camera of the present invention may be configured to execute only one of the first extraction process and the second extraction process.

第1実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of 1st Embodiment. 第1実施形態における撮影時のCPUの動作を示す流れ図The flowchart which shows operation | movement of CPU at the time of imaging | photography in 1st Embodiment. ビュー画像で顔領域を枠表示した例を示す図The figure which shows the example which displayed the frame of the face area in the view image 第1部分領域の範囲と第2部分領域の範囲の一例を示す図The figure which shows an example of the range of a 1st partial region, and the range of a 2nd partial region ビュー画像で第1部分領域の範囲を枠表示した例を示す図The figure which shows the example which displayed the range of the 1st partial area in the view image in the frame モノクロ画像における輪郭部分での階調変化を示す図The figure which shows the gradation change in the outline part in the monochrome image 第2抽出処理を説明するための概念図Conceptual diagram for explaining the second extraction process 第1実施形態におけるボケ強調処理を説明する概念図The conceptual diagram explaining the blur enhancement process in 1st Embodiment 第2実施形態での電子カメラによる画像処理を説明する流れ図Flowchart for explaining image processing by electronic camera in second embodiment 第3実施形態の画像処理装置の構成を示すブロック図The block diagram which shows the structure of the image processing apparatus of 3rd Embodiment.

符号の説明Explanation of symbols

13…撮像素子、16…画像処理部、17…圧縮伸長処理部、18…記録I/F、19…外部I/F、20…通信部、21…発光部、22…操作部、23…モニタ、24…CPU、26…記録媒体、27…撮影条件決定部、28…顔検出部、31…制御部、33…外部I/F、35…ディスクモジュール DESCRIPTION OF SYMBOLS 13 ... Image sensor, 16 ... Image processing part, 17 ... Compression / decompression processing part, 18 ... Recording I / F, 19 ... External I / F, 20 ... Communication part, 21 ... Light emission part, 22 ... Operation part, 23 ... Monitor , 24 ... CPU, 26 ... recording medium, 27 ... imaging condition determination unit, 28 ... face detection unit, 31 ... control unit, 33 ... external I / F, 35 ... disk module

Claims (23)

被写体像を撮影して撮影画像のデータを生成する撮像部と、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする電子カメラ。
An imaging unit that captures a subject image and generates data of the captured image;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
A first arithmetic unit that analyzes a spatial frequency of the data of the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
An electronic camera comprising:
被写体像を撮影して撮影画像のデータを生成する撮像部と、
被写体に対して光を照射する発光部と、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記発光部を発光させて取得した第1撮影画像と前記発光部を発光させずに取得した第2撮影画像と基づいて、前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第2演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする電子カメラ。
An imaging unit that captures a subject image and generates data of the captured image;
A light emitting unit that emits light to the subject;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
Based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light, the first partial region of the first captured image and the second captured image A second computing unit for obtaining at least one of a brightness difference and a brightness ratio with the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the second calculation unit;
An electronic camera comprising:
被写体像を撮影して撮影画像のデータを生成する撮像部と、
被写体に対して光を照射する発光部と、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記発光部を発光させて取得した第1撮影画像と前記発光部を発光させずに取得した第2撮影画像と基づいて、前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第1演算部および前記第2演算部の少なくとも一方の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
前記第1演算部および前記第2演算部の動作のオン/オフをそれぞれ変更する制御部と、
を備えることを特徴とする電子カメラ。
An imaging unit that captures a subject image and generates data of the captured image;
A light emitting unit that emits light to the subject;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
A first arithmetic unit that analyzes a spatial frequency of the data of the first partial region;
Based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light, the first partial region of the first captured image and the second captured image A second computing unit for obtaining at least one of a brightness difference and a brightness ratio with the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of at least one of the first calculation unit and the second calculation unit;
A control unit for changing on / off of the operations of the first calculation unit and the second calculation unit, and
An electronic camera comprising:
請求項3に記載の電子カメラにおいて、
前記制御部は、撮影モードの設定が前記発光部の発光を禁止する状態のときに前記第2演算部の動作をオフにすることを特徴とする電子カメラ。
The electronic camera according to claim 3.
The electronic control device, wherein the control unit turns off the operation of the second calculation unit when the shooting mode is set to prohibit light emission of the light emitting unit.
請求項3に記載の電子カメラにおいて、
前記第1演算部および前記第2演算部の動作の設定入力をユーザーから受け付ける操作部をさらに備え、
前記制御部は、前記第1演算部および前記第2演算部の動作のオン/オフを前記設定入力に基づいて変更することを特徴とする電子カメラ。
The electronic camera according to claim 3.
An operation unit that receives a setting input of an operation of the first calculation unit and the second calculation unit from a user;
The control unit is configured to change the on / off of the operation of the first calculation unit and the second calculation unit based on the setting input.
請求項1から請求項3のいずれか1項に記載の電子カメラにおいて、
前記撮影画像から前記主要被写体の特徴部分を検出して、前記撮影画像における前記主要被写体の概略位置を推定する被写体認識部をさらに備え、
前記領域分割部は、前記被写体認識部の出力に基づいて、前記第1部分領域の範囲および前記第2部分領域の範囲を決定することを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
A subject recognition unit that detects a characteristic portion of the main subject from the captured image and estimates a rough position of the main subject in the captured image;
The electronic camera according to claim 1, wherein the region dividing unit determines a range of the first partial region and a range of the second partial region based on an output of the subject recognition unit.
請求項6に記載の電子カメラにおいて、
前記被写体認識部は、前記撮影画像から人間の顔を検出することを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera, wherein the subject recognition unit detects a human face from the captured image.
請求項7に記載の電子カメラにおいて、
前記領域分割部は、前記第1部分領域の範囲の大きさを、前記被写体認識部の検出した顔の大きさに比例させて決定することを特徴とする電子カメラ。
The electronic camera according to claim 7,
The electronic camera according to claim 1, wherein the region dividing unit determines the size of the range of the first partial region in proportion to the size of the face detected by the subject recognition unit.
請求項1から請求項3のいずれか1項に記載の電子カメラにおいて、
前記主要被写体の概略位置を指定する指定入力を前記ユーザーから受け付ける操作部をさらに備え、
前記領域分割部は、前記第1部分領域の範囲および前記第2部分領域の範囲を前記指定入力に基づいて決定することを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
An operation unit for accepting a designation input for designating an approximate position of the main subject from the user;
The area dividing unit determines the range of the first partial area and the range of the second partial area based on the designated input.
請求項1から請求項3のいずれか1項に記載の電子カメラにおいて、
前記撮像部は、記録用の本画像と、前記本画像よりも解像度の低いスルー画像とを撮影し、
前記領域分割部、前記第1演算部および前記第2演算部は、前記本画像もしくは前記スルー画像のデータに対して各々の処理を実行し、
前記被写体抽出部は、前記スルー画像と対応する前記本画像から前記主要被写体を抽出することを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
The imaging unit captures a main image for recording and a through image having a lower resolution than the main image,
The region dividing unit, the first calculation unit, and the second calculation unit perform respective processes on the data of the main image or the through image,
The electronic camera, wherein the subject extraction unit extracts the main subject from the main image corresponding to the through image.
請求項10に記載の電子カメラにおいて、
前記第1部分領域の範囲をユーザーに認知させる表示とともに、前記スルー画像を表示するモニタをさらに備えることを特徴とする電子カメラ。
The electronic camera according to claim 10.
The electronic camera further comprising a monitor that displays the through image together with a display that allows a user to recognize the range of the first partial region.
請求項1から請求項3のいずれか1項に記載の電子カメラにおいて、
前記被写体抽出部による前記主要被写体の抽出範囲に基づいて、前記撮影画像のデータに対して画像処理を施す画像処理部をさらに備えることを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
An electronic camera, further comprising: an image processing unit that performs image processing on the captured image data based on an extraction range of the main subject by the subject extraction unit.
請求項12に記載の電子カメラにおいて、
前記画像処理部は、前記撮影画像から前記主要被写体の抽出範囲を除いた背景領域のボケ度合いを大きくするボケ強調処理を施すことを特徴とする電子カメラ。
The electronic camera according to claim 12,
The electronic camera according to claim 1, wherein the image processing unit performs a blur enhancement process for increasing a degree of blur of a background area excluding the extraction range of the main subject from the photographed image.
請求項1から請求項3のいずれか1項に記載の電子カメラにおいて、
前記被写体抽出部による前記主要被写体の抽出範囲に基づいて、前記撮像部の撮影条件を決定する撮影条件決定部をさらに備えることを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
The electronic camera further comprising: a shooting condition determining unit that determines a shooting condition of the imaging unit based on an extraction range of the main subject by the subject extracting unit.
請求項1から請求項3のいずれか1項に記載の電子カメラにおいて、
前記被写体抽出部による前記主要被写体の抽出範囲のデータを、前記撮影画像のデータとともに記録する記録部をさらに備えることを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
An electronic camera further comprising: a recording unit that records data of an extraction range of the main subject by the subject extraction unit together with data of the captured image.
被写体像を撮影した撮影画像のデータを読み込むデータ読込部と、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。
A data reading unit for reading data of a photographed image obtained by photographing a subject image;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
A first arithmetic unit that analyzes a spatial frequency of the data of the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
An image processing apparatus comprising:
被写体に対して光を照射して撮影した第1撮影画像のデータと、前記被写体に対して光を照射せずに撮影した第2撮影画像のデータとを読み込むデータ読込部と、
前記第1撮影画像および前記第2撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とそれぞれを決定する領域分割部と、
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。
A data reading unit that reads data of a first captured image captured by irradiating the subject with light and data of a second captured image captured without irradiating the subject with light;
An area dividing unit for determining a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the first captured image and the second captured image;
A second computing unit for obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
A subject extraction unit that extracts the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
An image processing apparatus comprising:
被写体像を撮影した撮影画像のデータと、前記撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを読み込むデータ読込部と、
前記撮影画像における前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。
A data reading unit that reads data of a photographed image obtained by photographing a subject image and data indicating a range of a first partial area including a main subject in the photographed image;
A first arithmetic unit that analyzes a spatial frequency of data of the first partial region in the captured image;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
An image processing apparatus comprising:
被写体に対して光を照射して撮影した第1撮影画像のデータと、前記被写体に対して光を照射せずに撮影した第2撮影画像のデータと、前記第1撮影画像および前記第2撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを読み込むデータ読込部と、
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。
Data of a first photographed image taken by irradiating a subject with light, data of a second photographed image taken without irradiating the subject with light, the first photographed image and the second photographed image A data reading unit for reading data indicating the range of the first partial area including the main subject in the image;
A second computing unit for obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
A subject extraction unit that extracts the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
An image processing apparatus comprising:
画像処理装置の制御部のプログラムであって、
被写体像を撮影した撮影画像のデータを前記制御部に読み込むステップと、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定するステップと、
前記第1部分領域のデータの空間周波数を解析するステップと、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。
A program for a control unit of an image processing apparatus,
Reading data of a photographed image obtained by photographing a subject image into the control unit;
Determining a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
Analyzing the spatial frequency of the data of the first partial region;
Extracting the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
Is executed by the control unit.
画像処理装置の制御部のプログラムであって、
被写体に対して光を照射して撮影した第1撮影画像のデータと、前記被写体に対して光を照射せずに撮影した第2撮影画像のデータとを前記制御部に読み込むステップと、
前記第1撮影画像および前記第2撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とそれぞれを決定するステップと、
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求めるステップと、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。
A program for a control unit of an image processing apparatus,
Reading data of a first photographed image taken by irradiating the subject with light and data of a second photographed image taken without irradiating the subject with light to the control unit;
Determining a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the first captured image and the second captured image;
Obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
Extracting the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
Is executed by the control unit.
画像処理装置の制御部のプログラムであって、
被写体像を撮影した撮影画像のデータと、前記撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを前記制御部に読み込むステップと、
前記撮影画像における前記第1部分領域のデータの空間周波数を解析するステップと、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。
A program for a control unit of an image processing apparatus,
Reading into the control unit data of a photographed image obtained by photographing a subject image and data indicating a range of a first partial area including a main subject in the photographed image;
Analyzing the spatial frequency of the data of the first partial region in the captured image;
Extracting the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
Is executed by the control unit.
画像処理装置の制御部のプログラムであって、
被写体に対して光を照射して撮影した第1撮影画像のデータと、前記被写体に対して光を照射せずに撮影した第2撮影画像のデータと、前記第1撮影画像および前記第2撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを前記制御部に読み込むステップと、
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求めるステップと、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。
A program for a control unit of an image processing apparatus,
Data of a first photographed image taken by irradiating a subject with light, data of a second photographed image taken without irradiating the subject with light, the first photographed image and the second photographed image Reading data indicating the range of the first partial area including the main subject in the image into the control unit;
Obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
Extracting the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
Is executed by the control unit.
JP2006273954A 2006-10-05 2006-10-05 Electronic camera, image processing apparatus and program Withdrawn JP2008092515A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006273954A JP2008092515A (en) 2006-10-05 2006-10-05 Electronic camera, image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006273954A JP2008092515A (en) 2006-10-05 2006-10-05 Electronic camera, image processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2008092515A true JP2008092515A (en) 2008-04-17

Family

ID=39376135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006273954A Withdrawn JP2008092515A (en) 2006-10-05 2006-10-05 Electronic camera, image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2008092515A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220122A (en) * 2009-03-18 2010-09-30 Ricoh Co Ltd Image processing apparatus, image capturing apparatus, image processing method, and image processing program
JP2011077790A (en) * 2009-09-30 2011-04-14 Nikon Corp Imaging apparatus, correction processing program and recording medium
JP2011103639A (en) * 2009-10-15 2011-05-26 Olympus Corp Image processing apparatus, method and image
WO2011099244A1 (en) 2010-02-10 2011-08-18 パナソニック株式会社 Image processing device and method
JP2011210204A (en) * 2010-03-31 2011-10-20 Casio Computer Co Ltd Difference image generation device, program and difference image generation method
WO2012002020A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Playback device, compound-eye imaging device, playback method and program
JP2012044380A (en) * 2010-08-18 2012-03-01 Canon Inc Imaging apparatus
JP2014006871A (en) * 2012-05-31 2014-01-16 Casio Comput Co Ltd Image region dividing device, method, and program
WO2016159143A1 (en) * 2015-03-30 2016-10-06 株式会社ニコン Electronic device and computer program product
JP2018034117A (en) * 2016-08-31 2018-03-08 東芝ライテック株式会社 Sterilizer
KR101836432B1 (en) * 2011-12-16 2018-03-12 삼성전자주식회사 Image pickup apparatus, method for image compensation and computer-readable recording medium

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220122A (en) * 2009-03-18 2010-09-30 Ricoh Co Ltd Image processing apparatus, image capturing apparatus, image processing method, and image processing program
JP2011077790A (en) * 2009-09-30 2011-04-14 Nikon Corp Imaging apparatus, correction processing program and recording medium
JP2011103639A (en) * 2009-10-15 2011-05-26 Olympus Corp Image processing apparatus, method and image
US8970746B2 (en) 2009-10-15 2015-03-03 Olympus Corporation Image processing device, storage medium, and image processing method for correcting an image
WO2011099244A1 (en) 2010-02-10 2011-08-18 パナソニック株式会社 Image processing device and method
US8803984B2 (en) 2010-02-10 2014-08-12 Dolby International Ab Image processing device and method for producing a restored image using a candidate point spread function
JP2011210204A (en) * 2010-03-31 2011-10-20 Casio Computer Co Ltd Difference image generation device, program and difference image generation method
WO2012002020A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Playback device, compound-eye imaging device, playback method and program
CN102972036A (en) * 2010-06-30 2013-03-13 富士胶片株式会社 Playback device, compound-eye imaging device, playback method and program
JPWO2012002020A1 (en) * 2010-06-30 2013-08-22 富士フイルム株式会社 Reproduction apparatus, compound eye imaging apparatus, reproduction method, and program
CN102972036B (en) * 2010-06-30 2016-08-31 富士胶片株式会社 Replay device, compound eye imaging device, playback method and program
JP5420076B2 (en) * 2010-06-30 2014-02-19 富士フイルム株式会社 Reproduction apparatus, compound eye imaging apparatus, reproduction method, and program
US9258552B2 (en) 2010-06-30 2016-02-09 Fujifilm Corporation Playback device, compound-eye image pickup device, playback method and non-transitory computer readable medium
JP2012044380A (en) * 2010-08-18 2012-03-01 Canon Inc Imaging apparatus
KR101836432B1 (en) * 2011-12-16 2018-03-12 삼성전자주식회사 Image pickup apparatus, method for image compensation and computer-readable recording medium
JP2014006871A (en) * 2012-05-31 2014-01-16 Casio Comput Co Ltd Image region dividing device, method, and program
WO2016159143A1 (en) * 2015-03-30 2016-10-06 株式会社ニコン Electronic device and computer program product
JP2016192606A (en) * 2015-03-30 2016-11-10 株式会社ニコン Electronic apparatus and program
CN107409177A (en) * 2015-03-30 2017-11-28 株式会社尼康 Electronic equipment and computer program product
EP3280129A4 (en) * 2015-03-30 2018-10-03 Nikon Corporation Electronic device and computer program product
US10567638B2 (en) 2015-03-30 2020-02-18 Nikon Corporation Electronic device and computer program product for setting image capturing conditions for multiple regions in image capturing sensor
CN107409177B (en) * 2015-03-30 2021-03-30 株式会社尼康 Electronic equipment
US11800074B2 (en) 2015-03-30 2023-10-24 Nikon Corporation Electronic device and computer program product
JP2018034117A (en) * 2016-08-31 2018-03-08 東芝ライテック株式会社 Sterilizer

Similar Documents

Publication Publication Date Title
JP2008092515A (en) Electronic camera, image processing apparatus and program
JP4935302B2 (en) Electronic camera and program
JP4924430B2 (en) Imaging apparatus, image processing apparatus, and program
JP4888191B2 (en) Imaging device
JP4848965B2 (en) Imaging device
JP2007124398A (en) Photographing device
JP2004207985A (en) Digital camera
JP2007282119A (en) Electronic camera and image processing apparatus
WO2010073619A1 (en) Image capture device
JP6472183B2 (en) Image processing apparatus, control method thereof, and program
US10270977B2 (en) Imaging apparatus and a method of tracking a subject in the imaging apparatus
JP2007282118A (en) Electronic camera and image processing apparatus
JP4894616B2 (en) Imaging device
JP2009111716A (en) Imaging apparatus, program and template generating method
JP4349380B2 (en) IMAGING DEVICE, METHOD FOR OBTAINING IMAGE
JP4888192B2 (en) Imaging device
JP2008092299A (en) Electronic camera
JP2007281647A (en) Electronic camera and image processing apparatus
JP5499531B2 (en) Electronic camera
JP2008288797A (en) Imaging apparatus
JP2007258923A (en) Image processing apparatus, image processing method, image processing program
JP5509621B2 (en) Image processing apparatus, camera, and program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2007259004A (en) Digital camera, image processor, and image processing program
JP2010147660A (en) Image processor, electronic camera and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100105