JP2008092515A - Electronic camera, image processing apparatus and program - Google Patents
Electronic camera, image processing apparatus and program Download PDFInfo
- Publication number
- JP2008092515A JP2008092515A JP2006273954A JP2006273954A JP2008092515A JP 2008092515 A JP2008092515 A JP 2008092515A JP 2006273954 A JP2006273954 A JP 2006273954A JP 2006273954 A JP2006273954 A JP 2006273954A JP 2008092515 A JP2008092515 A JP 2008092515A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- subject
- range
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影画像から主要被写体を抽出する機能を有する電子カメラ、画像処理装置および画像処理装置のプログラムに関する。 The present invention relates to an electronic camera, an image processing apparatus, and a program for an image processing apparatus having a function of extracting a main subject from a captured image.
従来から、電子カメラの撮影画像から主要被写体を抽出する技術については数多くの方法が提案されている。例えば、従来技術の一例として、特許文献1には輝度信号レベルの変化によるエッジ抽出処理によって、撮影画像中の主要被写体を検出する技術が開示されている。
しかし、従来技術では撮影画像全体を対象として被写体抽出処理を行なうため、プロセッサの演算量が非常に大きくなっていた。しかも、被写体抽出処理の対象となる撮影画像のサイズが大きくなると、1つの画像内に複数の類似する被写体が共存する可能性が高くなり、被写体抽出処理の精度が低下する傾向がある。その結果、従来技術では、撮影画像から被写体を高い精度で迅速に抽出することが非常に困難であり、その改善が要望されていた。 However, since the subject extraction processing is performed on the entire captured image in the conventional technology, the calculation amount of the processor has become very large. Moreover, when the size of the captured image that is the subject of the subject extraction process increases, there is a high possibility that a plurality of similar subjects coexist in one image, and the accuracy of the subject extraction process tends to decrease. As a result, in the prior art, it is very difficult to quickly extract a subject from a captured image with high accuracy, and there has been a demand for improvement.
本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、撮影画像から被写体を高い精度で迅速に抽出できる手段を提供することである。 The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide means capable of quickly extracting a subject from a captured image with high accuracy.
第1の発明の電子カメラは、撮像部と、領域分割部と、第1演算部と、被写体抽出部とを備える。撮像部は、被写体像を撮影して撮影画像のデータを生成する。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第1演算部は、第1部分領域のデータの空間周波数を解析する。被写体抽出部は、第1演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。 An electronic camera according to a first aspect includes an imaging unit, a region dividing unit, a first calculation unit, and a subject extraction unit. The imaging unit captures a subject image and generates captured image data. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The first calculation unit analyzes the spatial frequency of the data in the first partial region. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the first calculation unit.
第2の発明の電子カメラは、撮像部と、発光部と、領域分割部と、第2演算部と、被写体抽出部とを備える。撮像部は、被写体像を撮影して撮影画像のデータを生成する。発光部は、被写体に対して光を照射する。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第2演算部は、発光部を発光させて取得した第1撮影画像と発光部を発光させずに取得した第2撮影画像と基づいて、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第2演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。 An electronic camera of a second invention includes an imaging unit, a light emitting unit, a region dividing unit, a second calculating unit, and a subject extracting unit. The imaging unit captures a subject image and generates captured image data. The light emitting unit irradiates the subject with light. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The second calculation unit is configured to generate the first partial region of the first captured image and the second captured image based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light. At least one of the brightness difference from the first partial region and the brightness ratio. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the second calculation unit.
第3の発明の電子カメラは、撮像部と、発光部と、領域分割部と、第1演算部と、第2演算部と、被写体抽出部と、制御部とを備える。撮像部は、被写体像を撮影して撮影画像のデータを生成する。発光部は、被写体に対して光を照射する。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第1演算部は、第1部分領域のデータの空間周波数を解析する。第2演算部は、発光部を発光させて取得した第1撮影画像と発光部を発光させずに取得した第2撮影画像と基づいて、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第1演算部および第2演算部の少なくとも一方の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。制御部は、第1演算部および第2演算部の動作のオン/オフをそれぞれ変更する。 An electronic camera according to a third invention includes an imaging unit, a light emitting unit, a region dividing unit, a first calculation unit, a second calculation unit, a subject extraction unit, and a control unit. The imaging unit captures a subject image and generates captured image data. The light emitting unit irradiates the subject with light. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The first calculation unit analyzes the spatial frequency of the data in the first partial region. The second calculation unit is configured to generate the first partial region of the first captured image and the second captured image based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light. At least one of the brightness difference from the first partial region and the brightness ratio. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of at least one of the first calculation unit and the second calculation unit. A control part changes ON / OFF of operation | movement of a 1st calculating part and a 2nd calculating part, respectively.
第4の発明は、第3の発明において、制御部は、撮影モードの設定が発光部の発光を禁止する状態のときに第2演算部の動作をオフにする。
第5の発明は、第3の発明において、電子カメラが操作部をさらに備える。操作部は、第1演算部および第2演算部の動作の設定入力をユーザーから受け付ける。そして、制御部は、第1演算部および第2演算部の動作のオン/オフを設定入力に基づいて変更する。
In a fourth aspect based on the third aspect, the control section turns off the operation of the second calculation section when the shooting mode setting is in a state where the light emission section prohibits light emission.
In a fifth aspect based on the third aspect, the electronic camera further includes an operation unit. The operation unit receives input of setting of operations of the first calculation unit and the second calculation unit from the user. And a control part changes ON / OFF of operation | movement of a 1st calculating part and a 2nd calculating part based on a setting input.
第6の発明は、第1から第3のいずれかの発明において、電子カメラが被写体認識部をさらに備える。被写体認識部は、撮影画像から主要被写体の特徴部分を検出して、撮影画像における主要被写体の概略位置を推定する。そして、領域分割部は、被写体認識部の出力に基づいて、第1部分領域の範囲および第2部分領域の範囲を決定する。
第7の発明は、第6の発明において、被写体認識部は、撮影画像から人間の顔を検出する。
In a sixth aspect based on any one of the first to third aspects, the electronic camera further includes a subject recognition unit. The subject recognizing unit detects a characteristic portion of the main subject from the captured image, and estimates the approximate position of the main subject in the captured image. Then, the region dividing unit determines the range of the first partial region and the range of the second partial region based on the output of the subject recognition unit.
In a seventh aspect based on the sixth aspect, the subject recognition unit detects a human face from the captured image.
第8の発明は、第7の発明において、領域分割部は、第1部分領域の範囲の大きさを、被写体認識部の検出した顔の大きさに比例させて決定する。
第9の発明は、第1から第3のいずれかの発明において、電子カメラが操作部をさらに備える。操作部は、主要被写体の概略位置を指定する指定入力をユーザーから受け付ける。そして、領域分割部は、第1部分領域の範囲および第2部分領域の範囲を指定入力に基づいて決定する。
In an eighth aspect based on the seventh aspect, the region dividing unit determines the size of the range of the first partial region in proportion to the size of the face detected by the subject recognition unit.
In a ninth aspect based on any one of the first to third aspects, the electronic camera further includes an operation unit. The operation unit receives a designation input for designating the approximate position of the main subject from the user. Then, the region dividing unit determines the range of the first partial region and the range of the second partial region based on the designated input.
第10の発明は、第1から第3のいずれかの発明において、撮像部は、記録用の本画像と、本画像よりも解像度の低いスルー画像とを撮影する。領域分割部、第1演算部および第2演算部は、本画像もしくはスルー画像のデータに対して各々の処理を実行する。そして、被写体抽出部は、スルー画像と対応する本画像から主要被写体を抽出する。
第11の発明は、第10の発明において、電子カメラがモニタをさらに備える。モニタは、第1部分領域の範囲をユーザーに認知させる表示とともに、スルー画像を表示する。
In a tenth aspect based on any one of the first to third aspects, the imaging unit captures a main image for recording and a through image having a resolution lower than that of the main image. The area dividing unit, the first calculation unit, and the second calculation unit perform respective processes on the data of the main image or the through image. Then, the subject extraction unit extracts the main subject from the main image corresponding to the through image.
In an eleventh aspect based on the tenth aspect, the electronic camera further includes a monitor. The monitor displays a through image together with a display that allows the user to recognize the range of the first partial region.
第12の発明は、第1から第3のいずれかの発明において、電子カメラが画像処理部をさらに備える。画像処理部は、被写体抽出部による主要被写体の抽出範囲に基づいて、撮影画像のデータに対して画像処理を施す。
第13の発明は、第12の発明において、画像処理部は、撮影画像から主要被写体の抽出範囲を除いた背景領域のボケ度合いを大きくするボケ強調処理を施す。
In a twelfth aspect based on any one of the first to third aspects, the electronic camera further includes an image processing unit. The image processing unit performs image processing on the captured image data based on the extraction range of the main subject by the subject extraction unit.
In a thirteenth aspect based on the twelfth aspect, the image processing section performs a blur enhancement process for increasing the degree of blur in the background area excluding the main subject extraction range from the photographed image.
第14の発明は、第1から第3のいずれかの発明において、電子カメラが撮影条件決定部をさらに備える。撮影条件決定部は、被写体抽出部による主要被写体の抽出範囲に基づいて、撮像部の撮影条件を決定する。
第15の発明は、第1から第3のいずれかの発明において、電子カメラが記録部をさらに備える。記録部は、被写体抽出部による主要被写体の抽出範囲のデータを、撮影画像のデータとともに記録する。
In a fourteenth aspect based on any one of the first to third aspects, the electronic camera further includes a photographing condition determining unit. The imaging condition determination unit determines the imaging condition of the imaging unit based on the extraction range of the main subject by the subject extraction unit.
In a fifteenth aspect based on any one of the first to third aspects, the electronic camera further includes a recording unit. The recording unit records the data of the extraction range of the main subject by the subject extracting unit together with the captured image data.
第16の発明の画像処理装置は、データ読込部と、領域分割部と、第1演算部と、被写体抽出部とを備える。データ読込部は、被写体像を撮影した撮影画像のデータを読み込む。領域分割部は、撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とを決定する。第1演算部は、第1部分領域のデータの空間周波数を解析する。被写体抽出部は、第1演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。 An image processing apparatus according to a sixteenth aspect includes a data reading unit, a region dividing unit, a first calculating unit, and a subject extracting unit. The data reading unit reads data of a photographed image obtained by photographing the subject image. The area dividing unit determines a range of the first partial area including the main subject and a range of the second partial area excluding the first partial area in the captured image. The first calculation unit analyzes the spatial frequency of the data in the first partial region. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the first calculation unit.
第17の発明の画像処理装置は、データ読込部と、領域分割部と、第2演算部と、被写体抽出部とを備える。データ読込部は、被写体に対して光を照射して撮影した第1撮影画像のデータと、被写体に対して光を照射せずに撮影した第2撮影画像のデータとを読み込む。領域分割部は、第1撮影画像および第2撮影画像において、主要被写体を含んだ第1部分領域の範囲と、第1部分領域を除いた第2部分領域の範囲とそれぞれを決定する。第2演算部は、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第2演算部の演算結果に基づいて、第1撮影画像および第2撮影画像の少なくとも一方の第1部分領域の範囲から主要被写体を抽出する。 An image processing apparatus according to a seventeenth aspect includes a data reading unit, a region dividing unit, a second calculating unit, and a subject extracting unit. The data reading unit reads the data of the first photographed image taken by irradiating the subject with light and the data of the second photographed image taken without irradiating the subject with light. The region dividing unit determines a range of the first partial region including the main subject and a range of the second partial region excluding the first partial region in the first captured image and the second captured image. The second calculation unit obtains at least one of a brightness difference and a brightness ratio between the first partial region of the first captured image and the first partial region of the second captured image. The subject extraction unit extracts a main subject from the range of the first partial region of at least one of the first captured image and the second captured image based on the calculation result of the second calculation unit.
第18の発明の画像処理装置は、データ読込部と、第1演算部と、被写体抽出部とを備える。データ読込部は、被写体像を撮影した撮影画像のデータと、撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを読み込む。第1演算部は、撮影画像における部分領域のデータの空間周波数を解析する。被写体抽出部は、第1演算部の演算結果に基づいて、撮影画像の第1部分領域の範囲から主要被写体を抽出する。 An image processing apparatus according to an eighteenth aspect includes a data reading unit, a first calculation unit, and a subject extraction unit. The data reading unit reads data of a photographed image obtained by photographing the subject image and data indicating the range of the first partial area including the main subject in the photographed image. The first calculation unit analyzes the spatial frequency of the data of the partial region in the captured image. The subject extraction unit extracts a main subject from the range of the first partial region of the captured image based on the calculation result of the first calculation unit.
第19の発明の画像処理装置は、データ読込部と、第2演算部と、被写体抽出部とを備える。データ読込部は、被写体に対して光を照射して撮影した第1撮影画像のデータと、被写体に対して光を照射せずに撮影した第2撮影画像のデータと、第1撮影画像および第2撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを読み込む。第2演算部は、第1撮影画像の第1部分領域と第2撮影画像の第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める。被写体抽出部は、第2演算部の演算結果に基づいて、第1撮影画像および第2撮影画像の少なくとも一方の第1部分領域の範囲から主要被写体を抽出する。 An image processing apparatus according to a nineteenth invention includes a data reading unit, a second calculation unit, and a subject extraction unit. The data reading unit includes data of a first captured image captured by irradiating the subject with light, data of a second captured image captured without irradiating the subject with light, the first captured image, and the first captured image. Data indicating the range of the first partial area including the main subject in the two captured images is read. The second calculation unit obtains at least one of a brightness difference and a brightness ratio between the first partial region of the first captured image and the first partial region of the second captured image. The subject extraction unit extracts a main subject from the range of the first partial region of at least one of the first captured image and the second captured image based on the calculation result of the second calculation unit.
なお、上記の画像処理装置に関する構成をプログラム、画像処理方法、記録媒体などに変換して表現したものも本発明の具体的態様として有効である。 In addition, what expressed the structure regarding said image processing apparatus converted into a program, an image processing method, a recording medium, etc. is also effective as a specific aspect of this invention.
本発明の電子カメラまたは画像処理装置によれば、撮影画像から被写体を高い精度で迅速に抽出できる。 According to the electronic camera or the image processing apparatus of the present invention, it is possible to quickly extract a subject from a captured image with high accuracy.
(第1実施形態の説明)
図1は第1実施形態の電子カメラの構成を示すブロック図である。
電子カメラは、撮影レンズ11と、レンズ駆動部12と、撮像素子13と、アナログ処理部14と、メモリ15と、画像処理部16と、圧縮伸長処理部17と、記録I/F18と、外部I/F19と、通信部20と、発光部21と、操作部22と、モニタ23と、CPU24およびシステムバス25とを有している。なお、メモリ15、画像処理部16、圧縮伸長処理部17、記録I/F18、外部I/F19、通信部20、モニタ23およびCPU24は、システムバス25を介して接続されている。
(Description of the first embodiment)
FIG. 1 is a block diagram showing the configuration of the electronic camera of the first embodiment.
The electronic camera includes a
撮影レンズ11は、ズームレンズと合焦位置調節用のフォーカシングレンズとを含む複数のレンズ群で構成されている。撮影レンズ11の位置はレンズ駆動部12によって光軸方向に駆動調整される。なお、レンズ駆動部12の入出力はCPU24と接続されている。
撮像素子13は、撮影レンズ11を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。被写体の撮影を行う撮影モードでは、撮像素子13は、撮影時に記録用画像(本画像)を撮影するとともに、撮影待機時にも所定間隔毎に間引き読み出しでスルー画像を出力する。上記のスルー画像のデータは、CPU24による各種の演算処理やモニタ23での表示などに使用される。
The photographing
The
アナログ処理部14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このアナログ処理部14は、CDS回路、ゲイン回路、A/D変換回路を内部に有している。アナログ処理部14のCDS回路は、相関二重サンプリングによって撮像素子13の出力のノイズ成分を低減する。アナログ処理部14のゲイン回路は、CPU24の指示に基づいて入力信号の利得を増幅する。上記のゲイン回路では、ISO感度に相当する撮像感度の調整を行うことができる。また、アナログ処理部14のA/D変換回路は、ゲイン回路から出力されたアナログ画像信号にA/D変換を行う。このA/D変換回路の出力はメモリ15に接続されている。
The
メモリ15は、後述の画像処理の前工程や後工程などで画像のデータを一時的に記録するためのバッファメモリである。
画像処理部16は、上記の撮影モードにおいて撮影時のデジタル画像信号に各種の画像処理を施して本画像を生成する。また、画像処理部16は、上記の撮影モードにおいて、CPU24の指示によりスルー画像の画像信号から表示用画像(ビュー画像)を生成する。一方、画像処理部16は、予め撮影されている本画像のデータに後処理で画像処理を施すことも可能である。なお、画像処理部16による画像処理の具体的な内容は後述する。
The
The
圧縮伸長処理部17は解析部および圧縮部を有するASICである(解析部および圧縮部の個別的な図示は省略する)。圧縮伸長処理部17の解析部では、撮影画像のデータに対して空間周波数の解析を行う。一方、圧縮伸長処理部17の圧縮部は、JPEG(Joint Photographic Experts Group)形式による圧縮伸長処理を実行する。
ここで、電子カメラの被写体抽出処理(第1抽出処理)では、解析部による空間周波数の解析処理を利用することができる。なお、解析部が被写体抽出のために空間周波数解析を行なう場合には、圧縮部による画像データの圧縮処理は必ずしも必要でない。すなわち、被写体抽出処理に必要なのは空間周波数の解析結果であり、画像データの圧縮処理は不要である。したがって、被写体抽出処理の場合には圧縮伸長処理部17の出力するデータは、後述の記録媒体26などには記録されない。
The compression /
Here, in subject extraction processing (first extraction processing) of the electronic camera, spatial frequency analysis processing by an analysis unit can be used. When the analysis unit performs spatial frequency analysis for subject extraction, image data compression processing by the compression unit is not necessarily required. That is, what is necessary for the subject extraction process is a spatial frequency analysis result, and image data compression processing is unnecessary. Accordingly, in the case of subject extraction processing, data output from the compression /
記録I/F18には記録媒体26を接続するためのコネクタが形成されている。そして、記録I/F18は、コネクタに接続された記録媒体26に対して本画像データなどの書き込み/読み込みを実行する。上記の記録媒体26は、ハードディスクや半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記録媒体26の一例としてメモリカードを図示する。
A connector for connecting the
外部I/F19は、USB(Universal Serial Bus)などのシリアル通信規格の接続端子を有している。そして、外部I/F19は、接続端子を介して接続された外部装置(コンピュータなど)とのデータ送受信を上記の通信規格に準拠して制御する。
通信部20は、無線LANの標準規格IEEE802.11やBluetooth(登録商標)などの公知の無線通信規格に規定された仕様に準拠して、外部装置との通信を制御する。例えば、撮影画像のデータを外部装置に送信する場合、通信部20は撮影画像のデータを無線通信可能なデータに変換するとともに、変換後のデータを外部装置に送信する。
The external I /
The
発光部21は、CPU24の指示に応じて被写体に対して撮影時に閃光を照射する。この発光部21は、例えば、キセノン発光管、発光のエネルギを蓄えるメインコンデンサ、閃光を被写体に効率良く照射するための反射傘やレンズ部材、発光制御回路などから構成されている。
操作部22はレリーズ釦、モードダイヤル、操作釦などを備えている。操作部22のレリーズ釦は露光動作開始の指示入力をユーザーから受け付ける。操作部22のモードダイヤルは、電子カメラの撮影モードの切換入力をユーザーから受け付ける。操作部22の操作釦は、例えば十字キーなどで構成されている。この操作釦は、後述のメニュー画面での設定入力や、後述の被写体抽出処理での範囲指定入力をユーザーから受け付ける。
The
The
モニタ23は、CPU24の指示に応じて各種画像を表示する。本実施形態でのモニタ23は液晶モニタで構成されている。このモニタ23には、撮影モードでの撮影待機時にビュー画像が動画表示される。また、モニタ23は、オンスクリーン機能によって、撮影に必要となる各種情報の表示(例えば、後述の顔検出処理で検出された顔領域の枠表示や、後述の被写体抽出処理での各種情報など)をビュー画像に重畳表示させることができる。
The
さらに、モニタ23には、GUI(Graphical User Interface)形式の入力が可能なメニュー画面なども表示できる。上記のメニュー画面では、後述の被写体抽出処理の各種設定をCPU24に入力することができる。例えば、ユーサーは、被写体抽出処理のオン/オフ、被写体抽出処理における第1抽出処理(空間周波数解析)および第2抽出処理(2画像間の明るさの解析)の各々のオン/オフ、画像処理のオン/オフなどをメニュー画面で設定できる。なお、上記のメニュー画面での表示処理などはCPU24がプログラムに基づいて実行する(メニュー画面の図示は省略する)。
Further, the
CPU24は、操作部22のモードダイヤルや上記のメニュー画面で選択されたモードに応じて、電子カメラの各部動作を制御する。また、CPU24は、後述の被写体抽出処理に必要となる各種演算を実行する。さらに、本実施形態のCPU24は、撮影条件決定部27、顔検出部28としても機能する。
撮影条件決定部27は、スルー画像のデータに基づいてコントラスト検出方式で公知のオートフォーカス(AF)を行う。また、撮影条件決定部27は、スルー画像のデータに基づいて自動露出(AE)演算や、オートホワイトバランス(AWB)演算を実行する。
The
The imaging
顔検出部28は、スルー画像または本画像のデータから被写体の顔領域、顔の大きさ等を検出する。例えば、顔検出部28は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。あるいは、顔検出部28は、特開平8−63597号公報のように、被写体の色情報に基いて肌色領域の輪郭を抽出し、さらに予め用意された顔部品のテンプレートとのマッチングを行って顔領域を検出してもよい。
The
以下、第1実施形態の電子カメラにおける撮影時のCPU24の動作を、図2の流れ図を参照しつつ説明する。
ステップ101:CPU24は、撮像素子13を駆動させてスルー画像の取得を開始する。撮像素子13は所定間隔毎に間引き読み出しでスルー画像の画像信号を取得する。画像処理部16はスルー画像のデータに基づいてビュー画像を逐次生成する。そして、撮影待機時のモニタ23にはビュー画像が動画表示される。したがって、ユーザーはモニタ23のビュー画像によって、撮影構図を決定するためのフレーミングを行うことができる。
The operation of the
Step 101: The
ステップ102:CPU24は、撮影画面に対応するスルー画像において、第1部分領域の範囲と第2部分領域の範囲とを決定する。これにより、撮影画面は、第1部分領域の範囲と第2部分領域の範囲とで2分割されることとなる。
第1部分領域は、後述の被写体抽出処理の演算対象となる画像であって、抽出対象となる主要被写体の全体が含まれるようにその外縁が決定される。すなわち、第1部分領域の範囲には、抽出対象となる主要被写体の全体が含まれている。また、第2部分領域は、上記の撮影画面から第1部分領域の範囲を除いた残りの範囲の画像である。この第2部分領域は主要被写体を含まないため、後述の被写体抽出処理の演算対象となることはない。
Step 102: The
The first partial area is an image that is a calculation target of a subject extraction process, which will be described later, and its outer edge is determined so as to include the entire main subject to be extracted. That is, the range of the first partial area includes the entire main subject to be extracted. The second partial area is an image of the remaining range obtained by removing the range of the first partial area from the above-described shooting screen. Since the second partial region does not include the main subject, the second partial region is not a calculation target for subject extraction processing described later.
ここで、S102において、CPU24は以下の(1)から(3)のいずれかの方法で第1部分領域および第2部分領域の範囲を決定する。
(1)CPU24の顔検出部28はスルー画像に対して顔検出処理を実行する。そして、CPU24は、検出された顔領域の位置に基づいて主要被写体の概略位置を推定し、第1部分領域の範囲を決定する。この場合は、人が主要被写体となる可能性が高いからである。そして、この場合には、顔検出の結果に応じて第1部分領域の範囲が自動的に設定されるので、電子カメラの操作性が大幅に向上する。
Here, in S102, the
(1) The
なお、顔が複数検出された場合、CPU24は、最もサイズが大きく至近側にあると推定される顔領域か、最も中央寄りに位置する顔領域のいずれかを基準として第1部分領域の範囲を決定する。
以下、顔検出による第1部分領域の範囲の決定方法をより具体的に説明する。
まず、CPU24は顔検出処理を実行する。そして、CPU24は各々の特徴点や顔のパーツなどの位置関係から顔のサイズと顔の上下方向とを求める。このとき、CPU24はモニタ23のビュー画像において主要被写体の顔の位置に矩形の枠を重畳して表示する(図3参照)。
When a plurality of faces are detected, the
Hereinafter, a method for determining the range of the first partial region by face detection will be described more specifically.
First, the
また、撮影画面上の顔が大きすぎる場合または小さすぎる場合のように、人物全体を抽出する被写体抽出処理に適さないシーンでは、CPU24はユーザーに対して警告を行う。この警告の有無によって、ユーザーは被写体抽出処理に適した撮影構図か否かを容易に判断できる。そのため、電子カメラの使い勝手はより良好なものとなる。なお、上記の警告の方法としては、例えば、モニタ23上に警告表示を重畳表示するものや、音声や振動でユーザーに警告を通知するものなどが挙げられる(モニタ23上での警告表示の図示は省略する)。
Further, in a scene that is not suitable for subject extraction processing for extracting the entire person, such as when the face on the shooting screen is too large or too small, the
次に、CPU24は、主要被写体の顔の位置と顔の上下方向とに基づいて、第1部分領域の候補領域を仮設定する。図4の例では、第1部分領域の候補領域は人型の形状となっている。また、CPU24は、上記の候補領域の大きさを主要被写体の顔のサイズに比例させて拡大または縮小する。その後、CPU24は上記の候補領域を第1部分領域の範囲に設定する。ここで、図4(a)では、図3に対応するシーンでの第1部分領域の範囲を示す。また、図4(b)では、図4(a)よりも人物の顔が大きいシーンでの第1部分領域の範囲を示す。
Next, the
(2)CPU24は操作部22から主要被写体の概略位置をマニュアルで指定する指定入力をユーザーから受け付ける。そして、CPU24は、上記の指定入力に基づいて第1部分領域の範囲を決定する。この場合には、ユーザー自身で選択した第1部分領域によって、被写体抽出処理が行われることとなる。
一例として、CPU24がモニタ23のビュー画像上に、例えば矩形、円形、楕円形などの形状の候補領域を重畳表示する。ユーザーは操作部22の操作釦で候補領域のサイズ変更および移動を行なう。そして、第1部分領域の範囲として候補領域が所望の位置および大きさとなったときに、ユーザーは候補領域を第1部分領域の範囲とする指定入力をCPU24に対して行う。
(2) The
As an example, the
(3)撮影構図を決めるための構図補助フレームをモニタ23のビュー画像に重畳表示した状態で撮影を行なう場合には、構図補助フレームの位置に基づいて第1部分領域の範囲を決定する。この場合には、構図補助フレーム内に主要被写体が位置していると考えられるからである。なお、CPU24は、第1部分領域の範囲と構図補助フレームの範囲とを一致させてもよく、第1部分領域の範囲を構図補助フレームの範囲よりも広く設定してもよい。
(3) When shooting is performed in a state where a composition assist frame for determining the composition is superimposed on the view image of the
ステップ103:CPU24は、S102で決定された第1部分領域の範囲を示す表示を、モニタ23のビュー画像に重畳して表示する。これにより、S102で決定された第1部分領域の範囲をユーザーが確認できる。そして、第1部分領域の範囲が不適切な場合には、ユーザーによって撮影構図の変更や第1部分領域の範囲の再設定などが行われることとなる。
Step 103: The
ここで、S103での表示では、CPU24は第1部分領域の外縁部を枠で囲って示してもよい。あるいは、CPU24は、第1部分領域と第2部分領域との範囲で色や明るさの表示状態を変化させた画像を表示してもよい。なお、図5では、図4(a)に対応する第1部分領域の範囲をビュー画像において枠表示した例を示している。
ステップ104:CPU24はレリーズ釦が半押しされたか否かを判定する。レリーズ釦が半押しされた場合(YES側)にはS105に移行する。一方、レリーズ釦が半押しされていない場合(NO側)には、CPU24はS102に戻って上記動作を繰り返す。
Here, in the display in S103, the
Step 104: The
ステップ105:CPU24は、第1部分領域に対する被写体抽出処理を省略するか否かを判定する。例えば、メニュー画面で被写体抽出処理の項目がオフに設定されている場合には、CPU24は上記判定において、第1部分領域の被写体抽出処理を省略する判定を行う。
第1部分領域に対する被写体抽出処理を省略する場合(YES側)にはS106に移行する。一方、第1部分領域に対して被写体抽出処理を実行する場合(NO側)にはS108に移行する。
Step 105: The
When the subject extraction process for the first partial region is omitted (YES side), the process proceeds to S106. On the other hand, when subject extraction processing is executed for the first partial region (NO side), the process proceeds to S108.
ステップ106:CPU24の撮影条件決定部27は、第1部分領域の範囲内にあるAFエリアを基準としてAFを実行する。また、CPU24の撮影条件決定部27は、第1部分領域に対応するスルー画像のデータに基づいてAE演算およびAWB演算を実行し、撮影条件(露光時間、絞り値、撮像感度)を決定する。なお、顔検出処理とともに主要被写体の顔を基準として顔認識AFを行っている場合には、CPU24はレリーズ釦の半押しによってAFロックを行う。
Step 106: The photographing
ステップ107:CPU24は、レリーズ釦の全押しに応じて被写体を撮影する。そして、CPU24は、画像処理部16に本画像のデータを生成させる。そして、本画像のデータは最終的に記録媒体26に記録される。このS107の場合には、第1部分領域に対する被写体抽出処理を行うことなく撮影動作が終了する。
なお、S107において、CPU24は、上記の第1部分領域の範囲と第2部分領域の範囲とを示す付属データを、本画像のデータに記録するようにしてもよい。上記の付属データは、例えばExif(Exchangeable image file format for digital still cameras)規格のMakerNoteタグを利用して記録される。この本画像のデータによれば、画像処理装置などで後述の被写体抽出処理を事後的に実行することが容易となる。
Step 107: The
In S107, the
ステップ108:この場合には、CPU24は、後述の第1抽出処理(空間周波数解析)のみで第1部分領域の範囲から主要被写体を抽出するか否かを判定する。すなわち、S108では、被写体抽出処理で後述の第2抽出処理を省略するか否かをCPU24が判定する。
例えば、(1)メニュー画面で第2抽出処理の項目がオフに設定されている場合、(2)発光部21の発光を禁止する撮影モードが選択されている場合、(3)電子カメラのバッテリーレベルが閾値以下の場合のいずれかに該当するときに、CPU24は上記判定において第2抽出処理を省略する判定を行う。
Step 108: In this case, the
For example, (1) when the item of the second extraction process is set to OFF on the menu screen, (2) when a shooting mode for prohibiting light emission of the
第1抽出処理のみで被写体抽出処理を行う場合(YES側)にはS109に移行する。一方、第2抽出処理を伴う被写体抽出処理を行う場合(NO側)にはS110に移行する。
ステップ109:CPU24は、圧縮伸長処理部17を用いた周波数解析(第1抽出処理)によって第1部分領域から主要被写体を抽出する。なお、S109の処理後には、CPU24はS113に移行する。
When the subject extraction process is performed only by the first extraction process (YES side), the process proceeds to S109. On the other hand, when subject extraction processing involving the second extraction processing is performed (NO side), the process proceeds to S110.
Step 109: The
このS109の第1抽出処理では、まず、CPU24はスルー画像の第1部分領域を8×8画素程度の画素ブロックに分割する。次に、圧縮伸長処理部17は、CPU24の指示によって、上記の各々の画素ブロックに離散コサイン変換(DCT)処理を施し、各々の画素ブロック毎のDCT係数を取得する。CPU24は、第1部分領域の画素ブロックのうちから主要被写体の輪郭を構成する画素ブロックを抽出する。
In the first extraction process of S109, first, the
ここで、上記のDCT係数と主要被写体の抽出処理との関係について簡単に説明する。図6はモノクロ画像における輪郭部分での階調変化を示す図である。図6(a)のように明暗の変化が急峻な場合(輪郭が明確な画像)には、画像データに高域空間周波数成分が多く含まれる。そのため、図6(a)に対応する画像から得たDCT係数は高い空間周波数まで0でない値を有する。 Here, the relationship between the DCT coefficient and the main subject extraction process will be briefly described. FIG. 6 is a diagram showing a change in gradation at a contour portion in a monochrome image. When the change in brightness is steep (an image with a clear outline) as shown in FIG. 6A, the image data includes many high-frequency spatial frequency components. Therefore, the DCT coefficient obtained from the image corresponding to FIG. 6A has a non-zero value up to a high spatial frequency.
一方、図6(b)のように明暗の変化がなだらかな場合(輪郭を含まない画像)は、図6(a)の場合と比べて画像データから高域空間周波数成分が少なくなる。図6(b)に対応する画像から得たDCT係数の値は、図6(a)の場合よりも低い空間周波数成分から0となる。したがって、CPU24は、各周波数成分に対するDCT係数の分布に着目し、高域周波数成分に対応するDCT係数が0値ではない画素ブロックを主要被写体の輪郭として抽出する。なお、CPU24は、画像の色差および明度などの情報に基づいて輪郭で仕切られた各々の領域をグループ化するようにしてもよい。
On the other hand, when the change in brightness is gentle as shown in FIG. 6B (an image that does not include an outline), the high frequency spatial frequency component is reduced from the image data as compared with the case of FIG. The value of the DCT coefficient obtained from the image corresponding to FIG. 6B is 0 from the lower spatial frequency component than in the case of FIG. Therefore, the
ステップ110:この場合には、CPU24は、被写体抽出処理で第1抽出処理を省略するか否かを判定する。具体的には、メニュー画面で第1抽出処理の項目がオフに設定されている場合には、CPU24は上記判定において第1抽出処理を省略する判定を行う。第1抽出処理を省略する場合(YES側)にはS111に移行する。一方、被写体抽出処理で第1抽出処理および第2抽出処理の両方を行う場合(NO側)にはS112に移行する。
Step 110: In this case, the
ステップ111:CPU24は、発光部21の発光状態を変化させて撮影した2画像間の明るさの解析(第2抽出処理)によって、第1部分領域から主要被写体を抽出する。なお、S111の処理後には、CPU24はS113に移行する。
このS111の第2抽出処理では、CPU24は発光部21を発光させた状態と発光させない状態とで略同一の被写体を撮影した画像をそれぞれ取得する。説明の便宜上、発光部21を発光させて撮影した画像を第1撮影画像と定義する。また、発光部21を発光させずに撮影したスルー画像を第2撮影画像と定義する。この第1実施形態では、第1撮影画像および第2撮影画像はいずれもスルー画像である。
Step 111: The
In the second extraction process of S111, the
次に、CPU24は以下の(1)または(2)の方法によって第1部分領域から主要被写体を抽出する(図7参照)。
(1)CPU24は、第1撮影画像および第2撮影画像の第1部分領域において、明るさの差分値を画素毎に演算する。そして、CPU24は明るさの差分値に基づいて、第1撮影画像または第2撮影画像の第1部分領域から主要被写体を抽出する。
Next, the
(1) The
一般に発光撮影時の照度は光源からの距離の2乗に比例して小さくなる。すなわち、発光撮影時には主要被写体は明るく照射される一方で、主要被写体より遠くに位置する背景部分の明るさは低くなる。したがって、発光撮影時と非発光撮影時との明るさの差分値はカメラからの距離に応じて変化するので、かかる差分値を用いれば撮影画像から主要被写体を抽出できる。 In general, the illuminance during flash photography decreases in proportion to the square of the distance from the light source. That is, during flash photography, the main subject is illuminated brightly, while the brightness of the background portion located farther from the main subject is low. Therefore, since the difference value of brightness between the flash photography and the non-flash photography changes according to the distance from the camera, the main subject can be extracted from the photographed image by using such a difference value.
(2)CPU24は、第1撮影画像および第2撮影画像の第1部分領域において、第1撮影画像の明るさと第2撮影画像の明るさとの比率を演算する。そして、CPU24は明るさの比率に基づいて、第1撮影画像または第2撮影画像の第1部分領域から主要被写体を抽出する。
上記(1)の差分値で被写体抽出を行うと、反射率の高い部分と低い部分とが隣接する被写体では抽出精度が低下することがある。例えば、黒髪の人物の顔を撮影する場合を考えると、黒髪の部分は反射率が低いので明るさの差分値が小さくなる一方で、顔の部分では相対的に反射率が高いことから明るさの差分値が大きくなる。従って、上記の場合には、人物が髪の部分と顔の部分とが同一の被写体として認識されない可能性がある。
(2) The
If subject extraction is performed with the difference value of (1) above, the extraction accuracy may be reduced for subjects in which a portion with a high reflectance and a portion with a low reflectance are adjacent. For example, when shooting the face of a black-haired person, the dark-hair part has a low reflectance, so the difference in brightness is small, while the face part has a relatively high reflectance, so the brightness is high. The difference value of becomes larger. Therefore, in the above case, there is a possibility that the person does not recognize the hair part and the face part as the same subject.
ここで、第1撮影画像の明るさは、発光部21による照明光と環境光との和に被写体の反射率を乗じた値((照明光成分+環境光成分)×反射率)となる。また、第2撮影画像の明るさは環境光に被写体の反射率を乗じた値(環境光成分×反射率)となる。すなわち、したがって、明るさの比率に基づいて被写体を抽出する場合には被写体の反射率が相殺される。したがって、上記のように反射率の高い部分と低い部分とが隣接する被写体についても高い精度で抽出することが可能となる。
Here, the brightness of the first captured image is a value ((illumination light component + environment light component) × reflectance) obtained by multiplying the sum of the illumination light and the ambient light by the
ステップ112:この場合には、CPU24は、上記の第1抽出処理(S109)と第2抽出処理(S111)との両方を行って第1部分領域から主要被写体を抽出する。例えば、CPU24は、第1抽出処理および第2抽出処理のいずれか一方の処理で第1部分領域から主要被写体を絞り込んだ後に、他方の処理を行って抽出結果を補正して主要被写体の範囲を最終的に確定する。この場合には、主要被写体の抽出をより高い精度で行うことができる。
Step 112: In this case, the
ステップ113:CPU24の撮影条件決定部27は、第1部分領域において主要被写体の範囲内にあるAFエリアを基準としてAFを実行する。また、CPU24の撮影条件決定部27は、上記の主要被写体の範囲に対応するスルー画像のデータに基づいてAE演算およびAWB演算を実行し、撮影条件(露光時間、絞り値、撮像感度)を決定する。なお、顔検出処理とともに主要被写体の顔を基準として顔認識AFを行っている場合には、CPU24はレリーズ釦の半押しによってAFロックを行う。
Step 113: The photographing
ステップ114:CPU24は、レリーズ釦の全押しに応じて被写体を撮影する。そして、CPU24は、画像処理部16に本画像のデータを生成させる。
ステップ115:CPU24は、メニュー画面において被写体抽出処理が必要となる画像処理の項目がオンに設定されているか否かを判定する。上記項目の設定がオンの場合(YES側)にはS116に移行する。一方、上記項目の設定がいずれもオフの場合(NO側)にはS117に移行する。
Step 114: The
Step 115: The
ステップ116:CPU24は、被写体抽出処理の結果に基づいて、画像処理部16に本画像のデータ(S114)の画像処理を実行させる。画像処理部16は、主要被写体の範囲または主要被写体以外の範囲(背景領域)のいずれかに、メニュー画面の項目で設定された所定の画像処理を施す。その後、CPU24は本画像のデータを記録媒体26などに記録する。以下、S116での画像処理の例を説明する。
Step 116: The
(1)画像処理部16は、本画像の背景領域に対して、画像のボケ度合いを大きくするボケ強調処理を実行する(図8参照)。具体的には、画像処理部16は、本画像の背景領域に点拡がり関数(PSF:Point Spread Function)のフィルタを畳み込み演算する。これにより、背景のぼかしによって主要被写体が浮かび上がるように表現された画像を容易に得ることができる。
(1) The
また、画像処理部16は、本画像の主要被写体の範囲に対して、コントラストを強調する公知の補正処理(階調補正やエッジ強調フィルタ処理等)をさらに施すようにしてもよい。この場合には本画像の主要被写体が強調されるので、画像処理後の画像の立体感をさらに高めることができる。
(2)画像処理部16は、本画像の主要被写体の範囲の彩度や明度を背景領域よりも高める補正を行う。この場合には、主要被写体の人物の肌色のくすみなどが軽減された好ましい撮影画像を得ることができる。あるいは、画像処理部16は、本画像の主要被写体の範囲の彩度を下げる補正を行って、人物の肌を白く表現するようにしてもよい。
Further, the
(2) The
(3)画像処理部16は、本画像の主要被写体の範囲には他の領域の階調曲線よりも相対的にコントラストが低めになる軟調の階調曲線の階調特性テーブルを適用する。この場合には、主要被写体の顔などに柔らかさのある好ましい撮影画像を得ることができる。
(4)画像処理部16は、本画像の背景領域の範囲に、漫画などのキャラクタや、文字、図形などを合成する処理を実行する。あるいは、画像処理部16は主要被写体の範囲のみをトリミングで抜き出して本画像のデータを生成してもよい。この場合には、娯楽性の高い撮影画像をユーザーに提供することができる。
(3) The
(4) The
ステップ117:CPU24は、被写体抽出処理で抽出した主要被写体の範囲を示す付属データを、本画像のデータとともに記録媒体26などに記録する。上記の付属データは、例えばExif規格のMakerNoteタグを利用して記録される。この場合には、撮影後に付属データを利用することで、画像処理装置によってS116で説明したような画像の編集を容易に行うことが可能となる。以上で、図2の一連の動作説明を終了する。
Step 117: The
なお、第1実施形態の電子カメラでは、画像処理装置で第2抽出処理(S111)を事後的に行う場合を考慮して、第1撮影画像および第2撮影画像にそれぞれ対応する2つの本画像のデータを含む画像ファイルも生成することもできる。また、上記の画像ファイルには、第1部分領域の範囲と第2部分領域の範囲とを示す付属データとを対応付けして記録するようにしてもよい。 Note that in the electronic camera of the first embodiment, two main images corresponding to the first captured image and the second captured image are considered in consideration of the case where the second extraction process (S111) is performed afterwards in the image processing apparatus. It is also possible to generate an image file including the data. The image file may be recorded in association with attached data indicating the range of the first partial area and the range of the second partial area.
以下、第1実施形態の効果を説明する。
第1実施形態の電子カメラでは、撮影画像の第1部分領域に対して被写体抽出処理を施す。そのため、撮影画像全体に被写体抽出処理を行なう場合と比べて、主要被写体を高い精度で迅速に抽出できる。そして、第1実施形態の電子カメラでは、上記の被写体抽出処理を利用して、例えば、ポートレート撮影調の本画像などを画像処理によって容易に得ることができる。
Hereinafter, effects of the first embodiment will be described.
In the electronic camera of the first embodiment, subject extraction processing is performed on the first partial region of the captured image. Therefore, it is possible to quickly extract the main subject with high accuracy compared to the case where subject extraction processing is performed on the entire captured image. In the electronic camera according to the first embodiment, the subject extraction process described above can be used to easily obtain, for example, a portrait image and the like by image processing.
(第2実施形態の説明)
図9は、第2実施形態での電子カメラによる画像処理を説明する流れ図である。第2実施形態では、第1実施形態と同じ構成の電子カメラが画像処理装置として機能し、予め撮影されている本画像のデータを読み込んで被写体抽出処理を行う例を説明する。なお、第2実施形態での電子カメラの構成は第1実施形態と共通するため重複説明を省略する。
(Description of Second Embodiment)
FIG. 9 is a flowchart for explaining image processing by the electronic camera in the second embodiment. In the second embodiment, an example will be described in which an electronic camera having the same configuration as that of the first embodiment functions as an image processing apparatus, and the subject extraction process is performed by reading data of a main image that has been captured in advance. Note that the configuration of the electronic camera in the second embodiment is the same as that of the first embodiment, and thus a duplicate description is omitted.
ステップ201:CPU24は、編集対象となる本画像のデータを外部から読み込む。例えば、CPU24は本画像のデータを記録媒体26から読み込んでもよく、あるいは外部I/F19や通信部20を介して接続された外部装置(コンピュータなど)から本画像のデータを読み込んでもよい。
ステップ202:CPU24は、S201で読み込んだ編集対象のデータが、被写体抽出処理で抽出された主要被写体の範囲を示す付属データを含むか否かを判定する。すなわち、CPUは、上記第1実施形態のS117で生成された本画像のデータが編集対象であるか否かを判定する。上記の付属データを含む場合(YES側)にはS210に移行する。一方、上記の付属データを含まない場合(NO側)にはS203に移行する。
Step 201: The
Step 202: The
ステップ203:CPU24は、S201で読み込んだ編集対象のデータが、第1撮影画像および第2撮影画像に対応する2つの本画像を含む画像ファイルであるか否かを判定する。上記の画像ファイルに該当する場合(YES側)にはS204に移行する。一方、上記の画像ファイルに該当しない場合(NO側)にはS207に移行する。
ステップ204:CPU24は、S201で読み込んだ編集対象のデータ(画像ファイル)が、第1部分領域の範囲と第2部分領域の範囲とを示す付属データを含んでいるか否かを判定する。上記の付属データを含む場合(YES側)にはS206に移行する。一方、上記の付属データを含まない場合(NO側)にはS205に移行する。
Step 203: The
Step 204: The
ステップ205:CPU24は、第1撮影画像または第2撮影画像のいずれかの本画像を用いて、第1部分領域の範囲と第2部分領域の範囲とを決定する。このS205では、本画像に対する顔検出処理(第1実施形態のS102(1)に対応する処理)か、ユーザーによる第1部分領域の範囲の指定入力(第1実施形態のS102(2)に対応する処理)に基づいて、CPU24が第1部分領域の範囲を決定する。
Step 205: The
ステップ206:CPU24は、第1撮影画像および第2撮影画像の明るさの解析(第2抽出処理)によって、いずれかの本画像の第1部分領域から主要被写体を抽出する。なお、このS206の第2抽出処理は、第1実施形態のS111の第2抽出処理に対応するので重複説明は省略する。
ステップ207:CPU24は、S201で読み込んだ編集対象のデータが、第1部分領域の範囲と第2部分領域の範囲とを示す付属データを含んでいるか否かを判定する。上記の付属データを含む場合(YES側)にはS209に移行する。一方、上記の付属データを含まない場合(NO側)にはS208に移行する。
Step 206: The
Step 207: The
ステップ208:CPU24は、本画像における第1部分領域の範囲と第2部分領域の範囲とを決定する。このS208では上記のS205と同様に、本画像に対する顔検出処理(第1実施形態のS102(1)に対応する処理)か、ユーザーによる第1部分領域の範囲の指定入力(第1実施形態のS102(2)に対応する処理)に基づいて、CPU24が第1部分領域の範囲を決定する。
Step 208: The
ステップ209:CPU24は、圧縮伸長処理部17を用いた周波数解析(第1抽出処理)によって本画像の第1部分領域から主要被写体を抽出する。なお、このS209の第1抽出処理は、第1実施形態のS109の第1抽出処理に対応するので重複説明は省略する。
ステップ210:CPU24は、被写体抽出処理の結果に基づいて、画像処理部16に本画像のデータの画像処理を実行させる。画像処理部16は、主要被写体の範囲または主要被写体以外の範囲(背景領域)のいずれかに、メニュー画面の項目で設定された所定の画像処理を施す。その後、CPU24は本画像のデータを記録媒体26などに記録する。なお、各々の画像処理の説明は、第1実施形態のS116と同様であるので重複説明は省略する。
Step 209: The
Step 210: The
上記の第2実施形態の電子カメラでは、撮影後の画像編集において、第1実施形態とほぼ同様の被写体抽出処理を行うことができる。そのため、撮影後の画像編集でのユーザーの利便性が大きく向上する。
(第3実施形態の説明)
図10は第3実施形態の画像処理装置のブロック図である。第3実施形態は第2実施形態の変形例であって、パーソナルコンピュータ等に画像処理プログラムを実行させて、第2実施形態と同様の画像処理装置を構成する例である。この第3実施形態の画像処理装置によっても、第2実施形態とほぼ同様の効果を得ることができる。
The electronic camera of the second embodiment can perform subject extraction processing that is substantially the same as that of the first embodiment in image editing after shooting. Therefore, the convenience of the user in image editing after shooting is greatly improved.
(Description of the third embodiment)
FIG. 10 is a block diagram of an image processing apparatus according to the third embodiment. The third embodiment is a modification of the second embodiment, in which an image processing program is executed by a personal computer or the like to configure an image processing apparatus similar to the second embodiment. The image processing apparatus according to the third embodiment can obtain substantially the same effect as that of the second embodiment.
画像処理装置は、制御部31と、メモリ32と、外部I/F33と、表示ドライバ部34と、ディスクモジュール35と、各部を接続するシステムバス36とを有している。また、画像処理装置には、キーボードやポインティングデバイス等の入力デバイス37と、モニタ38とが接続されている。
制御部31は画像処理装置の各部を演算制御する。また、制御部31は、画像処理プログラムの実行によって、上記実施形態の電子カメラの画像処理部16、圧縮伸長処理部17、CPU24の機能をソフトウエア上で再現する。メモリ32はプログラムおよびデータを記憶し、制御部31へのデータ送信や制御部31から返された処理結果を記憶する。外部I/F33は、画像処理装置に接続された周辺機器(例えば、電子カメラや記録媒体26など)とのデータ送受信を、USBなどのシリアル通信規格に準拠して制御する。表示ドライバ部34はモニタ38に画像出力を行う。ディスクモジュール35では、光ディスク、光磁気ディスクなどの記録媒体に対してデータの読み出し/書き込みを実行する。
The image processing apparatus includes a
The
(実施形態の補足事項)
(1)上記第1実施形態では、本画像の撮影前にスルー画像で被写体抽出処理を実行し、本画像の画像処理などに主要被写体の抽出結果を反映させる例を説明した。しかし、本発明では、スルー画像で被写体抽出処理を行うことなく、本画像に対して上記の第1抽出処理や第2抽出処理を実行して主要被写体を抽出してもよい。また、上記第1実施形態で第2抽出処理を行う場合には、第1撮影画像または第2撮影画像の一方をスルー画像とし、他方を本画像として画像間の明るさの解析を行うようにしてもよい。
(Supplementary items of the embodiment)
(1) In the first embodiment, the example in which the subject extraction process is executed with the through image before the main image is captured and the extraction result of the main subject is reflected in the image processing of the main image has been described. However, in the present invention, the main subject may be extracted by performing the first extraction process and the second extraction process on the main image without performing the subject extraction process on the through image. Further, when performing the second extraction process in the first embodiment, the brightness between the images is analyzed by using one of the first photographed image and the second photographed image as a through image and the other as the main image. May be.
(2)本発明の電子カメラの構成は上記実施形態に限定されることはない。例えば、CPU24はスルー画像のデータに基づいてAE演算を行うことなく、測光専用のセンサで分割測光を行なうようにしてもよい。また、電子カメラから通信部20などを省略してもよい。
(3)上記実施形態の第1抽出処理では、ウェーブレット変換などのDCT以外の直交変換を用いてもよい。また、第1抽出処理において、例えば、高速フーリエ変換などの他の公知の周波数解析を行うようにしてもよい。
(2) The configuration of the electronic camera of the present invention is not limited to the above embodiment. For example, the
(3) In the first extraction process of the above embodiment, orthogonal transform other than DCT such as wavelet transform may be used. In the first extraction process, for example, other known frequency analysis such as fast Fourier transform may be performed.
(4)上記実施形態において、電子カメラまたは画像処理装置は、パターンマッチング処理などで人間の顔以外を対象とした被写体認識を行なって第1部分領域の範囲を決定するようにしてもよい。
(5)第1実施形態では、被写体抽出処理において第1抽出処理および第2抽出処理の両方を選択的に実行可能な電子カメラの例を説明した。しかし、本発明の電子カメラは、第1抽出処理または第2抽出処理のいずれか一方のみを実行可能な構成であってもよい。
(4) In the above-described embodiment, the electronic camera or the image processing apparatus may perform subject recognition on a subject other than a human face by pattern matching processing or the like to determine the range of the first partial region.
(5) In the first embodiment, the example of the electronic camera that can selectively execute both the first extraction process and the second extraction process in the subject extraction process has been described. However, the electronic camera of the present invention may be configured to execute only one of the first extraction process and the second extraction process.
13…撮像素子、16…画像処理部、17…圧縮伸長処理部、18…記録I/F、19…外部I/F、20…通信部、21…発光部、22…操作部、23…モニタ、24…CPU、26…記録媒体、27…撮影条件決定部、28…顔検出部、31…制御部、33…外部I/F、35…ディスクモジュール
DESCRIPTION OF
Claims (23)
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする電子カメラ。 An imaging unit that captures a subject image and generates data of the captured image;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
A first arithmetic unit that analyzes a spatial frequency of the data of the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
An electronic camera comprising:
被写体に対して光を照射する発光部と、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記発光部を発光させて取得した第1撮影画像と前記発光部を発光させずに取得した第2撮影画像と基づいて、前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第2演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする電子カメラ。 An imaging unit that captures a subject image and generates data of the captured image;
A light emitting unit that emits light to the subject;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
Based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light, the first partial region of the first captured image and the second captured image A second computing unit for obtaining at least one of a brightness difference and a brightness ratio with the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the second calculation unit;
An electronic camera comprising:
被写体に対して光を照射する発光部と、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記発光部を発光させて取得した第1撮影画像と前記発光部を発光させずに取得した第2撮影画像と基づいて、前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第1演算部および前記第2演算部の少なくとも一方の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
前記第1演算部および前記第2演算部の動作のオン/オフをそれぞれ変更する制御部と、
を備えることを特徴とする電子カメラ。 An imaging unit that captures a subject image and generates data of the captured image;
A light emitting unit that emits light to the subject;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
A first arithmetic unit that analyzes a spatial frequency of the data of the first partial region;
Based on the first captured image acquired by causing the light emitting unit to emit light and the second captured image acquired without causing the light emitting unit to emit light, the first partial region of the first captured image and the second captured image A second computing unit for obtaining at least one of a brightness difference and a brightness ratio with the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of at least one of the first calculation unit and the second calculation unit;
A control unit for changing on / off of the operations of the first calculation unit and the second calculation unit, and
An electronic camera comprising:
前記制御部は、撮影モードの設定が前記発光部の発光を禁止する状態のときに前記第2演算部の動作をオフにすることを特徴とする電子カメラ。 The electronic camera according to claim 3.
The electronic control device, wherein the control unit turns off the operation of the second calculation unit when the shooting mode is set to prohibit light emission of the light emitting unit.
前記第1演算部および前記第2演算部の動作の設定入力をユーザーから受け付ける操作部をさらに備え、
前記制御部は、前記第1演算部および前記第2演算部の動作のオン/オフを前記設定入力に基づいて変更することを特徴とする電子カメラ。 The electronic camera according to claim 3.
An operation unit that receives a setting input of an operation of the first calculation unit and the second calculation unit from a user;
The control unit is configured to change the on / off of the operation of the first calculation unit and the second calculation unit based on the setting input.
前記撮影画像から前記主要被写体の特徴部分を検出して、前記撮影画像における前記主要被写体の概略位置を推定する被写体認識部をさらに備え、
前記領域分割部は、前記被写体認識部の出力に基づいて、前記第1部分領域の範囲および前記第2部分領域の範囲を決定することを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
A subject recognition unit that detects a characteristic portion of the main subject from the captured image and estimates a rough position of the main subject in the captured image;
The electronic camera according to claim 1, wherein the region dividing unit determines a range of the first partial region and a range of the second partial region based on an output of the subject recognition unit.
前記被写体認識部は、前記撮影画像から人間の顔を検出することを特徴とする電子カメラ。 The electronic camera according to claim 6.
The electronic camera, wherein the subject recognition unit detects a human face from the captured image.
前記領域分割部は、前記第1部分領域の範囲の大きさを、前記被写体認識部の検出した顔の大きさに比例させて決定することを特徴とする電子カメラ。 The electronic camera according to claim 7,
The electronic camera according to claim 1, wherein the region dividing unit determines the size of the range of the first partial region in proportion to the size of the face detected by the subject recognition unit.
前記主要被写体の概略位置を指定する指定入力を前記ユーザーから受け付ける操作部をさらに備え、
前記領域分割部は、前記第1部分領域の範囲および前記第2部分領域の範囲を前記指定入力に基づいて決定することを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
An operation unit for accepting a designation input for designating an approximate position of the main subject from the user;
The area dividing unit determines the range of the first partial area and the range of the second partial area based on the designated input.
前記撮像部は、記録用の本画像と、前記本画像よりも解像度の低いスルー画像とを撮影し、
前記領域分割部、前記第1演算部および前記第2演算部は、前記本画像もしくは前記スルー画像のデータに対して各々の処理を実行し、
前記被写体抽出部は、前記スルー画像と対応する前記本画像から前記主要被写体を抽出することを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
The imaging unit captures a main image for recording and a through image having a lower resolution than the main image,
The region dividing unit, the first calculation unit, and the second calculation unit perform respective processes on the data of the main image or the through image,
The electronic camera, wherein the subject extraction unit extracts the main subject from the main image corresponding to the through image.
前記第1部分領域の範囲をユーザーに認知させる表示とともに、前記スルー画像を表示するモニタをさらに備えることを特徴とする電子カメラ。 The electronic camera according to claim 10.
The electronic camera further comprising a monitor that displays the through image together with a display that allows a user to recognize the range of the first partial region.
前記被写体抽出部による前記主要被写体の抽出範囲に基づいて、前記撮影画像のデータに対して画像処理を施す画像処理部をさらに備えることを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
An electronic camera, further comprising: an image processing unit that performs image processing on the captured image data based on an extraction range of the main subject by the subject extraction unit.
前記画像処理部は、前記撮影画像から前記主要被写体の抽出範囲を除いた背景領域のボケ度合いを大きくするボケ強調処理を施すことを特徴とする電子カメラ。 The electronic camera according to claim 12,
The electronic camera according to claim 1, wherein the image processing unit performs a blur enhancement process for increasing a degree of blur of a background area excluding the extraction range of the main subject from the photographed image.
前記被写体抽出部による前記主要被写体の抽出範囲に基づいて、前記撮像部の撮影条件を決定する撮影条件決定部をさらに備えることを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
The electronic camera further comprising: a shooting condition determining unit that determines a shooting condition of the imaging unit based on an extraction range of the main subject by the subject extracting unit.
前記被写体抽出部による前記主要被写体の抽出範囲のデータを、前記撮影画像のデータとともに記録する記録部をさらに備えることを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
An electronic camera further comprising: a recording unit that records data of an extraction range of the main subject by the subject extraction unit together with data of the captured image.
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定する領域分割部と、
前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。 A data reading unit for reading data of a photographed image obtained by photographing a subject image;
An area dividing unit that determines a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
A first arithmetic unit that analyzes a spatial frequency of the data of the first partial region;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
An image processing apparatus comprising:
前記第1撮影画像および前記第2撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とそれぞれを決定する領域分割部と、
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。 A data reading unit that reads data of a first captured image captured by irradiating the subject with light and data of a second captured image captured without irradiating the subject with light;
An area dividing unit for determining a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the first captured image and the second captured image;
A second computing unit for obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
A subject extraction unit that extracts the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
An image processing apparatus comprising:
前記撮影画像における前記第1部分領域のデータの空間周波数を解析する第1演算部と、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。 A data reading unit that reads data of a photographed image obtained by photographing a subject image and data indicating a range of a first partial area including a main subject in the photographed image;
A first arithmetic unit that analyzes a spatial frequency of data of the first partial region in the captured image;
A subject extraction unit that extracts the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
An image processing apparatus comprising:
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求める第2演算部と、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出する被写体抽出部と、
を備えることを特徴とする画像処理装置。 Data of a first photographed image taken by irradiating a subject with light, data of a second photographed image taken without irradiating the subject with light, the first photographed image and the second photographed image A data reading unit for reading data indicating the range of the first partial area including the main subject in the image;
A second computing unit for obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
A subject extraction unit that extracts the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
An image processing apparatus comprising:
被写体像を撮影した撮影画像のデータを前記制御部に読み込むステップと、
前記撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とを決定するステップと、
前記第1部分領域のデータの空間周波数を解析するステップと、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。 A program for a control unit of an image processing apparatus,
Reading data of a photographed image obtained by photographing a subject image into the control unit;
Determining a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the captured image;
Analyzing the spatial frequency of the data of the first partial region;
Extracting the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
Is executed by the control unit.
被写体に対して光を照射して撮影した第1撮影画像のデータと、前記被写体に対して光を照射せずに撮影した第2撮影画像のデータとを前記制御部に読み込むステップと、
前記第1撮影画像および前記第2撮影画像において、主要被写体を含んだ第1部分領域の範囲と、前記第1部分領域を除いた第2部分領域の範囲とそれぞれを決定するステップと、
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求めるステップと、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。 A program for a control unit of an image processing apparatus,
Reading data of a first photographed image taken by irradiating the subject with light and data of a second photographed image taken without irradiating the subject with light to the control unit;
Determining a range of a first partial area including a main subject and a range of a second partial area excluding the first partial area in the first captured image and the second captured image;
Obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
Extracting the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
Is executed by the control unit.
被写体像を撮影した撮影画像のデータと、前記撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを前記制御部に読み込むステップと、
前記撮影画像における前記第1部分領域のデータの空間周波数を解析するステップと、
前記第1演算部の演算結果に基づいて、前記撮影画像の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。 A program for a control unit of an image processing apparatus,
Reading into the control unit data of a photographed image obtained by photographing a subject image and data indicating a range of a first partial area including a main subject in the photographed image;
Analyzing the spatial frequency of the data of the first partial region in the captured image;
Extracting the main subject from a range of the first partial region of the captured image based on a calculation result of the first calculation unit;
Is executed by the control unit.
被写体に対して光を照射して撮影した第1撮影画像のデータと、前記被写体に対して光を照射せずに撮影した第2撮影画像のデータと、前記第1撮影画像および前記第2撮影画像において主要被写体を含んだ第1部分領域の範囲を示すデータとを前記制御部に読み込むステップと、
前記第1撮影画像の前記第1部分領域と前記第2撮影画像の前記第1部分領域との明るさの差分および明るさの比率の少なくとも一方を求めるステップと、
前記第2演算部の演算結果に基づいて、前記第1撮影画像および前記第2撮影画像の少なくとも一方の前記第1部分領域の範囲から前記主要被写体を抽出するステップと、
を前記制御部に実行させることを特徴とするプログラム。 A program for a control unit of an image processing apparatus,
Data of a first photographed image taken by irradiating a subject with light, data of a second photographed image taken without irradiating the subject with light, the first photographed image and the second photographed image Reading data indicating the range of the first partial area including the main subject in the image into the control unit;
Obtaining at least one of a brightness difference and a brightness ratio between the first partial area of the first captured image and the first partial area of the second captured image;
Extracting the main subject from a range of the first partial region of at least one of the first photographed image and the second photographed image based on a computation result of the second computation unit;
Is executed by the control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006273954A JP2008092515A (en) | 2006-10-05 | 2006-10-05 | Electronic camera, image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006273954A JP2008092515A (en) | 2006-10-05 | 2006-10-05 | Electronic camera, image processing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008092515A true JP2008092515A (en) | 2008-04-17 |
Family
ID=39376135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006273954A Withdrawn JP2008092515A (en) | 2006-10-05 | 2006-10-05 | Electronic camera, image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008092515A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010220122A (en) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | Image processing apparatus, image capturing apparatus, image processing method, and image processing program |
JP2011077790A (en) * | 2009-09-30 | 2011-04-14 | Nikon Corp | Imaging apparatus, correction processing program and recording medium |
JP2011103639A (en) * | 2009-10-15 | 2011-05-26 | Olympus Corp | Image processing apparatus, method and image |
WO2011099244A1 (en) | 2010-02-10 | 2011-08-18 | パナソニック株式会社 | Image processing device and method |
JP2011210204A (en) * | 2010-03-31 | 2011-10-20 | Casio Computer Co Ltd | Difference image generation device, program and difference image generation method |
WO2012002020A1 (en) * | 2010-06-30 | 2012-01-05 | 富士フイルム株式会社 | Playback device, compound-eye imaging device, playback method and program |
JP2012044380A (en) * | 2010-08-18 | 2012-03-01 | Canon Inc | Imaging apparatus |
JP2014006871A (en) * | 2012-05-31 | 2014-01-16 | Casio Comput Co Ltd | Image region dividing device, method, and program |
WO2016159143A1 (en) * | 2015-03-30 | 2016-10-06 | 株式会社ニコン | Electronic device and computer program product |
JP2018034117A (en) * | 2016-08-31 | 2018-03-08 | 東芝ライテック株式会社 | Sterilizer |
KR101836432B1 (en) * | 2011-12-16 | 2018-03-12 | 삼성전자주식회사 | Image pickup apparatus, method for image compensation and computer-readable recording medium |
-
2006
- 2006-10-05 JP JP2006273954A patent/JP2008092515A/en not_active Withdrawn
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010220122A (en) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | Image processing apparatus, image capturing apparatus, image processing method, and image processing program |
JP2011077790A (en) * | 2009-09-30 | 2011-04-14 | Nikon Corp | Imaging apparatus, correction processing program and recording medium |
JP2011103639A (en) * | 2009-10-15 | 2011-05-26 | Olympus Corp | Image processing apparatus, method and image |
US8970746B2 (en) | 2009-10-15 | 2015-03-03 | Olympus Corporation | Image processing device, storage medium, and image processing method for correcting an image |
WO2011099244A1 (en) | 2010-02-10 | 2011-08-18 | パナソニック株式会社 | Image processing device and method |
US8803984B2 (en) | 2010-02-10 | 2014-08-12 | Dolby International Ab | Image processing device and method for producing a restored image using a candidate point spread function |
JP2011210204A (en) * | 2010-03-31 | 2011-10-20 | Casio Computer Co Ltd | Difference image generation device, program and difference image generation method |
WO2012002020A1 (en) * | 2010-06-30 | 2012-01-05 | 富士フイルム株式会社 | Playback device, compound-eye imaging device, playback method and program |
CN102972036A (en) * | 2010-06-30 | 2013-03-13 | 富士胶片株式会社 | Playback device, compound-eye imaging device, playback method and program |
JPWO2012002020A1 (en) * | 2010-06-30 | 2013-08-22 | 富士フイルム株式会社 | Reproduction apparatus, compound eye imaging apparatus, reproduction method, and program |
CN102972036B (en) * | 2010-06-30 | 2016-08-31 | 富士胶片株式会社 | Replay device, compound eye imaging device, playback method and program |
JP5420076B2 (en) * | 2010-06-30 | 2014-02-19 | 富士フイルム株式会社 | Reproduction apparatus, compound eye imaging apparatus, reproduction method, and program |
US9258552B2 (en) | 2010-06-30 | 2016-02-09 | Fujifilm Corporation | Playback device, compound-eye image pickup device, playback method and non-transitory computer readable medium |
JP2012044380A (en) * | 2010-08-18 | 2012-03-01 | Canon Inc | Imaging apparatus |
KR101836432B1 (en) * | 2011-12-16 | 2018-03-12 | 삼성전자주식회사 | Image pickup apparatus, method for image compensation and computer-readable recording medium |
JP2014006871A (en) * | 2012-05-31 | 2014-01-16 | Casio Comput Co Ltd | Image region dividing device, method, and program |
WO2016159143A1 (en) * | 2015-03-30 | 2016-10-06 | 株式会社ニコン | Electronic device and computer program product |
JP2016192606A (en) * | 2015-03-30 | 2016-11-10 | 株式会社ニコン | Electronic apparatus and program |
CN107409177A (en) * | 2015-03-30 | 2017-11-28 | 株式会社尼康 | Electronic equipment and computer program product |
EP3280129A4 (en) * | 2015-03-30 | 2018-10-03 | Nikon Corporation | Electronic device and computer program product |
US10567638B2 (en) | 2015-03-30 | 2020-02-18 | Nikon Corporation | Electronic device and computer program product for setting image capturing conditions for multiple regions in image capturing sensor |
CN107409177B (en) * | 2015-03-30 | 2021-03-30 | 株式会社尼康 | Electronic equipment |
US11800074B2 (en) | 2015-03-30 | 2023-10-24 | Nikon Corporation | Electronic device and computer program product |
JP2018034117A (en) * | 2016-08-31 | 2018-03-08 | 東芝ライテック株式会社 | Sterilizer |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008092515A (en) | Electronic camera, image processing apparatus and program | |
JP4935302B2 (en) | Electronic camera and program | |
JP4924430B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP4888191B2 (en) | Imaging device | |
JP4848965B2 (en) | Imaging device | |
JP2007124398A (en) | Photographing device | |
JP2004207985A (en) | Digital camera | |
JP2007282119A (en) | Electronic camera and image processing apparatus | |
WO2010073619A1 (en) | Image capture device | |
JP6472183B2 (en) | Image processing apparatus, control method thereof, and program | |
US10270977B2 (en) | Imaging apparatus and a method of tracking a subject in the imaging apparatus | |
JP2007282118A (en) | Electronic camera and image processing apparatus | |
JP4894616B2 (en) | Imaging device | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
JP4349380B2 (en) | IMAGING DEVICE, METHOD FOR OBTAINING IMAGE | |
JP4888192B2 (en) | Imaging device | |
JP2008092299A (en) | Electronic camera | |
JP2007281647A (en) | Electronic camera and image processing apparatus | |
JP5499531B2 (en) | Electronic camera | |
JP2008288797A (en) | Imaging apparatus | |
JP2007258923A (en) | Image processing apparatus, image processing method, image processing program | |
JP5509621B2 (en) | Image processing apparatus, camera, and program | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2007259004A (en) | Digital camera, image processor, and image processing program | |
JP2010147660A (en) | Image processor, electronic camera and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100105 |