JP5493839B2 - Imaging apparatus, image composition method, and program - Google Patents
Imaging apparatus, image composition method, and program Download PDFInfo
- Publication number
- JP5493839B2 JP5493839B2 JP2009294330A JP2009294330A JP5493839B2 JP 5493839 B2 JP5493839 B2 JP 5493839B2 JP 2009294330 A JP2009294330 A JP 2009294330A JP 2009294330 A JP2009294330 A JP 2009294330A JP 5493839 B2 JP5493839 B2 JP 5493839B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- unit
- imaging
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
本発明は、複数の画像を合成する撮像装置、画像合成方法及びプログラムに関する。 The present invention relates to an imaging apparatus, an image synthesis method, and a program for synthesizing a plurality of images.
従来、被写体画像と背景画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。 Conventionally, a technique for generating a composite image by combining a subject image with a background image or a frame image is known (see, for example, Patent Document 1).
しかしながら、合成画像を生成するためには、合成に係る背景画像及び被写体画像の選択や、背景画像に対する被写体画像の合成位置及びサイズ等の指定を行わなければならず、その作業が煩わしいといった問題がある。 However, in order to generate a composite image, it is necessary to select a background image and a subject image for composition, and to specify a composite position and size of the subject image with respect to the background image, which is troublesome. is there.
そこで、本発明の課題は、合成画像の生成を簡便に行うことができる撮像装置、画像合成方法及びプログラムを提供することである。 Accordingly, an object of the present invention is to provide an imaging apparatus, an image composition method, and a program that can easily generate a composite image.
上記課題を解決するため、請求項1に記載の発明の撮像装置は、
第1画像と合成すべき第2画像を指定する指定手段と、
被写体を撮像することにより、被写体存在画像を取得する撮像手段と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段と、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記撮像手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段と、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段と、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段と、
を備えたことを特徴としている。
In order to solve the above problem, an imaging apparatus according to
Designating means for designating a second image to be combined with the first image;
Imaging means for acquiring a subject presence image by imaging a subject;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining unit determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying unit is transmitted through the subject existing image acquired by the imaging unit. Display control means for displaying an image of the state on the display means;
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
It is characterized by having.
請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記表示制御手段は、前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記指定手段により指定された前記第2画像を半透過の表示態様で前記表示手段に表示させることを特徴としている。
The invention according to claim 2 is the imaging apparatus according to
The display control unit displays the second image designated by the designation unit in a semi-transparent display mode when the non-flatness judgment unit judges that the non-flatness is a predetermined value or less. It is characterized by being displayed on the means.
請求項3に記載の発明は、請求項1又は2に記載の撮像装置において、
前記指定手段により前記第2画像が指定されたか否かを判定する指定判定手段を更に備え、前記合成手段は、更に、前記指定判定手段により前記第2画像が指定されたと判定された場合に、前記第1画像と前記第2画像とを合成した合成画像を生成することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to
It further comprises designation determination means for determining whether or not the second image has been designated by the designation means, and the combining means further comprises a step of determining that the second image has been designated by the designation determination means. A composite image obtained by combining the first image and the second image is generated.
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の撮像装置において、
前記合成手段は、更に、前記撮像手段による前記被写体存在画像の撮像の際の前記被写体の画角内における位置を基準として、前記第1画像と前記第2画像の合成を行うことを特徴としている。
Invention of
The synthesizing unit further synthesizes the first image and the second image with reference to a position within the angle of view of the subject when the subject-existing image is captured by the imaging unit. .
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、
前記合成手段は、更に、前記撮像手段による前記被写体存在画像の撮像の際の前記被写体の画角内における大きさを基準として、前記第1画像と前記第2画像の合成を行うことを特徴としている。
Invention of
The synthesizing unit further synthesizes the first image and the second image on the basis of a size within the angle of view of the subject when the subject-existing image is captured by the imaging unit. Yes.
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、
前記被写体抽出手段により抽出された前記被写体領域と前記合成手段により生成された前記合成画像とを対応づけて記録手段に記録させる記録制御手段を更に備えることを特徴としている。
Invention of Claim 6 is an imaging device as described in any one of Claims 1-5 ,
The image processing apparatus further includes recording control means for causing the recording means to record the subject area extracted by the subject extracting means and the synthesized image generated by the synthesizing means in association with each other.
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、
前記撮像手段は、前記被写体を連続して複数回撮像することにより、複数の前記被写体存在画像を取得し、
前記被写体抽出手段は、前記撮像手段により取得された複数の前記被写体存在画像毎に被写体が含まれる被写体領域を抽出し、
前記合成手段は、前記被写体抽出手段によって抽出された被写体領域それぞれを前記第2画像に合成し、複数の合成画像を生成することを特徴としている。
The invention according to claim 7 is the imaging apparatus according to any one of
The imaging means acquires a plurality of the subject presence images by continuously imaging the subject a plurality of times,
The subject extracting means extracts a subject area including a subject for each of the plurality of subject existing images acquired by the imaging means;
The synthesizing unit synthesizes each of the subject areas extracted by the subject extracting unit with the second image to generate a plurality of synthesized images.
請求項8に記載の発明の画像合成方法は、
背景内に被写体が存在する被写体存在画像を取得する取得手段を備える撮像装置を用いた画像合成方法であって、
第1画像と合成すべき第2画像を指定する処理と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する処理と、
前記非平坦度が所定値以下であると判定された場合に、取得された被写体存在画像に対し、指定された第2画像が透過した状態の画像を表示手段に表示させる処理と、
前記表示手段に画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する処理と、
抽出された前記第1画像と指定された前記第2画像とを合成して合成画像を生成する処理と、
を実行させることを特徴としている。
An image composition method according to an eighth aspect of the present invention includes:
An image composition method using an imaging device including an acquisition unit that acquires a subject existing image in which a subject is present in a background,
A process for designating a second image to be combined with the first image;
A process of determining whether or not the non-flatness of the background portion of the subject existing image is a predetermined value or less;
When the non-flatness is determined to be less than or equal to a predetermined value, a process for displaying on the display means an image in which the designated second image is transmitted with respect to the acquired subject existing image;
When a predetermined instruction is detected while an image is displayed on the display means, a process for extracting a subject area including a subject from the subject existing image as the first image;
A process of generating a composite image by combining the extracted first image and the designated second image;
It is characterized by executing.
請求項9に記載の発明のプログラムは、
背景内に被写体が存在する被写体存在画像を取得する取得手段を備える撮像装置のコンピュータを、
第1画像と合成すべき第2画像を指定する指定手段、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記取得手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段、
として機能させることを特徴としている。
The program of the invention according to
A computer of an imaging apparatus including an acquisition unit that acquires a subject presence image in which a subject is present in the background,
Designating means for designating a second image to be synthesized with the first image;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining means determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying means is transmitted through the subject existing image acquired by the acquiring means. Display control means for displaying an image of the state on the display means,
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
It is characterized by making it function as.
本発明によれば、一回の撮影動作で合成画像の生成を簡便に行うことができる。 According to the present invention, a composite image can be easily generated by a single photographing operation.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an
本実施形態の撮像装置100は、被写体画像A(図7(b)参照)と合成すべき合成用背景画像P2(図6(a)参照)を指定した後、背景内に被写体Sが存在する被写体存在画像(例えば、被写体存在画像P1a;図6(c)参照))を撮像し、当該被写体存在画像から被写体Sが含まれる領域の被写体画像Aを抽出して、抽出された被写体画像Aと指定された合成用背景画像P2とを合成して被写体合成画像P6(図7(c)参照)を生成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、非平坦度演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体制御部9と、表示制御部10と、表示部11と、操作入力部12と、中央制御部13とを備えている。
また、撮像制御部3と、非平坦度演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13は、例えば、カスタムLSI1Aとして設計されている。
In the
Specifically, as illustrated in FIG. 1, the
Further, the imaging control unit 3, the non-flatness calculation unit 6, the block matching unit 7, the
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体Sの撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The
Although not shown, the
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体Sの撮像条件の調整制御を行う。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image
In addition, the imaging control unit 3 performs adjustment control of imaging conditions of the subject S such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.
また、撮像モードとして被写体切り抜きモード(後述)が設定されている場合に、ユーザによるシャッタボタン12aの撮像指示操作に基づいて、撮像制御部3は、レンズ部1を通過した背景内に被写体Sが存在する被写体存在画像P1a(図6(c)参照)の光学像を所定の撮像条件で電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から被写体存在画像P1aに係る画像フレームを読み出させる。
ここで、レンズ部1、電子撮像部2及び撮像制御部3は、背景内に被写体Sが存在する被写体存在画像P1aを撮像する撮像手段を構成している。
Further, when the subject clipping mode (described later) is set as the imaging mode, the imaging control unit 3 sets the subject S in the background that has passed through the
Here, the
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an
なお、A/D変換後のデジタルデータを現像するデモザイク部(図示略)が、カスタムLSI1Aに実装されていても良い。 A demosaic unit (not shown) for developing the digital data after A / D conversion may be mounted on the custom LSI 1A.
画像メモリ5は、例えば、DRAM等により構成され、非平坦度演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13等によって処理されるデータ等を一時記憶する。
The
非平坦度演算部6は、ライブビュー画像表示用の画像フレームとして生成された背景画像Pbや、被写体存在画像P1aの非平坦度を演算する。具体的には、非平坦度演算部6は、分割部6aと、特徴量演算部6bと、ばらつき量算出部6cとを具備している。
The non-flatness calculation unit 6 calculates the non-flatness of the background image Pb generated as an image frame for live view image display and the subject presence image P1a. Specifically, the non-flatness calculation unit 6 includes a
分割部6aは、抽出用背景生成処理にて、被写体存在画像P1aのYUVデータに基づいて、当該被写体存在画像P1aの周縁部分(図7(a)参照)を複数の画像ブロックB、…に分割する。
In the extraction background generation process, the dividing
特徴量演算部6bは、背景画像Pbや、被写体存在画像P1aから特徴点を抽出する特徴抽出処理を行う。
即ち、特徴量演算部6bは、ライブビュー画像表示用の画像フレームとして生成された背景画像PbのYUVデータに基づいて、高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出する。
また、特徴量演算部6bは、抽出用背景生成処理にて、分割部6aにより分割された被写体存在画像P1aの各画像ブロックBの特徴点を抽出する。具体的には、特徴量演算部6bは、各画像ブロックBの高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出する。
The feature
That is, the feature
Further, the feature
また、特徴量演算部6bは、被写体存在画像P1b(図8(a)参照)と被写体非存在画像P3との位置合わせ処理にて、被写体非存在画像P3を基準として、当該被写体非存在画像P3から特徴点を抽出する処理を行う。具体的には、特徴量演算部6bは、被写体非存在画像P3のYUVデータに基づいて、多数の候補ブロックから追跡に都合の良い所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロック領域の内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
In addition, the feature
ばらつき量算出部6cは、ブロック領域内の画素値のばらつき量を算出する。
即ち、ばらつき量算出部6cは、ライブビュー画像表示用の画像フレームとして生成された背景画像Pbの各ブロック領域内のばらつき量として、標準偏差を下記式(1)に従って算出する。
また、ばらつき量算出部6cは、抽出用背景生成処理にて、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…の各々についてのばらつき量として、標準偏差を下記式(1)に従って算出する。
In other words, the variation amount calculation unit 6c calculates the standard deviation according to the following equation (1) as the variation amount in each block region of the background image Pb generated as the image frame for displaying the live view image.
Further, the variation amount calculation unit 6c calculates a standard deviation according to the following equation (1) as a variation amount for each of the plurality of image blocks B,... In the peripheral portion of the subject existing image P1a in the extraction background generation processing. To do.
このように、特徴量演算部6bは、被写体存在画像P1aの周縁部分の特徴点や背景画像Pbの特徴点を非平坦度として抽出する。また、ばらつき量算出部6cは、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…内の画素値のばらつき量や、背景画像の複数のブロック領域内のばらつき量を非平坦度として演算する。
As described above, the feature
ブロックマッチング部7は、被写体非存在画像(基準画像)P3と被写体存在画像(対象画像)P1bの位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1b内のどこに対応するか、つまり、被写体存在画像P1b内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P3と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。 The block matching unit 7 performs block matching processing for aligning the subject non-existing image (reference image) P3 and the subject existing image (target image) P1b. Specifically, the block matching unit 7 optimally matches where the template extracted in the feature extraction process corresponds to in the subject existing image P1b, that is, the template pixel value in the subject existing image P1b. Search for a position (corresponding region). Then, the optimum offset between the subject non-existing image P3 and the subject existing image P1b having the best evaluation value (for example, sum of squared differences (SSD), sum of absolute differences (SAD), etc.) Calculated as a template motion vector.
画像処理部8は、背景指定判定部8aと、非平坦度判定部8bと、抽出用背景生成部8cと、位置合わせ部8dと、マスク生成部8eと、切抜画像生成部8fと、画像合成部8gとを具備している。
The
背景指定判定部8aは、被写体切り抜き処理にて、合成用背景画像P2が指定されたか否かを判定する。即ち、背景指定判定部8aは、例えば、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から所望の合成用背景画像P2が中央制御部13により指定されたか否かを判定する。
ここで、背景指定判定部8aは、中央制御部(指定手段)13により合成用背景画像P2が指定されたか否かを判定する指定判定手段を構成している。
The background
Here, the background
非平坦度判定部8bは、非平坦度演算処理にて演算された非平坦度が所定値以下であるか否の判定を行う。
具体的には、非平坦度判定部8bは、ライブビュー画像表示用の画像フレームとして生成され、被写体存在画像P1aの背景部分を構成する背景画像Pbの特徴点(特徴の高いブロック領域)が所定値以下であるか否かを判定する。また、非平坦度判定部8bは、背景画像Pbのブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定する。
即ち、背景画像Pbと略等しい画角内に被写体Sが配置されることで被写体存在画像P1aが構成されるようになっていることから、当該被写体存在画像P1aの被写体Sと重なっていない背景部分の画素値(例えば、輝度値)は、背景画像Pbの画素値と略等しくなっている。そして、非平坦度判定部8bは、背景画像Pbの非平坦度が所定値以下であるか否の判定を行うことにより、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段を構成している。
The
Specifically, the
That is, since the subject existing image P1a is configured by arranging the subject S within the same angle of view as the background image Pb, the background portion that does not overlap the subject S of the subject existing image P1a. Is substantially equal to the pixel value of the background image Pb. Then, the
また、非平坦度判定部8bは、抽出用背景生成処理にて、特徴量演算部6bによって被写体存在画像P1aの周縁部分の複数の画像ブロックB、…について抽出された特徴点が所定値以下であるか否か(被写体存在画像P1aの周縁部分の特徴量が多いか否か)を判定する。また、非平坦度判定部8bは、ばらつき量算出部6cにより算出された各画像ブロックBのばらつき量が所定値以下であるか否かを判定する。
さらに、非平坦度判定部8bは、特徴点が所定値以下であり、且つ、ブロック領域内の画素値のばらつき量が所定値以下であると判定された画像ブロックBを計数して、画像ブロックBが複数あるか否かを判定する。
In addition, the
Further, the
なお、非平坦度判定部8bは、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定にて、上記したように、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…についての非平坦度の判定手法を適用しても良い。
Note that, as described above, the
抽出用背景生成部8cは、クロマキー技術を利用して被写体画像Aを抽出するための抽出用背景画像(図示略)を生成する。
具体的には、抽出用背景生成部8cは、非平坦度判定部8bによって、被写体存在画像P1aの周縁部分の特徴点が所定値以下であり、且つ、ブロック領域内の画素値のばらつき量が所定値以下である画像ブロックB、即ち、特徴量の少ない画像ブロックBが複数あると判定された場合に、当該画像ブロックBの色と同じ色を背景色とする抽出用背景画像を生成する。例えば、図6(b)に示すように、特徴量の少ない無地の背景をバックに被写体Sを撮影した場合には、被写体存在画像P1aの周縁部分の特徴量が少なくなり、当該被写体存在画像P1aの周縁部分と同じ色の抽出用背景画像を生成する。
なお、クロマキーとは、特定の色背景を用いて一の画像データから被写体Sを切り抜く手法である。クロマキーでは、通常、背景に被写体Sと補色の関係にある青や緑のスクリーンを用いるようになっており、被写体存在画像P1aの周縁部分と同じ色の抽出用背景画像を生成することで、抽出用背景画像と被写体存在画像P1aの色情報を基にして背景部分と被写体部分を分離することができる。
The extraction
Specifically, in the extraction
Note that the chroma key is a method of cutting out the subject S from one image data using a specific color background. In the chroma key, normally, a blue or green screen having a complementary color relationship with the subject S is used as the background, and extraction is performed by generating an extraction background image having the same color as the peripheral portion of the subject existing image P1a. The background portion and the subject portion can be separated based on the color information of the background image for the subject and the subject existing image P1a.
位置合わせ部8dは、被写体非存在画像P3から抽出した特徴点に基づいて、被写体存在画像P1bと被写体非存在画像P3との位置合わせを行う。
即ち、位置合わせ部8dは、被写体非存在画像P3から抽出した特徴点に基づいて、被写体非存在画像P3に対する被写体存在画像P1bの各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1bを座標変換して被写体非存在画像P3と位置合わせを行う。
具体的には、位置合わせ部8dは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルを多数決により演算して、統計的に所定%(例えば、50%)以上となると判断された動きベクトルを全体の動きベクトルとして、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出する。そして、位置合わせ部8dは、射影変換行列に従って被写体存在画像P1bを座標変換して被写体非存在画像P3と位置合わせを行う。
The
That is, the
Specifically, the
マスク生成部8eは、被写体存在画像P1a(P1b)から被写体画像Aを抽出するためのマスク画像を生成する。
即ち、マスク生成部8eは、背景となる画像(抽出用背景画像(図示略)や被写体非存在画像P3)と被写体存在画像P1a(P1b)の対応する各画素の相違度Dを下記式(2)に従って算出して相違度マップを生成する。
そして、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化(0、255)してマスク画像を生成する。
The mask generation unit 8e generates a mask image for extracting the subject image A from the subject presence image P1a (P1b).
That is, the mask generation unit 8e calculates the difference D between the corresponding pixels of the background image (extraction background image (not shown) or the subject non-existing image P3) and the subject existing image P1a (P1b) by the following equation (2). ) To generate a dissimilarity map.
Then, the mask generation unit 8e generates a mask image by binarizing (0, 255) the generated difference map with a predetermined threshold.
また、マスク生成部8eは、細かいノイズを除去するための収縮処理を行って所定値よりも小さい画素集合を除いた後、収縮分を修正するための膨張処理を行い、その後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めも行う。さらに、マスク生成部8eは、領域情報に対して平均化フィルタをかけて領域の縁部に合成階調をつける。 Further, the mask generation unit 8e performs a contraction process for removing fine noise to remove a pixel set smaller than a predetermined value, and then performs a expansion process for correcting the contraction. By performing a labeling process for assigning the same numbers to the pixel sets to be configured, a hole area is also filled by replacing an area having a predetermined ratio or less in the number of constituent pixels of the effective area with the effective area. Further, the mask generation unit 8e applies an averaging filter to the region information to add a composite gradation to the edge of the region.
切抜画像生成部8fは、被写体Sの画像を所定の単一色背景画像P5と合成して被写体切り抜き画像P4の画像データを生成する。
即ち、切抜画像生成部8fは、クロマキー技術を利用して、マスク生成部8eにより生成されたマスク画像を用いて被写体存在画像P1a(P1b)から被写体画像Aを切り出して、単一色背景画像P5と合成して被写体切り抜き画像P4の画像データを生成する。
なお、マスク画像の縁部分には、合成階調がつけられているため、切り出された被写体画像Aと単一色背景画像P5との境界部分がはっきりしていない自然な感じに合成することができる。
ここで、切抜画像生成部8fは、被写体存在画像P1a(P1b)から被写体Sが含まれる被写体領域(被写体画像A)を抽出する被写体抽出手段を構成している。
The cut-out
That is, the cut-out
In addition, since the synthetic gradation is given to the edge part of the mask image, it can be synthesized in a natural feeling in which the boundary part between the clipped subject image A and the single color background image P5 is not clear. .
Here, the cut-out
画像合成部8gは、被写体切り抜き画像P4の被写体画像A(第1画像)と合成用背景画像P2(第2画像)とを合成して被写体合成画像P6を生成する。
具体的には、画像合成部8gは、合成用背景画像P2の各画素のうち、マスク画像の画像データの被写体S以外の部分で覆われる画素については、何もせずに透過させる一方で、被写体部分の画素については、被写体切り抜き画像P4の被写体画像Aの対応する画素の画素値で上書きする。
The
Specifically, the
また、画像合成部8gは、被写体切り抜き処理にて、背景指定判定部8aにより合成用背景画像P2が指定されたと判定された場合には、当該指定済みの合成用背景画像P2と被写体切り抜き画像P4の被写体画像Aの合成を行う。このとき、画像合成部8gは、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における位置及び大きさを基準として、当該被写体画像Aと合成用背景画像P2とを合成する。具体的には、画像合成部8gは、例えば、生成される被写体合成画像P6内の被写体画像Aの位置(即ち、被写体画像Aの中心位置)及び大きさ(即ち、被写体合成画像P6に対する被写体画像Aの構成画素数の比率)が、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における位置及び大きさと略等しくなるように調整して、当該被写体画像Aと合成用背景画像P2とを合成させる。
一方、被写体切り抜き処理にて、合成用背景画像P2が指定されていないと判定された場合には、画像合成部8gは、当該被写体切り抜き処理にて、被写体切り抜き画像P4の被写体画像Aと合成用背景画像P2の合成を行わずに、その後、ユーザ所望のタイミングで実行される画像合成処理にて被写体切り抜き画像P4と合成用背景画像P2の合成を行う。
Further, when it is determined in the subject clipping process that the background
On the other hand, if it is determined in the subject clipping process that the composition background image P2 is not designated, the
このように、画像合成部8gは、切抜画像生成部8fにより抽出された被写体切り抜き画像P4の被写体画像Aと予め指定されている合成用背景画像P2とを合成して被写体合成画像P6を生成する合成手段を構成している。
As described above, the
なお、ユーザによる操作入力部12の所定操作に基づいて被写体画像Aの合成位置を変更する場合、画像合成部8gは、当該合成位置に応じてマスク画像をずらして配置するようになっている。また、かかる状態で、合成用背景画像P2とマスク画像とがずれてしまいマスク画像の画像データの塗りつぶした部分(被写体S以外の部分)の範囲外となる領域については、画像合成部8gは、塗りつぶした部分を拡大してマスク画像により被覆されない領域を生じさせないようにする。
Note that when the composition position of the subject image A is changed based on a predetermined operation of the
記録媒体制御部9は、記録媒体9aが着脱自在に構成され、装着された記録媒体9aからのデータの読み出しや記録媒体9aに対するデータの書き込みを制御する。即ち、記録媒体制御部9は、画像処理部8のJPEG圧縮部(図示略)により符号化された撮像画像の記録用の画像データを記録媒体9aに記録させる。
また、記録媒体制御部9は、画像処理部8のマスク生成部8eにより生成されたマスク画像と、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データをそれぞれ圧縮した上で対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として記録媒体9aに記録させる。
さらに、記録媒体制御部9は、画像処理部8のマスク生成部8eにより生成されたマスク画像と、画像合成部8gにより生成された被写体合成画像P6の画像データとを対応付けて、当該被写体合成画像P6の画像データの拡張子を「.jpg」として記録媒体9aに記録させる。
The recording
In addition, the recording
Further, the recording
なお、記録媒体9aは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The
表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいてライブビュー画像やレックビュー画像などを表示画面11aに表示する。
即ち、表示制御部10は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像や、本撮像画像として撮像されたレックビュー画像などを表示部11の表示画面11aに表示させる。
The
Specifically, the
The
That is, the
また、表示制御部10は、被写体存在画像P1aの撮像の際に、中央制御部13によって指定済みの合成用背景画像P2を半透過の表示態様で表示部11に表示させる。即ち、表示制御部10は、非平坦度判定部8bによりライブビュー画像Pbの非平坦度(特徴の高いブロック領域や画素値のばらつき量)が所定値以下であると判定された場合に、所定の画像サイズの合成用背景画像P2の画像データに基づいて当該合成用背景画像P2を半透過の表示態様(半透過の合成用背景画像P2´)でライブビュー画像に重ねて表示部11に表示させる。
ここで、合成用背景画像P2の画像データとしては、記録用として記録媒体9aに記録されている高解像度の画像データを用いても良いし、合成用背景画像P2の撮像の際に画像データ生成部4により水平(x軸)及び垂直(y軸)ともに所定の比率で縮小されることで生成された中間解像度(例えば、VGA程度)の縮小画像データを用いても良いが、表示制御部10の処理負担の軽減や処理速度の高速化を図る上では、縮小画像データを用いる方が好ましい。
なお、合成用背景画像P2の半透過の表示態様(半透過の合成用背景画像P2´)とは、合成用背景画像P2が透明と不透明の中間で表示された状態であり、当該合成用背景画像P2に重ねて後側に表示されるライブビュー画像の輪郭や色彩や明暗などを透過する程度の表示態様のことである。また、半透過の表示態様の合成用背景画像P2を所定のタイミングで表示と非表示とを交互に切り替えるようにすることで、通常のライブビュー画像と半透過した合成用背景画像P2が重ねられたライブビュー画像とを連続的に視認可能としても良い。
Further, the
Here, as the image data of the composition background image P2, high-resolution image data recorded on the
The translucent display mode of the compositing background image P2 (semi-transparent compositing background image P2 ′) is a state in which the compositing background image P2 is displayed between transparent and opaque, and the compositing background image P2 is displayed. The display mode is such that the outline, color, brightness, and the like of the live view image displayed on the rear side superimposed on the image P2 are transmitted. Further, by switching alternately between display and non-display of the synthesis background image P2 having a semi-transparent display mode at a predetermined timing, the normal live view image and the semi-transparent synthesis background image P2 are overlapped. The live view image may be continuously visible.
このように、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体存在画像P1aの撮像の際に、指定済みの合成用背景画像P2を半透過の表示態様で表示部(表示手段)11に表示させる表示制御手段を構成している。
Thus, the
操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体Sの撮影指示に係るシャッタボタン12a、メニュー画面にて撮像モードや機能等の選択指示に係る選択決定用ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。
The
また、操作入力部12の選択決定用ボタン12bは、ユーザによる所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から選択された所望の画像の指定指示を中央制御部13に出力する。
中央制御部13は、入力された指定指示に対応する画像を被写体画像Aと合成すべき合成用背景画像P2として指定する。
ここで、操作入力部12及び中央制御部13は、被写体画像Aと合成すべき合成用背景画像P2を指定する指定手段を構成している。
In addition, the
The
Here, the
なお、合成用背景画像P2は、ユーザによる操作入力部12の所定操作に基づいて指定されるようにしたが、合成用背景画像P2の指定方法はこれに限られるものではない。即ち、中央制御部13は、例えば、被写体切り抜き処理の実行直前に撮像された画像や、予め登録済みのユーザ所望の画像などを合成用背景画像P2として自動的に指定するような構成としても良い。
The composition background image P2 is designated based on a predetermined operation of the
中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、CPU、RAM、ROM(何れも図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
次に、撮像装置100による画像合成方法に係る被写体切り抜き処理について、図2〜図8を参照して説明する。
図2及び図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
Next, the subject clipping process according to the image composition method performed by the
2 and 3 are flowcharts showing an example of an operation related to the subject clipping process.
被写体切り抜き処理は、ユーザによる操作入力部12の選択決定用ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図2に示すように、先ず、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=0及び抽出用背景撮影フラグ=0を書き込む(ステップS1)。
次に、画像処理部8の背景指定判定部8aは、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から所望の合成用背景画像P2(図6(a)参照)が選択指定されたか否かを判定する(ステップS2)。
ここで、合成用背景画像P2が選択指定されたと判定されると(ステップS2;YES)、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=1を書き込む(ステップS3)。
The subject clipping process is executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the
As shown in FIG. 2, first, the
Next, the background
If it is determined that the composition background image P2 has been selected and designated (step S2; YES), the
その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を表示部11の表示画面11aに表示させるとともに、当該ライブビュー画像に重ねて背景指示メッセージ(例えば、「背景に向けてください」等)を表示部11の表示画面11aに表示させる(ステップS4;図6(b)参照)。
また、ステップS2にて、合成用背景画像P2が選択指定されていないと判定された場合には(ステップS2;NO)、中央制御部13は、ステップS3の処理をスキップして、処理をステップS4に移行させる、そして、上記と同様に、表示制御部10は、ライブビュー画像を表示部11の表示画面11aに表示させるとともに、当該ライブビュー画像に重ねて背景指示メッセージを表示部11の表示画面11aに表示させる(ステップS4)。
Thereafter, the
If it is determined in step S2 that the composition background image P2 is not selected and designated (step S2; NO), the
そして、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS5)、中央制御部13は、ライブビュー画像表示用の画像フレーム(背景画像Pb)のYUVデータに基づいて、特徴の高いブロック領域(特徴点)を特徴量演算部6bに抽出させるとともに、各ブロック領域内のばらつき量としての標準偏差を式(1)に従ってばらつき量算出部6cに算出させる(ステップS6)。
次に、画像処理部8の非平坦度判定部8bは、特徴量演算部6bにより抽出された特徴の高いブロック領域が所定値以下であるか否か、及びばらつき量算出部6cにより算出された背景画像のブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定することで、特徴点及び当該ブロック領域内の画素値のばらつき量がないか否かを判断する(ステップS7)。
ここで、特徴点及び当該ブロック領域内の画素値のばらつき量がないと判断されると(ステップS7;YES)、即ち、例えば、特徴量の少ない無地の背景をバックに被写体S(例えば、「犬」等)を撮影する場合(図6(b)参照)、中央制御部13は、合成用背景画像指定フラグ=1であるか否かを判定する(ステップS8)。
Next, the
Here, if it is determined that there is no variation amount between the feature point and the pixel value in the block area (step S7; YES), for example, the subject S (for example, “ When photographing a “dog” or the like) (see FIG. 6B), the
ステップS8にて、合成用背景画像指定フラグ=1であると判定されると(ステップS8;YES)、表示制御部10は、ライブビュー画像に重ねて、合成用背景画像P2の半透過の表示態様の画像(半透過の合成用背景画像P2´)及び撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS9)。
その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS10)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS11)。
If it is determined in step S8 that the composition background image designation flag = 1 (step S8; YES), the
Thereafter, the
また、ステップS8にて、合成用背景画像指定フラグ=1でないと判定された場合には(ステップS8;NO)、表示制御部10は、ライブビュー画像に重ねて撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させた後(ステップS12)、中央制御部13は、処理をステップS10に移行して、それ以降の処理を行う。
If it is determined in step S8 that the composition background image designation flag is not 1 (step S8; NO), the
ステップS11にて、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS11;NO)、中央制御部13は、処理をステップS10に移行させて、それ以降の処理を、ステップS11にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS11;YES)、繰り返し実行する。
If it is determined in step S11 that the
この後、ユーザは、被写体Sを画角内に移動させる、或いは被写体Sが移動するのを待った後(図6(c)参照)、ステップS11にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS11;YES)、撮像制御部3は、被写体存在画像P1aの光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS13)。
そして、画像データ生成部4は、電子撮像部2から転送された被写体存在画像P1aの画像フレームに基づいて、被写体存在画像P1aのYUVデータを生成した後、当該YUVデータを画像メモリ5に一時記憶させる。
これにより、特徴量の少ない背景をバックに被写体S(例えば、「犬」等)が撮影された被写体存在画像P1aが生成される。
Thereafter, the user moves the subject S within the angle of view, or waits for the subject S to move (see FIG. 6C), and then determines in step S11 that the
Then, the image
As a result, a subject presence image P1a in which the subject S (for example, “dog” or the like) is photographed with a background having a small feature amount is generated.
一方、ステップS7にて、特徴点及びブロック領域内の画素値のばらつき量があると判断されると(ステップS7;YES)、即ち、例えば、特徴量の多い背景をバックに被写体Sを撮影する場合(図8(a)参照)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS14)。
ここで、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS14;NO)、中央制御部13は、処理をステップS5に移行させ、それ以降の処理を、ステップS14にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS14;YES)、繰り返し実行する。
そして、ステップS14にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS14;YES)、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に抽出用背景撮影フラグ=1を書き込んだ後(ステップS15)、処理をステップS13に移行させて、被写体Sの撮影を行う。
これにより、特徴量の多い背景をバックに被写体Sが撮影された被写体存在画像P1b(図8(a)参照)が生成される。
On the other hand, if it is determined in step S7 that there is a variation amount of the pixel value in the feature point and the block area (step S7; YES), for example, the subject S is photographed against a background having a large amount of feature. In the case (see FIG. 8A), the
Here, if it is determined that the
If it is determined in step S14 that the
As a result, a subject presence image P1b (see FIG. 8A) in which the subject S is photographed against a background with a large amount of feature is generated.
次に、図3に示すように、中央制御部13は、抽出用背景撮影フラグ=0であるか否かを判定する(ステップS16)。
ここで、抽出用背景撮影フラグ=0であると判定されると(ステップS16;YES)、中央制御部13は、非平坦度演算部6及び画像処理部8に、被写体存在画像P1aから被写体画像Aを抽出するための抽出用背景画像を生成させる抽出用背景生成処理を行わせる(ステップS17)。
Next, as shown in FIG. 3, the
Here, if it is determined that the extraction background shooting flag = 0 (step S16; YES), the
以下に、抽出用背景生成処理について図4を参照して詳細に説明する。
ここで、図4は、抽出用背景生成処理に係る動作の一例を示すフローチャートである。
Hereinafter, the extraction background generation processing will be described in detail with reference to FIG.
Here, FIG. 4 is a flowchart showing an example of an operation related to the extraction background generation processing.
図4に示すように、非平坦度演算部6の分割部6aは、被写体存在画像P1aのYUVデータに基づいて、当該被写体存在画像P1aの周縁部分を複数の画像ブロックB、…に分割して(図7(a)参照)、各画像ブロックBの特徴点を抽出する(ステップS41)。
続けて、画像処理部8のばらつき量算出部6cは、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…の各々について画素値のばらつき量としての標準偏差を式(1)に従って算出する(ステップS42)。
Subsequently, the variation amount calculation unit 6c of the
次に、非平坦度判定部8bは、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…について抽出された特徴点が所定値以下であるか否かを判定するとともに、各画像ブロックBのばらつき量が所定値以下であるか否かを判定し、当該判定の結果、特徴点が所定値以下で、且つ、画像ブロックB内の画素値のばらつき量が所定値以下であると判定された画像ブロックBを計数して、画像ブロックBが複数あるか否かを判断する。さらに、ばらつきがないとされた画像ブロックBの内、同じ色の画像ブロックBを計数する。そして、ばらつきがなく、同じ色の画像ブロックBの数が所定値(例えば、画像全体のブロック数の半分)以上であるか否かを判定する(ステップS43)。
ここで、ばらつきがなく、同じ色の画像ブロックBが所定値以上あると判断されると(ステップS43;YES)、抽出用背景生成部8cは、当該画像ブロックBの色と同じ色を背景色とする抽出用背景画像のYUVデータを生成(ステップS44)して、抽出用背景生成成功とする(ステップS45)。
Next, the
Here, when it is determined that there is no variation and the image block B having the same color has a predetermined value or more (step S43; YES), the extraction
一方、ステップS43にて、ばらつきがなく、同じ色の画像ブロックBが所定値に満たないと判断されると(ステップS43;NO)、例えば、ばらつきのない安定した画像ブロックBがあっても、同じ色のブロックがない場合等には背景が特定できないため、抽出用背景生成部8cは、抽出用背景画像を生成せずに、抽出用背景生成失敗とする(ステップS46)。
これにより、抽出用背景生成処理を終了する。
On the other hand, if it is determined in step S43 that there is no variation and the image block B of the same color does not satisfy the predetermined value (step S43; NO), for example, even if there is a stable image block B without variation, Since the background cannot be specified when there is no block of the same color or the like, the extraction
Thus, the extraction background generation process is terminated.
図3に示すように、次に、中央制御部13は、抽出用背景生成部8cに、抽出用背景生成が成功したか否かを判定させる(ステップS18)。
ここで、抽出用背景生成が成功したと判定されると(ステップS18;YES)、中央制御部13は、画像処理部8に、被写体存在画像P1aから被写体Sが含まれる被写体領域を検出する領域検出処理を行わせる(ステップS19)。
As shown in FIG. 3, next, the
Here, if it is determined that the extraction background generation has been successful (step S18; YES), the
以下に、領域検出処理について図5を参照して詳細に説明する。
ここで、図5は、領域検出処理に係る動作の一例を示すフローチャートである。
Hereinafter, the region detection processing will be described in detail with reference to FIG.
Here, FIG. 5 is a flowchart showing an example of an operation related to the region detection processing.
図5に示すように、画像処理部8のマスク生成部8eは、抽出用背景画像のYUVデータと被写体存在画像P1aのYUVデータとの間で対応する各画素の相違度Dを式(2)に従って算出して相違度マップを生成する(ステップS51)。
次に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像データを生成する(ステップS52)。そして、マスク生成部8eは、例えば、背景(二値化;0)の領域が著しく小さいか否か等を判定することで、二値化が成功したか否かを判断する(ステップS53)。
ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、被写体領域の周辺部の残り過ぎを修正したり細かいノイズを除去するため、マスク画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
Next, the mask generation unit 8e binarizes the generated dissimilarity map with a predetermined threshold value to generate mask image data (step S52). Then, the mask generation unit 8e determines whether or not the binarization is successful by determining whether or not the background (binarization; 0) region is extremely small, for example (step S53).
Here, if it is determined that the binarization is successful (step S53; YES), the mask generation unit 8e corrects the remaining portion of the periphery of the subject region and removes fine noise, so that the mask image data is processed. After performing a contraction process to remove a pixel set smaller than a predetermined value (step S54), an expansion process for correcting the contraction is performed (step S55).
続けて、被写体Sに背景色と似たような色がある場合、マスク画像の被写体領域内が欠損するため、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。
その後、マスク生成部8eは、マスク画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。
Subsequently, if the subject S has a color similar to the background color, the subject region of the mask image is lost, so the mask generation unit 8e performs a labeling process for assigning the same number to the pixel sets that constitute the same connected component. Thus, a hole is filled by replacing an area below a predetermined ratio in the number of constituent pixels of the effective area of the mask image data with the effective area (step S56).
Thereafter, the mask generation unit 8e applies an averaging filter to the mask image data, adds a synthetic gradation to the edge of the subject region (step S57), and determines that the region has been successfully detected (step S58).
一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、例えば、背景(二値化;0)の領域が著しく小さい場合などには、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、領域検出処理を終了する。
On the other hand, if it is determined in step S53 that the binarization has not been successful (step S53; NO), for example, if the background (binarization; 0) region is extremely small, the mask generation unit 8e. Is assumed to have failed in binarization, and region detection fails (step S59).
Thereby, the region detection process is terminated.
図3に示すように、ステップS18にて、抽出用背景生成が成功しなかったと判定されると(ステップS18;NO)、表示制御部10は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体の切り抜きに失敗しました」等)を表示部11の表示画面11aに表示させて(ステップS20)、被写体切り抜き処理を終了する。
As shown in FIG. 3, when it is determined in step S18 that the extraction background generation has not succeeded (step S18; NO), the
また、ステップS16にて、抽出用背景撮影フラグ=0ではないと判定されると(ステップS16;NO)、即ち、抽出用背景撮影フラグ=1となっている場合には、表示制御部10は、ライブビュー画像に重ねて、被写体存在画像P1bの半透過の表示態様の画像と被写体非存在画像P3(図8(b)参照)の撮像指示メッセージ(例えば、「背景を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS21)。
If it is determined in step S16 that the extraction background shooting flag = 0 is not satisfied (step S16; NO), that is, if the extraction background shooting flag = 1, the
その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS22)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS23)。
ここで、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS22;NO)、中央制御部13は、処理をステップS22に移行させて、それ以降の処理を、ステップS23にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS23;YES)、繰り返し実行する。
Thereafter, the
Here, if it is determined that the
この後、ユーザは、被写体Sを画角外に移動させる、或いは被写体Sが移動するのを待った後、ステップS23にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS23;YES)、撮像制御部3は、被写体非存在画像P3の光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS24)。
ここで、被写体非存在画像P3の合焦位置や露出条件やホワイトバランス等の撮像条件は、被写体存在画像P1bの撮像の際の撮像条件と同じであるのが好ましい。即ち、被写体存在画像P1bの撮像後に、撮像制御部3は、被写体存在画像P1bの撮像の際の合焦位置や露出条件やホワイトバランス等の撮像条件を固定した状態を維持させるようにしても良い。
そして、画像データ生成部4は、電子撮像部2から転送された被写体非存在画像P3の画像フレームに基づいて、被写体非存在画像P3のYUVデータを生成した後、当該YUVデータを画像メモリ5に一時記憶させる。
これにより、被写体Sが存在しない特徴量の多い背景が撮影された被写体非存在画像P3が生成される。
Thereafter, after the user moves the subject S out of the angle of view or waits for the subject S to move, it is determined in step S23 that the
Here, it is preferable that the imaging conditions such as the in-focus position, the exposure condition, and the white balance of the subject non-existing image P3 are the same as the imaging conditions for imaging the subject existing image P1b. That is, after the subject presence image P1b is captured, the imaging control unit 3 may maintain a state in which imaging conditions such as a focus position, an exposure condition, and a white balance at the time of capturing the subject presence image P1b are fixed. .
Then, the image
As a result, a subject non-existing image P3 in which a background with a large amount of feature without the subject S is captured is generated.
次に、中央制御部13は、非平坦度演算部6、ブロックマッチング部7及び画像処理部8に、被写体非存在画像P3のYUVデータを基準として、被写体存在画像P1bのYUVデータと被写体非存在画像P3のYUVデータとを位置合わせする処理を行わせる(ステップS25)。
具体的には、非平坦度演算部6の特徴量演算部6bは、被写体非存在画像P3のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1b内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P3と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
そして、画像処理部8の位置合わせ部8dは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出した後、当該射影変換行例に基づいて被写体存在画像P1bを射影変換することで、被写体存在画像P1bのYUVデータと被写体非存在画像P3のYUVデータとを位置合わせする処理を行わせる。
Next, the
Specifically, the feature
Then, the
次に、中央制御部13は、画像処理部8に、位置合わせが成功したか否かを判定させる(ステップS26)。即ち、画像処理部8は、ステップS24にて、複数のテンプレートの動きベクトルから全体の動きベクトルを統計的に算出でき、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出することができたか否かを判定する。
Next, the
ステップS26にて、位置合わせが成功したと判定されると(ステップS25;YES)、中央制御部13は、処理をステップS19に移行させて、画像処理部8のマスク生成部8eに領域検出処理(図5参照)を行わせる(ステップS19)。
ここでの領域検出処理は、抽出用背景画像として被写体非存在画像P3を用いる以外の点で上述した内容と略同一であり、その詳細な説明は省略する。即ち、マスク生成部8eは、背景画像としての被写体非存在画像P3のYUVデータと被写体存在画像P1bのYUVデータとの間で対応する各画素の相違度Dを式(2)に従って算出して相違度マップを生成する(ステップS51)。
The area detection process here is substantially the same as the above-described content except that the subject non-existing image P3 is used as the extraction background image, and a detailed description thereof will be omitted. That is, the mask generation unit 8e calculates the difference D between the corresponding pixels between the YUV data of the subject non-existing image P3 as the background image and the YUV data of the subject existing image P1b according to the equation (2). A degree map is generated (step S51).
その後、上記したように、マスク生成部8eは、相違度マップを二値化してマスク画像データを生成する処理(ステップS52)、二値化が成功したか否かを判断する処理(ステップS53)、マスク画像データに対する収縮処理(ステップS54)、収縮分を修正するための膨張処理(ステップS55)、ラベリングにより、マスク画像データの所定の比率以下の領域を有効領域に置き換える処理(ステップS56)、平均化フィルタをかけて被写体領域の縁部に合成階調をつける処理(ステップS57)等を行う。 Thereafter, as described above, the mask generation unit 8e binarizes the dissimilarity map to generate mask image data (step S52), and determines whether binarization is successful (step S53). Shrinkage processing for the mask image data (step S54), expansion processing for correcting the shrinkage (step S55), processing for replacing an area below a predetermined ratio of the mask image data with an effective area by labeling (step S56), A process of applying a composite gradation to the edge of the subject area by applying an averaging filter (step S57) and the like are performed.
一方、ステップS26にて、位置合わせが成功しなかったと判定されると(ステップS26;NO)、中央制御部13は、処理をステップS19に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面11aに表示させた後(ステップS20)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S26 that the alignment has not been successful (step S26; NO), the
そして、領域検出処理(ステップS19)の終了後、中央制御部13は、マスク生成部8eに、被写体領域の検出が成功したか否かを判定させる(ステップS27)。
ここで、被写体領域の検出が成功したと判定されると(ステップS27;YES)、中央制御部13は、画像処理部8の切抜画像生成部8fに、クロマキー技術を利用して、領域検出処理にて生成されたマスク画像を用いて被写体存在画像P1a(P1b)から被写体画像Aを切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成させる(ステップS28)。
具体的には、切抜画像生成部8fは、被写体存在画像P1a(P1b)、単一色背景画像P5及びマスク画像の各画像データを読み出して画像メモリ5に展開する。そして、切抜画像生成部8fは、被写体存在画像P1a(P1b)のうち、マスク画像データの塗りつぶした部分(被写体S以外の部分)で覆われる画素については、単一色背景画像P5の所定の単一色で塗りつぶす一方で、被写体部分の画素については、何もせずに所定の単一色に対して透過させないようにする。なお、マスク画像の縁部分には、合成階調がつけられているため、切り出された被写体画像Aと単一色背景画像P5との境界部分がはっきりしていない自然な感じとなる。
Then, after the region detection process (step S19) ends, the
Here, if it is determined that the detection of the subject region has succeeded (step S27; YES), the
Specifically, the cut-out
その後、中央制御部13は、合成用背景画像指定フラグ=0であるか否かを判定する(ステップS29)。
ここで、合成用背景画像指定フラグ=0であると判定されると(ステップS29;YES)、中央制御部13は、画像処理部8の画像合成部8gに、被写体切り抜き画像P4の被写体画像Aと指定済みの合成用背景画像P2とを合成して被写体合成画像P6(図7(c)参照)の画像データを生成させる(ステップS30)。
具体的には、画像合成部8gは、合成用背景画像P2、被写体切り抜き画像P4及びマスク画像の各画像データを読み出して画像メモリ5に展開する。そして、画像合成部8gは、生成される被写体合成画像P6における被写体画像Aの位置及び大きさが、被写体存在画像P1aの撮像の際の画角内の被写体画像Aの位置及び大きさと略等しくなるように調整した後、合成用背景画像P2の各画素のうち、マスク画像の画像データの塗りつぶした部分(被写体S以外の部分)で覆われる画素については、何もせずに透過させる一方で、被写体部分の画素については、被写体切り抜き画像P4の被写体画像Aの対応する画素の画素値で上書きする。なお、マスク画像の縁部分には、合成階調がつけられているため、合成される被写体画像Aと合成用背景画像P2との境界部分がはっきりしていない自然な感じとなる。
Thereafter, the
If it is determined that the composition background image designation flag = 0 (step S29; YES), the
Specifically, the
その後、表示制御部10は、画像合成部8gにより生成された被写体合成画像P6の画像データに基づいて、合成用背景画像P2に被写体画像Aが合成された被写体合成画像P6を表示部11の表示画面11aに表示させる(ステップS31;図7(c)参照)。
次に、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体合成画像P6の画像データとを対応付けて、当該被写体合成画像P6の画像データの拡張子を「.jpg」として一ファイルで保存させる(ステップS32)。
これにより、被写体切り抜き処理を終了する。
Thereafter, the
Next, the recording
Thereby, the subject clipping process is completed.
一方、ステップS29にて、合成用背景画像指定フラグ=0でないと判定されると(ステップS29;NO)、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体画像Aが合成された被写体切り抜き画像P4を表示部11の表示画面11aに表示させる(ステップS33)。
その後、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体切り抜き画像P4の画像データとを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させた後(ステップS34)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S29 that the composition background image designation flag is not 0 (step S29; NO), the
Thereafter, the recording
また、ステップS27にて、被写体領域の検出が成功しなかったと判定されると(ステップS27;NO)、中央制御部13は、処理をステップS20に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面11aに表示させた後(ステップS20)、被写体切り抜き処理を終了する。
If it is determined in step S27 that the detection of the subject area has not been successful (step S27; NO), the
以上のように、本実施形態の撮像装置100によれば、被写体画像Aと合成すべき合成用背景画像P2が指定されたと判定され、当該合成用背景画像P2が目視可能な状態で背景内に被写体Sが存在する被写体存在画像P1aを撮像することで、この被写体存在画像P1aから被写体Sが含まれる領域の被写体画像Aを抽出して、当該被写体画像Aと指定済みの合成用背景画像P2とを合成して被写体合成画像P6を生成することができる。つまり、被写体存在画像P1aの撮像前に予め合成用背景画像P2を指定しておくだけで、当該合成用背景画像P2と被写体存在画像P1aの被写体画像Aとを合成することができ、ユーザによる所定操作に基づいて一回の撮影動作で被写体合成画像P6の生成を簡便に行うことができる。
As described above, according to the
また、被写体存在画像P1aの撮像の際に、指定済みの合成用背景画像P2の半透過画像P2´を表示部11に表示させるので、ユーザに当該半透過の表示態様で表示されている合成用背景画像P2を視認させた状態で被写体存在画像P1aの撮像を行うことができ、これにより、合成用背景画像P2と被写体Sとの位置関係を考慮して被写体合成画像P6の構図の決定を行うことができる。つまり、被写体存在画像P1aの撮像の際に、当該被写体存在画像P1aの撮像だけでなく、撮像後に生成される被写体合成画像P6の構図の決定も行うことができ、当該被写体合成画像P6の生成をより簡便に行うことができる。
特に、ライブビュー画像として表示される被写体存在画像P1aの背景部分の非平坦度が所定値以下であると判定された場合に、指定済みの合成用背景画像P2を半透過の表示態様で表示部11に表示させるので、ユーザに当該半透過の表示態様で表示されている合成用背景画像P2を適正に視認させることができる。即ち、例えば、特徴量の多い背景をバックに被写体Sを撮影する場合に、半透過の表示態様であっても合成用背景画像P2をライブビュー画像に重ねて表示させると、被写体存在画像P1aにおける被写体Sの背景部分の画素と合成用背景画像P2の画素とが混在してしまい、当該合成用背景画像P2を視認し難くなり被写体合成画像P6の構図の決定が困難となってしまう。一方、例えば、無地で単色の背景のように特徴量の少ない背景をバックにして被写体Sを撮像する際に、合成用背景画像P2を半透過の表示態様でライブビュー画像に重ねて表示させても、被写体存在画像P1aにおける被写体Sの背景側に表示される合成用背景画像P2の視認を適正に行うことができ、被写体合成画像P6の構図の決定を容易に行うことができる。
In addition, since the semi-transparent image P2 ′ of the designated composition background image P2 is displayed on the
In particular, when it is determined that the non-flatness of the background portion of the subject existing image P1a displayed as the live view image is equal to or less than a predetermined value, the designated composition background image P2 is displayed in a translucent display manner. 11, the composition background image P <b> 2 displayed in the semi-transparent display mode can be appropriately viewed by the user. That is, for example, when the subject S is photographed against a background with a large amount of feature, if the composition background image P2 is displayed overlaid on the live view image even in the translucent display mode, the subject existing image P1a is displayed. The background portion pixels of the subject S and the pixels of the composition background image P2 are mixed, making it difficult to visually recognize the composition background image P2 and determining the composition of the subject composition image P6. On the other hand, for example, when the subject S is imaged with a background having a small amount of feature, such as a plain background with a single color, the composite background image P2 is displayed in a semi-transparent display mode so as to be superimposed on the live view image. In addition, the composition background image P2 displayed on the background side of the subject S in the subject presence image P1a can be properly recognized, and the composition of the subject composition image P6 can be easily determined.
さらに、被写体存在画像P1aの撮像の際の被写体Sの画角内における位置を基準として、被写体画像Aと合成用背景画像P2の合成を行うので、生成される被写体合成画像P6内の被写体画像Aの位置が、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における位置と略等しくなるように調整して当該被写体画像Aと合成用背景画像P2とを合成させることができ、被写体合成画像P6の生成をより簡便に行うことができる。即ち、被写体存在画像P1aの撮像の際に被写体Sの画角内における位置を調整しておくだけで、合成用背景画像P2における被写体画像Aの合成位置を自動的に決定することができ、被写体存在画像P1aの撮像後に、合成用背景画像P2と被写体Sとの位置関係を考慮して被写体合成画像P6の構図の決定を行う必要がなくなる。 Further, since the subject image A and the synthesis background image P2 are synthesized based on the position within the angle of view of the subject S when the subject presence image P1a is imaged, the subject image A in the generated subject synthesized image P6 is used. Can be adjusted so that the position of the subject image A is substantially equal to the position within the angle of view of the subject image A when the subject presence image P1a is captured, and the subject image A and the composition background image P2 can be combined. The composite image P6 can be generated more easily. In other words, by simply adjusting the position of the subject S within the angle of view when capturing the subject presence image P1a, the composition position of the subject image A in the composition background image P2 can be automatically determined. There is no need to determine the composition of the subject composite image P6 after taking the presence image P1a in consideration of the positional relationship between the composition background image P2 and the subject S.
また、被写体存在画像P1aの撮像の際の被写体Sの画角内における大きさを基準として、被写体画像Aと合成用背景画像P2の合成を行うので、生成される被写体合成画像P6内の被写体画像Aの大きさが、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における大きさと略等しくなるように調整して当該被写体画像Aと合成用背景画像P2とを合成させることができ、被写体合成画像P6の生成をより簡便に行うことができる。即ち、被写体存在画像P1aの撮像の際に被写体Sの画角内における大きさを調整しておくだけで、合成用背景画像P2における被写体画像Aの合成サイズを自動的に決定することができ、被写体存在画像P1aの撮像後に、合成用背景画像P2と被写体Sとの大小関係を考慮して被写体合成画像P6の構図の決定を行う必要がなくなる。 Further, since the subject image A and the synthesis background image P2 are synthesized based on the size of the subject S within the angle of view when the subject presence image P1a is imaged, the subject image in the generated subject synthesized image P6 is used. The subject image A can be combined with the composition background image P2 by adjusting the size of A so that it is substantially equal to the size of the subject image A within the angle of view when the subject existing image P1a is captured. The subject composite image P6 can be generated more easily. That is, the composite size of the subject image A in the composition background image P2 can be automatically determined simply by adjusting the size of the subject S within the angle of view when capturing the subject existing image P1a. It is not necessary to determine the composition of the subject composite image P6 after taking the subject presence image P1a in consideration of the magnitude relationship between the composition background image P2 and the subject S.
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
以下に、撮像装置100の変形例について説明する。
ここで、撮像装置100の変形例は、以下に詳細に説明する以外の点で上記実施形態の撮像装置100と略同様の構成を成し、その説明は省略する
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
Below, the modification of the
Here, the modified example of the
<変形例1>
変形例1の撮像装置100は、被写体切り抜き処理にて、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定を行わない。即ち、被写体切り抜き処理にあっては、必ずしも被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定処理を行う必要がないことから、変形例1の撮像装置100は、撮像モードを予め特徴量の少ない背景をバックに被写体Sを撮像するモードに設定しておくことで、被写体切り抜き処理にて、当該被写体存在画像P1aの背景部分の非平坦度の判定処理を行わない。
<
The
次に、変形例1の撮像装置100による画像合成方法に係る被写体切り抜き処理について、図9及び図10を参照して説明する。
図9及び図10は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
なお、以下の被写体切り抜き処理にあっては、特徴量の少ない背景をバックに被写体Sを撮像する場合について説明する。
Next, the subject clipping process according to the image composition method performed by the
9 and 10 are flowcharts illustrating an example of operations related to the subject clipping process.
In the following subject clipping process, a case where the subject S is imaged with a background having a small feature amount as a background will be described.
図9に示すように、先ず、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=0を書き込む(ステップS101)。
次に、画像処理部8の背景指定判定部8aは、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から所望の合成用背景画像P2(図6(a)参照)が選択指定されたか否かを判定する(ステップS102)。
ここで、合成用背景画像P2が選択指定されたと判定されると(ステップS102;YES)、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=1を書き込む(ステップS103)。
As shown in FIG. 9, first, the
Next, the background
If it is determined that the composition background image P2 is selected and designated (step S102; YES), the
次に、表示制御部10は、ライブビュー画像に重ねて、合成用背景画像P2の半透過の表示態様の画像(半透過の合成用背景画像P2´)及び撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS104)。
その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS105)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS106)。
Next, the
Thereafter, the
また、ステップS102にて、合成用背景画像P2が選択指定されていないと判定された場合には(ステップS102;NO)、表示制御部10は、ライブビュー画像に重ねて撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させた後(ステップS107)、中央制御部13は、処理をステップS105に移行して、それ以降の処理を行う。
If it is determined in step S102 that the composition background image P2 is not selected and designated (step S102; NO), the
ステップS106にて、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS106;NO)、中央制御部13は、処理をステップS105に移行させて、それ以降の処理を、ステップS106にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS106;YES)、繰り返し実行する。
If it is determined in step S106 that the
この後、ステップS106にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS106;YES)、撮像制御部3は、被写体存在画像P1aの光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS106)。
そして、画像データ生成部4は、電子撮像部2から転送された被写体存在画像P1aの画像フレームに基づいて、被写体存在画像P1aのYUVデータを生成した後、当該YUVデータを画像メモリ5に一時記憶させる。
これにより、特徴量の少ない背景をバックに被写体S(例えば、「犬」等)が撮影された被写体存在画像P1aが生成される。
Thereafter, when it is determined in step S106 that the
Then, the image
As a result, a subject presence image P1a in which the subject S (for example, “dog” or the like) is photographed with a background having a small feature amount is generated.
次に、図10に示すように、中央制御部13は、非平坦度演算部6及び画像処理部8に、被写体存在画像P1aから被写体画像Aを抽出するための抽出用背景画像を生成させる抽出用背景生成処理を行わせる(ステップS109)。
なお、抽出用背景生成処理は、上記実施形態で上述した内容と略同一であり、その詳細な説明は省略する。
Next, as shown in FIG. 10, the
The extraction background generation process is substantially the same as the content described above in the above embodiment, and a detailed description thereof is omitted.
続けて、中央制御部13は、抽出用背景生成部8cに、抽出用背景生成が成功したか否かを判定させる(ステップS110)。
ここで、抽出用背景生成が成功したと判定されると(ステップS110;YES)、中央制御部13は、画像処理部8に、被写体存在画像P1aから被写体Sが含まれる被写体領域を検出する領域検出処理を行わせる(ステップS111)。
なお、領域検出処理は、上記実施形態で上述した内容と略同一であり、その詳細な説明は省略する。
Subsequently, the
Here, if it is determined that the extraction background generation is successful (step S110; YES), the
Note that the area detection process is substantially the same as the contents described above in the above embodiment, and a detailed description thereof will be omitted.
一方、ステップS110にて、抽出用背景生成が成功しなかったと判定されると(ステップS110;NO)、表示制御部10は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体の切り抜きに失敗しました」等)を表示部11の表示画面11aに表示させて(ステップS112)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S110 that the extraction background generation has not succeeded (step S110; NO), the
そして、領域検出処理(ステップS111)の終了後、中央制御部13は、マスク生成部8eに、被写体領域の検出が成功したか否かを判定させる(ステップS113)。
ここで、被写体領域の検出が成功したと判定されると(ステップS113;YES)、中央制御部13は、画像処理部8の切抜画像生成部8fに、クロマキー技術を利用して、領域検出処理にて生成されたマスク画像を用いて被写体存在画像P1aから被写体画像Aを切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成させる(ステップS114)。
Then, after the region detection process (step S111) ends, the
Here, if it is determined that the detection of the subject region has succeeded (step S113; YES), the
その後、中央制御部13は、合成用背景画像指定フラグ=0であるか否かを判定する(ステップS115)。
ここで、合成用背景画像指定フラグ=0であると判定されると(ステップS115;YES)、中央制御部13は、画像処理部8の画像合成部8gに、被写体切り抜き画像P4の被写体画像Aと指定済みの合成用背景画像P2とを合成して被写体合成画像P6(図7(c)参照)の画像データを生成させる(ステップS116)。
Thereafter, the
If it is determined that the composition background image designation flag = 0 (step S115; YES), the
その後、表示制御部10は、画像合成部8gにより生成された被写体合成画像P6の画像データに基づいて、合成用背景画像P2に被写体画像Aが合成された被写体合成画像P6を表示部11の表示画面11aに表示させる(ステップS117;図7(c)参照)。
次に、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体合成画像P6の画像データとを対応付けて、当該被写体合成画像P6の画像データの拡張子を「.jpg」として一ファイルで保存させる(ステップS118)。
これにより、被写体切り抜き処理を終了する。
Thereafter, the
Next, the recording
Thereby, the subject clipping process is completed.
一方、ステップS115にて、合成用背景画像指定フラグ=0でないと判定されると(ステップS115;NO)、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体画像Aが合成された被写体切り抜き画像P4を表示部11の表示画面11aに表示させる(ステップS119)。
その後、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体切り抜き画像P4の画像データとを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させた後(ステップS120)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S115 that the composition background image designation flag is not 0 (step S115; NO), the
Thereafter, the recording
また、ステップS113にて、被写体領域の検出が成功しなかったと判定されると(ステップS113;NO)、中央制御部13は、処理をステップS112に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面11aに表示させた後(ステップS112)、被写体切り抜き処理を終了する。
If it is determined in step S113 that the detection of the subject area has not been successful (step S113; NO), the
従って、変形例1の撮像装置100によれば、被写体切り抜き処理にて、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定を行う必要がないので、当該被写体切り抜き処理をより簡略化することができ、当該撮像装置100の各部に係る処理負担の軽減を図ることができる。
さらに、被写体切り抜き処理の処理速度の高速化を図ることができ、当該被写体切り抜き処理から他の処理に移行するための待機時間などをより短くすることができ、より使い勝手の良い撮像装置100を提供することができる。
Therefore, according to the
Furthermore, it is possible to increase the processing speed of the subject clipping process, to shorten the waiting time for shifting from the subject clipping process to another process, and to provide an
また、上記実施形態にあっては、記録媒体制御部(記録制御手段)9は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データと画像合成部8gにより生成された被写体合成画像P6の画像データとを対応付けて記録媒体9aに記録させても良い。
これによって、被写体Sを同一とする複数の画像ファイルの管理を容易化することができ、より使い勝手の良い撮像装置100を提供することができる。
In the above embodiment, the recording medium control unit (recording control unit) 9 includes the image data of the subject cutout image P4 generated by the cutout
Accordingly, it is possible to facilitate the management of a plurality of image files having the same subject S, and it is possible to provide the
さらに、上記実施形態にあっては、抽出用背景画像の生成の際に、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…の非平坦度の判定処理として、各画像ブロックBの特徴点及びブロック内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の少なくとも一方を判定することで画像ブロックBの非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に抽出用背景画像を生成するようにしても良い。
加えて、ライブビュー画像Pbが表示されている際に、ライブビュー画像Pbの画像フレームの特徴点及びブロック内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の少なくとも一方を判定することで背景画像の非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に背景画像と略同一の背景内に被写体Sが存在する被写体存在画像P1aを撮像するようにしても良い。
Further, in the above-described embodiment, when the background image for extraction is generated, the characteristics of each image block B are used as the determination processing of the non-flatness of the plurality of image blocks B in the peripheral portion of the subject existing image P1a. Although it is determined whether or not both the point and the variation amount of the pixel value in the block are equal to or less than the predetermined value, the present invention is not limited to this, and by determining at least one of the feature point and the variation amount The non-flatness of the image block B may be determined, and the extraction background image may be generated when it is determined that the non-flatness is equal to or less than a predetermined value.
In addition, when the live view image Pb is displayed, it is determined whether or not both the feature point of the image frame of the live view image Pb and the variation amount of the pixel value in the block are equal to or less than a predetermined value. However, the present invention is not limited to this. When the non-flatness of the background image is determined by determining at least one of the feature point and the variation amount, and the non-flatness is determined to be equal to or less than a predetermined value. Alternatively, the subject presence image P1a in which the subject S exists in the substantially same background as the background image may be captured.
また、上記実施形態にあっては、マスク画像データと被写体切り抜き画像P4の画像データを対応付けて一ファイルで保存させるようにしたが、マスク画像データと被写体存在画像P1aの画像データを対応付けて一ファイルで記録媒体(記録手段)9aに保存させるようにしても良い。この場合、当該ファイルの再生には、被写体存在画像P1aを再生させるモードと、再生時にマスク画像データを適用して被写体切り抜き画像P4を合成して表示する2モードを用意しておくとよい。 In the above embodiment, the mask image data and the image data of the subject cutout image P4 are associated with each other and saved as one file. However, the mask image data and the image data of the subject existing image P1a are associated with each other. One file may be stored in the recording medium (recording means) 9a. In this case, for the reproduction of the file, it is preferable to prepare a mode for reproducing the subject existing image P1a and two modes for combining and displaying the subject cutout image P4 by applying the mask image data during reproduction.
なお、上記実施形態にあっては、第1画像として被写体画像を、また、第2画像として合成用背景画像を例示したが、これに限られるものではなく、例えば、第1画像としてフレーム画像を、第2画像として人物の顔画像等を用いても良い。即ち、予め人物の顔画像を指定しておき、所定形状のフレーム画像を切り抜いて生成した後、これら画像どうしを合成するようにしても良い。 In the above embodiment, the subject image is illustrated as the first image, and the background image for synthesis is illustrated as the second image. However, the present invention is not limited to this. For example, a frame image is used as the first image. A human face image or the like may be used as the second image. That is, a person's face image may be designated in advance, a frame image having a predetermined shape may be cut out and generated, and these images may be combined.
また、上記実施形態にあっては、合成用背景画像P2が指定されている場合に、ライブビュー画像に重ねて半透過の合成用背景画像P2を表示するようにしたが、表示方法はこれに限らず、指定された合成用背景画像P2が目視できればよい。例えば、ライブビュー画像上に合成用背景画像P2を表示するための枠を表示し、その中に指定された合成用背景画像P2を表示するようにしても良い。 In the above embodiment, when the synthesis background image P2 is designated, the semi-transparent synthesis background image P2 is displayed over the live view image. Not limited to this, it is only necessary to visually recognize the designated composition background image P2. For example, a frame for displaying the composition background image P2 may be displayed on the live view image, and the designated composition background image P2 may be displayed in the frame.
また、第1画像は、連続する撮像によって得られた連写画像又は動画像のそれぞれのフレームから被写体領域を抽出した被写体画像あり、それら複数の被写体画像毎に合成用背景画像に合成し、複数の合成画像を生成するようにしても良い。
また、第2画像として動画像を用いても良い。即ち、ライブビュー画像に重ねて動画像を再生表示させて、動画像を構成する少なくとも1つのフレーム画像に被写体画像を合成するようにしても良い。
Further, the first image is a subject image obtained by extracting a subject region from each frame of a continuous shot image or a moving image obtained by continuous imaging, and a plurality of subject images are synthesized with a synthesis background image, The composite image may be generated.
A moving image may be used as the second image. That is, a moving image may be reproduced and displayed on the live view image, and the subject image may be combined with at least one frame image constituting the moving image.
さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。
Furthermore, the configuration of the
加えて、上記実施形態にあっては、指定手段、撮像制御手段、被写体抽出手段、合成手段としての機能を、中央制御部13、撮像制御部3、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、指定処理ルーチン、撮像制御処理ルーチン、被写体抽出処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、指定処理ルーチンにより中央制御部13のCPUを、第1画像と合成すべき第2画像を指定する指定手段として機能させるようにしても良い。また、撮像制御処理ルーチンにより中央制御部13のCPUを、第2画像の指定後、当該第2画像が目視可能な状態で被写体存在画像P1aを撮像手段により撮像させる撮像制御手段として機能させるようにしても良い。また、被写体抽出処理ルーチンにより中央制御部13のCPUを、撮像手段により撮像された被写体存在画像P1aから被写体Sが含まれる被写体領域を第1画像として抽出する被写体抽出手段として機能させるようにしても良い。また、合成指定処理ルーチンにより中央制御部13のCPUを、被写体抽出手段により抽出された第1画像と指定手段により指定された第2画像とを合成して合成画像を生成する合成手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the designation unit, the imaging control unit, the subject extraction unit, and the synthesis unit are realized by driving the
That is, a program including a designation processing routine, an imaging control processing routine, a subject extraction processing routine, and a composition processing routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8a 背景指定判定部
8b 非平坦度判定部
8f 切抜画像生成部
8g 画像合成部
9 記録媒体制御部
9a 記録媒体
10 表示制御部
11 表示部
13 中央制御部
DESCRIPTION OF
Claims (9)
被写体を撮像することにより、被写体存在画像を取得する撮像手段と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段と、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記撮像手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段と、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段と、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段と、
を備えたことを特徴とする撮像装置。 Designating means for designating a second image to be combined with the first image;
Imaging means for acquiring a subject presence image by imaging a subject;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining unit determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying unit is transmitted through the subject existing image acquired by the imaging unit. Display control means for displaying an image of the state on the display means;
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
An imaging apparatus comprising:
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記指定手段により指定された前記第2画像を半透過の表示態様で前記表示手段に表示させることを特徴とする請求項1に記載の撮像装置。 The display control means includes
When the non-flatness determining means determines that the non-flatness is less than or equal to a predetermined value, the display means displays the second image specified by the specifying means in a semi-transparent display mode. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記合成手段は、更に、
前記指定判定手段により前記第2画像が指定されたと判定された場合に、前記第1画像と前記第2画像の合成とを合成した合成画像を生成することを特徴とする請求項1又は2に記載の撮像装置。 Further comprising designation determination means for determining whether or not the second image is designated by the designation means;
The synthesis means further includes:
The composite image obtained by combining the first image and the second image is generated when it is determined that the second image is specified by the specification determination unit. The imaging device described.
前記撮像手段による前記被写体存在画像の撮像の際の前記被写体の画角内における位置を基準として、前記第1画像と前記第2画像の合成を行うことを特徴とする請求項1〜3の何れか一項に記載の撮像装置。 The synthesis means further includes:
The first image and the second image are combined based on a position within the angle of view of the subject when the subject-existing image is captured by the imaging unit. The imaging device according to claim 1.
前記撮像手段による前記被写体の撮像の際の前記被写体の画角内における大きさを基準として、前記第1画像と前記第2画像の合成を行うことを特徴とする請求項1〜4の何れか一項に記載の撮像装置。 The synthesis means further includes:
5. The composition of claim 1, wherein the first image and the second image are synthesized based on a size of the subject within an angle of view when the subject is imaged by the imaging unit. The imaging device according to one item.
前記被写体抽出手段は、前記撮像手段により取得された複数の前記被写体存在画像毎に被写体が含まれる被写体領域を抽出し、
前記合成手段は、前記被写体抽出手段によって抽出された被写体領域それぞれを前記第2画像に合成し、複数の合成画像を生成することを特徴とする請求項1〜6の何れか一項に記載の撮像装置。 The imaging means acquires a plurality of the subject presence images by continuously imaging the subject a plurality of times,
The subject extracting means extracts a subject area including a subject for each of the plurality of subject existing images acquired by the imaging means;
The said synthetic | combination means synthesize | combines each object area | region extracted by the said subject extraction means with the said 2nd image , and produces | generates a some synthetic | combination image, It is characterized by the above-mentioned. Imaging device.
第1画像と合成すべき第2画像を指定する処理と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する処理と、
前記非平坦度が所定値以下であると判定された場合に、取得された被写体存在画像に対し、指定された第2画像が透過した状態の画像を表示手段に表示させる処理と、
前記表示手段に画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する処理と、
抽出された前記第1画像と指定された前記第2画像とを合成して合成画像を生成する処理と、
を実行させることを特徴とする画像合成方法。 An image composition method using an imaging device including an acquisition unit that acquires a subject existing image in which a subject is present in a background,
A process for designating a second image to be combined with the first image;
A process of determining whether or not the non-flatness of the background portion of the subject existing image is a predetermined value or less;
When the non-flatness is determined to be less than or equal to a predetermined value, a process for displaying on the display means an image in which the designated second image is transmitted with respect to the acquired subject existing image;
When a predetermined instruction is detected while an image is displayed on the display means, a process for extracting a subject area including a subject from the subject existing image as the first image;
A process of generating a composite image by combining the extracted first image and the designated second image;
An image composition method characterized by causing
第1画像と合成すべき第2画像を指定する指定手段、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記取得手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段、
として機能させることを特徴とするプログラム。 A computer of an imaging apparatus including an acquisition unit that acquires a subject presence image in which a subject is present in the background,
Designating means for designating a second image to be synthesized with the first image;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining means determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying means is transmitted through the subject existing image acquired by the acquiring means. Display control means for displaying an image of the state on the display means,
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009294330A JP5493839B2 (en) | 2009-12-25 | 2009-12-25 | Imaging apparatus, image composition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009294330A JP5493839B2 (en) | 2009-12-25 | 2009-12-25 | Imaging apparatus, image composition method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011135437A JP2011135437A (en) | 2011-07-07 |
JP2011135437A5 JP2011135437A5 (en) | 2013-02-14 |
JP5493839B2 true JP5493839B2 (en) | 2014-05-14 |
Family
ID=44347672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009294330A Expired - Fee Related JP5493839B2 (en) | 2009-12-25 | 2009-12-25 | Imaging apparatus, image composition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5493839B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6423612B2 (en) * | 2014-04-28 | 2018-11-14 | オリンパス株式会社 | Information device, image processing method, and program |
JP7256719B2 (en) * | 2019-09-13 | 2023-04-12 | 富士フイルム株式会社 | Image processing device, imaging device, image processing method, and image processing program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001197345A (en) * | 2000-01-11 | 2001-07-19 | Fuji Photo Film Co Ltd | Digital camera, its picture display method and computer- readable recording medium |
JP2003189160A (en) * | 2001-12-13 | 2003-07-04 | Fuji Photo Film Co Ltd | Digital camera |
-
2009
- 2009-12-25 JP JP2009294330A patent/JP5493839B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011135437A (en) | 2011-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4760973B2 (en) | Imaging apparatus and image processing method | |
JP5051156B2 (en) | Image processing apparatus and program | |
JP5105550B2 (en) | Image composition apparatus and program | |
JP4798236B2 (en) | Imaging apparatus, image processing method, and program | |
JP4947136B2 (en) | Image processing apparatus, image processing method, and program | |
JP5359856B2 (en) | Image composition apparatus, image composition method, and program | |
JP2010088105A (en) | Imaging apparatus and method, and program | |
JP5504990B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP5267279B2 (en) | Image composition apparatus and program | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP5131399B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013149285A (en) | Imaging apparatus and method, and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011182014A (en) | Image pickup device, image processing method and program | |
JP5565227B2 (en) | Image processing apparatus, image processing method, and program | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP5206421B2 (en) | Digital camera, photographing recording method, and photographing control program | |
JP5310361B2 (en) | Imaging apparatus, image processing method, and program | |
JP5402361B2 (en) | Imaging apparatus, image processing method, and program | |
JP5381207B2 (en) | Image composition apparatus and program | |
JP4803319B2 (en) | Imaging apparatus, image processing method, and program | |
JP2011175663A (en) | Imaging device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121219 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20121219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5493839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |