Nothing Special   »   [go: up one dir, main page]

JP5493839B2 - Imaging apparatus, image composition method, and program - Google Patents

Imaging apparatus, image composition method, and program Download PDF

Info

Publication number
JP5493839B2
JP5493839B2 JP2009294330A JP2009294330A JP5493839B2 JP 5493839 B2 JP5493839 B2 JP 5493839B2 JP 2009294330 A JP2009294330 A JP 2009294330A JP 2009294330 A JP2009294330 A JP 2009294330A JP 5493839 B2 JP5493839 B2 JP 5493839B2
Authority
JP
Japan
Prior art keywords
image
subject
unit
imaging
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009294330A
Other languages
Japanese (ja)
Other versions
JP2011135437A5 (en
JP2011135437A (en
Inventor
浩良 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009294330A priority Critical patent/JP5493839B2/en
Publication of JP2011135437A publication Critical patent/JP2011135437A/en
Publication of JP2011135437A5 publication Critical patent/JP2011135437A5/ja
Application granted granted Critical
Publication of JP5493839B2 publication Critical patent/JP5493839B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、複数の画像を合成する撮像装置、画像合成方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an image synthesis method, and a program for synthesizing a plurality of images.

従来、被写体画像と背景画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。   Conventionally, a technique for generating a composite image by combining a subject image with a background image or a frame image is known (see, for example, Patent Document 1).

特開2004−159158号公報JP 2004-159158 A

しかしながら、合成画像を生成するためには、合成に係る背景画像及び被写体画像の選択や、背景画像に対する被写体画像の合成位置及びサイズ等の指定を行わなければならず、その作業が煩わしいといった問題がある。   However, in order to generate a composite image, it is necessary to select a background image and a subject image for composition, and to specify a composite position and size of the subject image with respect to the background image, which is troublesome. is there.

そこで、本発明の課題は、合成画像の生成を簡便に行うことができる撮像装置、画像合成方法及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an imaging apparatus, an image composition method, and a program that can easily generate a composite image.

上記課題を解決するため、請求項1に記載の発明の撮像装置は、
第1画像と合成すべき第2画像を指定する指定手段と、
被写体を撮像することにより、被写体存在画像を取得する撮像手段と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段と、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記撮像手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段と、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段と、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段と、
を備えたことを特徴としている。
In order to solve the above problem, an imaging apparatus according to claim 1 is provided.
Designating means for designating a second image to be combined with the first image;
Imaging means for acquiring a subject presence image by imaging a subject;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining unit determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying unit is transmitted through the subject existing image acquired by the imaging unit. Display control means for displaying an image of the state on the display means;
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
It is characterized by having.

請求項2に記載の発明は、請求項1に記載の撮像装置において、
前記表示制御手段は、前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記指定手段により指定された前記第2画像を半透過の表示態様で前記表示手段に表示させることを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
The display control unit displays the second image designated by the designation unit in a semi-transparent display mode when the non-flatness judgment unit judges that the non-flatness is a predetermined value or less. It is characterized by being displayed on the means.

請求項に記載の発明は、請求項1又は2に記載の撮像装置において、
前記指定手段により前記第2画像が指定されたか否かを判定する指定判定手段を更に備え、前記合成手段は、更に、前記指定判定手段により前記第2画像が指定されたと判定された場合に、前記第1画像と前記第2画像とを合成した合成画像を生成することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 1 or 2 ,
It further comprises designation determination means for determining whether or not the second image has been designated by the designation means, and the combining means further comprises a step of determining that the second image has been designated by the designation determination means. A composite image obtained by combining the first image and the second image is generated.

請求項に記載の発明は、請求項1〜の何れか一項に記載の撮像装置において、
前記合成手段は、更に、前記撮像手段による前記被写体存在画像の撮像の際の前記被写体の画角内における位置を基準として、前記第1画像と前記第2画像の合成を行うことを特徴としている。
Invention of Claim 4 is an imaging device as described in any one of Claims 1-3 ,
The synthesizing unit further synthesizes the first image and the second image with reference to a position within the angle of view of the subject when the subject-existing image is captured by the imaging unit. .

請求項に記載の発明は、請求項1〜の何れか一項に記載の撮像装置において、
前記合成手段は、更に、前記撮像手段による前記被写体存在画像の撮像の際の前記被写体の画角内における大きさを基準として、前記第1画像と前記第2画像の合成を行うことを特徴としている。
Invention of Claim 5 is an imaging device as described in any one of Claims 1-4 ,
The synthesizing unit further synthesizes the first image and the second image on the basis of a size within the angle of view of the subject when the subject-existing image is captured by the imaging unit. Yes.

請求項に記載の発明は、請求項1〜の何れか一項に記載の撮像装置において、
前記被写体抽出手段により抽出された前記被写体領域と前記合成手段により生成された前記合成画像とを対応づけて記録手段に記録させる記録制御手段を更に備えることを特徴としている。
Invention of Claim 6 is an imaging device as described in any one of Claims 1-5 ,
The image processing apparatus further includes recording control means for causing the recording means to record the subject area extracted by the subject extracting means and the synthesized image generated by the synthesizing means in association with each other.

請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、
前記撮像手段は、前記被写体を連続して複数回撮像することにより、複数の前記被写体存在画像を取得し、
前記被写体抽出手段は、前記撮像手段により取得された複数の前記被写体存在画像毎に被写体が含まれる被写体領域を抽出し、
前記合成手段は、前記被写体抽出手段によって抽出された被写体領域それぞれを前記第2画像に合成し、複数の合成画像を生成することを特徴としている。
The invention according to claim 7 is the imaging apparatus according to any one of claims 1 to 6,
The imaging means acquires a plurality of the subject presence images by continuously imaging the subject a plurality of times,
The subject extracting means extracts a subject area including a subject for each of the plurality of subject existing images acquired by the imaging means;
The synthesizing unit synthesizes each of the subject areas extracted by the subject extracting unit with the second image to generate a plurality of synthesized images.

請求項8に記載の発明の画像合成方法は、
背景内に被写体が存在する被写体存在画像を取得する取得手段を備える撮像装置を用いた画像合成方法であって、
第1画像と合成すべき第2画像を指定する処理と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する処理と、
前記非平坦度が所定値以下であると判定された場合に、取得された被写体存在画像に対し、指定された第2画像が透過した状態の画像を表示手段に表示させる処理と、
前記表示手段に画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する処理と、
抽出された前記第1画像と指定された前記第2画像とを合成して合成画像を生成する処理と、
を実行させることを特徴としている。
An image composition method according to an eighth aspect of the present invention includes:
An image composition method using an imaging device including an acquisition unit that acquires a subject existing image in which a subject is present in a background,
A process for designating a second image to be combined with the first image;
A process of determining whether or not the non-flatness of the background portion of the subject existing image is a predetermined value or less;
When the non-flatness is determined to be less than or equal to a predetermined value, a process for displaying on the display means an image in which the designated second image is transmitted with respect to the acquired subject existing image;
When a predetermined instruction is detected while an image is displayed on the display means, a process for extracting a subject area including a subject from the subject existing image as the first image;
A process of generating a composite image by combining the extracted first image and the designated second image;
It is characterized by executing.

請求項9に記載の発明のプログラムは、
背景内に被写体が存在する被写体存在画像を取得する取得手段を備える撮像装置のコンピュータを、
第1画像と合成すべき第2画像を指定する指定手段、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記取得手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段、
として機能させることを特徴としている。
The program of the invention according to claim 9 is:
A computer of an imaging apparatus including an acquisition unit that acquires a subject presence image in which a subject is present in the background,
Designating means for designating a second image to be synthesized with the first image;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining means determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying means is transmitted through the subject existing image acquired by the acquiring means. Display control means for displaying an image of the state on the display means,
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
It is characterized by making it function as.

本発明によれば、一回の撮影動作で合成画像の生成を簡便に行うことができる。   According to the present invention, a composite image can be easily generated by a single photographing operation.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to subject clipping processing by the imaging apparatus of FIG. 1. 図2の被写体切り抜き処理の続きを示すフローチャートである。FIG. 3 is a flowchart showing a continuation of the subject clipping process in FIG. 2. FIG. 図2の被写体切り抜き処理における抽出用背景生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an extraction background generation process in the subject clipping process of FIG. 2. 図2の被写体切り抜き処理における領域検出処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an area detection process in the subject clipping process of FIG. 2. 図2の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 図2の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 図2の被写体切り抜き処理を説明するための画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image for demonstrating the object clipping process of FIG. 変形例1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation related to a subject clipping process performed by the imaging apparatus according to the first modification. 図9の被写体切り抜き処理の続きを示すフローチャートである。10 is a flowchart showing a continuation of the subject clipping process in FIG. 9.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の撮像装置100は、被写体画像A(図7(b)参照)と合成すべき合成用背景画像P2(図6(a)参照)を指定した後、背景内に被写体Sが存在する被写体存在画像(例えば、被写体存在画像P1a;図6(c)参照))を撮像し、当該被写体存在画像から被写体Sが含まれる領域の被写体画像Aを抽出して、抽出された被写体画像Aと指定された合成用背景画像P2とを合成して被写体合成画像P6(図7(c)参照)を生成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、非平坦度演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体制御部9と、表示制御部10と、表示部11と、操作入力部12と、中央制御部13とを備えている。
また、撮像制御部3と、非平坦度演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13は、例えば、カスタムLSI1Aとして設計されている。
In the imaging apparatus 100 according to the present embodiment, the subject S exists in the background after specifying the composition background image P2 (see FIG. 6A) to be combined with the subject image A (see FIG. 7B). A subject existing image (for example, a subject existing image P1a; see FIG. 6C)) is captured, and a subject image A in a region including the subject S is extracted from the subject existing image, and the extracted subject image A and The subject composition image P6 (see FIG. 7C) is generated by compositing with the designated composition background image P2.
Specifically, as illustrated in FIG. 1, the imaging apparatus 100 includes a lens unit 1, an electronic imaging unit 2, an imaging control unit 3, an image data generation unit 4, an image memory 5, and a non-flatness calculation. A unit 6, a block matching unit 7, an image processing unit 8, a recording medium control unit 9, a display control unit 10, a display unit 11, an operation input unit 12, and a central control unit 13 are provided.
Further, the imaging control unit 3, the non-flatness calculation unit 6, the block matching unit 7, the image processing unit 8, and the central control unit 13 are designed as a custom LSI 1A, for example.

レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体Sの撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The lens unit 1 includes a plurality of lenses and includes a zoom lens, a focus lens, and the like.
Although not shown, the lens unit 1 includes a zoom drive unit that moves the zoom lens in the optical axis direction when the subject S is imaged, a focus drive unit that moves the focus lens in the optical axis direction, and the like. May be.

電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the lens unit 1 into a two-dimensional image signal. To do.

撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体Sの撮像条件の調整制御を行う。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image data generation unit 4.
In addition, the imaging control unit 3 performs adjustment control of imaging conditions of the subject S such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

また、撮像モードとして被写体切り抜きモード(後述)が設定されている場合に、ユーザによるシャッタボタン12aの撮像指示操作に基づいて、撮像制御部3は、レンズ部1を通過した背景内に被写体Sが存在する被写体存在画像P1a(図6(c)参照)の光学像を所定の撮像条件で電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から被写体存在画像P1aに係る画像フレームを読み出させる。
ここで、レンズ部1、電子撮像部2及び撮像制御部3は、背景内に被写体Sが存在する被写体存在画像P1aを撮像する撮像手段を構成している。
Further, when the subject clipping mode (described later) is set as the imaging mode, the imaging control unit 3 sets the subject S in the background that has passed through the lens unit 1 based on the imaging instruction operation of the shutter button 12a by the user. An optical image of the existing subject presence image P1a (see FIG. 6C) is converted into a two-dimensional image signal by the electronic imaging unit 2 under a predetermined imaging condition, and the subject presence image P1a is converted from the imaging region of the electronic imaging unit 2. The image frame concerning is read.
Here, the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 constitute an imaging unit that captures the subject existing image P <b> 1 a in which the subject S exists in the background.

画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image data generation unit 4 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the electronic imaging unit 2, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an image memory 5 used as a buffer memory via a DMA controller (not shown).

なお、A/D変換後のデジタルデータを現像するデモザイク部(図示略)が、カスタムLSI1Aに実装されていても良い。   A demosaic unit (not shown) for developing the digital data after A / D conversion may be mounted on the custom LSI 1A.

画像メモリ5は、例えば、DRAM等により構成され、非平坦度演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13等によって処理されるデータ等を一時記憶する。   The image memory 5 is composed of, for example, a DRAM or the like, and temporarily stores data processed by the non-flatness calculation unit 6, the block matching unit 7, the image processing unit 8, the central control unit 13, and the like.

非平坦度演算部6は、ライブビュー画像表示用の画像フレームとして生成された背景画像Pbや、被写体存在画像P1aの非平坦度を演算する。具体的には、非平坦度演算部6は、分割部6aと、特徴量演算部6bと、ばらつき量算出部6cとを具備している。   The non-flatness calculation unit 6 calculates the non-flatness of the background image Pb generated as an image frame for live view image display and the subject presence image P1a. Specifically, the non-flatness calculation unit 6 includes a division unit 6a, a feature amount calculation unit 6b, and a variation amount calculation unit 6c.

分割部6aは、抽出用背景生成処理にて、被写体存在画像P1aのYUVデータに基づいて、当該被写体存在画像P1aの周縁部分(図7(a)参照)を複数の画像ブロックB、…に分割する。   In the extraction background generation process, the dividing unit 6a divides the peripheral portion (see FIG. 7A) of the subject existing image P1a into a plurality of image blocks B,... Based on the YUV data of the subject existing image P1a. To do.

特徴量演算部6bは、背景画像Pbや、被写体存在画像P1aから特徴点を抽出する特徴抽出処理を行う。
即ち、特徴量演算部6bは、ライブビュー画像表示用の画像フレームとして生成された背景画像PbのYUVデータに基づいて、高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出する。
また、特徴量演算部6bは、抽出用背景生成処理にて、分割部6aにより分割された被写体存在画像P1aの各画像ブロックBの特徴点を抽出する。具体的には、特徴量演算部6bは、各画像ブロックBの高周波成分の多い特徴の高いブロック領域(例えば、16×16画素の正方形)を特徴点として抽出する。
The feature amount calculation unit 6b performs feature extraction processing for extracting feature points from the background image Pb and the subject presence image P1a.
That is, the feature amount calculation unit 6b has a block region with a high feature with high frequency components (for example, a square of 16 × 16 pixels) based on the YUV data of the background image Pb generated as an image frame for live view image display. Are extracted as feature points.
Further, the feature amount calculation unit 6b extracts the feature points of each image block B of the subject existing image P1a divided by the dividing unit 6a in the extraction background generation processing. Specifically, the feature amount calculation unit 6b extracts, as feature points, a block region (for example, a square of 16 × 16 pixels) having a high feature with a high frequency component of each image block B.

また、特徴量演算部6bは、被写体存在画像P1b(図8(a)参照)と被写体非存在画像P3との位置合わせ処理にて、被写体非存在画像P3を基準として、当該被写体非存在画像P3から特徴点を抽出する処理を行う。具体的には、特徴量演算部6bは、被写体非存在画像P3のYUVデータに基づいて、多数の候補ブロックから追跡に都合の良い所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロック領域の内容をテンプレート(例えば、16×16画素の正方形)として抽出する。   In addition, the feature amount calculation unit 6b performs the alignment process between the subject presence image P1b (see FIG. 8A) and the subject non-existence image P3, and uses the subject non-existence image P3 as a reference. The process which extracts the feature point from is performed. Specifically, the feature quantity calculation unit 6b is based on the YUV data of the subject non-existing image P3, and has a predetermined number (or more than a predetermined number) of high feature block regions (or more than a predetermined number) that are convenient for tracking from a large number of candidate blocks. The feature point is selected, and the contents of the block area are extracted as a template (for example, a square of 16 × 16 pixels).

ばらつき量算出部6cは、ブロック領域内の画素値のばらつき量を算出する。
即ち、ばらつき量算出部6cは、ライブビュー画像表示用の画像フレームとして生成された背景画像Pbの各ブロック領域内のばらつき量として、標準偏差を下記式(1)に従って算出する。
また、ばらつき量算出部6cは、抽出用背景生成処理にて、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…の各々についてのばらつき量として、標準偏差を下記式(1)に従って算出する。

Figure 0005493839
なお、上記式(1)において、b:各ブロック領域の画素値としては、例えば、輝度値が挙げられる。 The variation amount calculation unit 6c calculates the variation amount of the pixel value in the block area.
In other words, the variation amount calculation unit 6c calculates the standard deviation according to the following equation (1) as the variation amount in each block region of the background image Pb generated as the image frame for displaying the live view image.
Further, the variation amount calculation unit 6c calculates a standard deviation according to the following equation (1) as a variation amount for each of the plurality of image blocks B,... In the peripheral portion of the subject existing image P1a in the extraction background generation processing. To do.
Figure 0005493839
In the above formula (1), b: a pixel value of each block area includes, for example, a luminance value.

このように、特徴量演算部6bは、被写体存在画像P1aの周縁部分の特徴点や背景画像Pbの特徴点を非平坦度として抽出する。また、ばらつき量算出部6cは、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…内の画素値のばらつき量や、背景画像の複数のブロック領域内のばらつき量を非平坦度として演算する。   As described above, the feature amount calculation unit 6b extracts the feature points of the peripheral portion of the subject existing image P1a and the feature points of the background image Pb as the non-flatness. Further, the variation amount calculation unit 6c calculates the variation amount of the pixel values in the plurality of image blocks B,... In the peripheral portion of the subject existing image P1a and the variation amount in the plurality of block regions of the background image as non-flatness. To do.

ブロックマッチング部7は、被写体非存在画像(基準画像)P3と被写体存在画像(対象画像)P1bの位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1b内のどこに対応するか、つまり、被写体存在画像P1b内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P3と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。   The block matching unit 7 performs block matching processing for aligning the subject non-existing image (reference image) P3 and the subject existing image (target image) P1b. Specifically, the block matching unit 7 optimally matches where the template extracted in the feature extraction process corresponds to in the subject existing image P1b, that is, the template pixel value in the subject existing image P1b. Search for a position (corresponding region). Then, the optimum offset between the subject non-existing image P3 and the subject existing image P1b having the best evaluation value (for example, sum of squared differences (SSD), sum of absolute differences (SAD), etc.) Calculated as a template motion vector.

画像処理部8は、背景指定判定部8aと、非平坦度判定部8bと、抽出用背景生成部8cと、位置合わせ部8dと、マスク生成部8eと、切抜画像生成部8fと、画像合成部8gとを具備している。   The image processing unit 8 includes a background designation determination unit 8a, a non-flatness determination unit 8b, an extraction background generation unit 8c, an alignment unit 8d, a mask generation unit 8e, a cutout image generation unit 8f, and an image composition 8g.

背景指定判定部8aは、被写体切り抜き処理にて、合成用背景画像P2が指定されたか否かを判定する。即ち、背景指定判定部8aは、例えば、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から所望の合成用背景画像P2が中央制御部13により指定されたか否かを判定する。
ここで、背景指定判定部8aは、中央制御部(指定手段)13により合成用背景画像P2が指定されたか否かを判定する指定判定手段を構成している。
The background designation determination unit 8a determines whether or not the composition background image P2 is designated in the subject clipping process. That is, the background designation determination unit 8a selects a desired composition background image P2 from the plurality of images recorded on the recording medium 9a based on a predetermined operation of the operation input unit 12 by the user, for example. It is determined whether or not specified by.
Here, the background designation determination unit 8a constitutes a designation determination unit that determines whether or not the composition background image P2 has been designated by the central control unit (designation unit) 13.

非平坦度判定部8bは、非平坦度演算処理にて演算された非平坦度が所定値以下であるか否の判定を行う。
具体的には、非平坦度判定部8bは、ライブビュー画像表示用の画像フレームとして生成され、被写体存在画像P1aの背景部分を構成する背景画像Pbの特徴点(特徴の高いブロック領域)が所定値以下であるか否かを判定する。また、非平坦度判定部8bは、背景画像Pbのブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定する。
即ち、背景画像Pbと略等しい画角内に被写体Sが配置されることで被写体存在画像P1aが構成されるようになっていることから、当該被写体存在画像P1aの被写体Sと重なっていない背景部分の画素値(例えば、輝度値)は、背景画像Pbの画素値と略等しくなっている。そして、非平坦度判定部8bは、背景画像Pbの非平坦度が所定値以下であるか否の判定を行うことにより、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段を構成している。
The non-flatness determination unit 8b determines whether or not the non-flatness calculated in the non-flatness calculation process is equal to or less than a predetermined value.
Specifically, the non-flatness determination unit 8b is generated as an image frame for displaying a live view image, and a feature point (a block region having a high feature) of the background image Pb constituting the background portion of the subject existing image P1a is predetermined. It is determined whether or not it is less than or equal to the value. Further, the non-flatness determination unit 8b determines whether or not the variation amount of the pixel value in the block region of the background image Pb is equal to or less than a predetermined value.
That is, since the subject existing image P1a is configured by arranging the subject S within the same angle of view as the background image Pb, the background portion that does not overlap the subject S of the subject existing image P1a. Is substantially equal to the pixel value of the background image Pb. Then, the non-flatness determining unit 8b determines whether or not the non-flatness of the background image P1a is equal to or less than a predetermined value by determining whether or not the non-flatness of the background image Pb is equal to or less than a predetermined value. Non-flatness determining means for determining whether or not is configured.

また、非平坦度判定部8bは、抽出用背景生成処理にて、特徴量演算部6bによって被写体存在画像P1aの周縁部分の複数の画像ブロックB、…について抽出された特徴点が所定値以下であるか否か(被写体存在画像P1aの周縁部分の特徴量が多いか否か)を判定する。また、非平坦度判定部8bは、ばらつき量算出部6cにより算出された各画像ブロックBのばらつき量が所定値以下であるか否かを判定する。
さらに、非平坦度判定部8bは、特徴点が所定値以下であり、且つ、ブロック領域内の画素値のばらつき量が所定値以下であると判定された画像ブロックBを計数して、画像ブロックBが複数あるか否かを判定する。
In addition, the non-flatness determination unit 8b has the feature points extracted by the feature amount calculation unit 6b for the plurality of image blocks B,... It is determined whether or not there is (whether or not the feature amount of the peripheral portion of the subject existing image P1a is large). Further, the non-flatness determination unit 8b determines whether or not the variation amount of each image block B calculated by the variation amount calculation unit 6c is equal to or less than a predetermined value.
Further, the non-flatness determination unit 8b counts the image blocks B in which the feature points are determined to be equal to or smaller than a predetermined value and the variation amount of the pixel values in the block area is equal to or smaller than the predetermined value, It is determined whether or not there are a plurality of Bs.

なお、非平坦度判定部8bは、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定にて、上記したように、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…についての非平坦度の判定手法を適用しても良い。   Note that, as described above, the non-flatness determination unit 8b determines whether or not the non-flatness of the background portion of the subject existing image P1a is equal to or less than a predetermined value, as described above. A non-flatness determination method for the image blocks B,... May be applied.

抽出用背景生成部8cは、クロマキー技術を利用して被写体画像Aを抽出するための抽出用背景画像(図示略)を生成する。
具体的には、抽出用背景生成部8cは、非平坦度判定部8bによって、被写体存在画像P1aの周縁部分の特徴点が所定値以下であり、且つ、ブロック領域内の画素値のばらつき量が所定値以下である画像ブロックB、即ち、特徴量の少ない画像ブロックBが複数あると判定された場合に、当該画像ブロックBの色と同じ色を背景色とする抽出用背景画像を生成する。例えば、図6(b)に示すように、特徴量の少ない無地の背景をバックに被写体Sを撮影した場合には、被写体存在画像P1aの周縁部分の特徴量が少なくなり、当該被写体存在画像P1aの周縁部分と同じ色の抽出用背景画像を生成する。
なお、クロマキーとは、特定の色背景を用いて一の画像データから被写体Sを切り抜く手法である。クロマキーでは、通常、背景に被写体Sと補色の関係にある青や緑のスクリーンを用いるようになっており、被写体存在画像P1aの周縁部分と同じ色の抽出用背景画像を生成することで、抽出用背景画像と被写体存在画像P1aの色情報を基にして背景部分と被写体部分を分離することができる。
The extraction background generation unit 8c generates an extraction background image (not shown) for extracting the subject image A using the chroma key technique.
Specifically, in the extraction background generation unit 8c, the non-flatness determination unit 8b causes the feature point of the peripheral portion of the subject existing image P1a to be equal to or less than a predetermined value, and the variation amount of the pixel value in the block region is When it is determined that there are a plurality of image blocks B that are equal to or smaller than the predetermined value, that is, image blocks B with a small amount of feature, an extraction background image having the same color as the color of the image block B is generated. For example, as shown in FIG. 6B, when the subject S is photographed against a plain background with a small feature amount, the feature amount of the peripheral portion of the subject presence image P1a decreases, and the subject presence image P1a A background image for extraction having the same color as that of the peripheral edge portion is generated.
Note that the chroma key is a method of cutting out the subject S from one image data using a specific color background. In the chroma key, normally, a blue or green screen having a complementary color relationship with the subject S is used as the background, and extraction is performed by generating an extraction background image having the same color as the peripheral portion of the subject existing image P1a. The background portion and the subject portion can be separated based on the color information of the background image for the subject and the subject existing image P1a.

位置合わせ部8dは、被写体非存在画像P3から抽出した特徴点に基づいて、被写体存在画像P1bと被写体非存在画像P3との位置合わせを行う。
即ち、位置合わせ部8dは、被写体非存在画像P3から抽出した特徴点に基づいて、被写体非存在画像P3に対する被写体存在画像P1bの各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1bを座標変換して被写体非存在画像P3と位置合わせを行う。
具体的には、位置合わせ部8dは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルを多数決により演算して、統計的に所定%(例えば、50%)以上となると判断された動きベクトルを全体の動きベクトルとして、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出する。そして、位置合わせ部8dは、射影変換行列に従って被写体存在画像P1bを座標変換して被写体非存在画像P3と位置合わせを行う。
The alignment unit 8d performs alignment between the subject existence image P1b and the subject absence image P3 based on the feature points extracted from the subject absence image P3.
That is, the alignment unit 8d calculates a coordinate conversion formula (projection conversion matrix) of each pixel of the subject existing image P1b with respect to the subject nonexistent image P3 based on the feature points extracted from the subject nonexistent image P3, and the coordinates. The subject presence image P1b is coordinate-transformed according to the conversion formula and aligned with the subject non-existence image P3.
Specifically, the positioning unit 8d calculates the motion vectors of a plurality of templates calculated by the block matching unit 7 by majority, and the motion determined to be statistically greater than or equal to a predetermined percentage (for example, 50%). Using the vector as the overall motion vector, the projection transformation matrix of the subject existing image P1b is calculated using the feature point correspondence related to the motion vector. Then, the alignment unit 8d performs coordinate conversion of the subject existing image P1b according to the projective transformation matrix and performs alignment with the subject non-existing image P3.

マスク生成部8eは、被写体存在画像P1a(P1b)から被写体画像Aを抽出するためのマスク画像を生成する。
即ち、マスク生成部8eは、背景となる画像(抽出用背景画像(図示略)や被写体非存在画像P3)と被写体存在画像P1a(P1b)の対応する各画素の相違度Dを下記式(2)に従って算出して相違度マップを生成する。

Figure 0005493839
なお、上記式にあっては、背景となる画像のYUVデータを「Y」、「U」、「V」で表し、被写体存在画像P1aのYUVデータを「Yc」、「Uc」、「Vc」で表す。また、Gは、色差信号U、Vのゲインを表している。
そして、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化(0、255)してマスク画像を生成する。 The mask generation unit 8e generates a mask image for extracting the subject image A from the subject presence image P1a (P1b).
That is, the mask generation unit 8e calculates the difference D between the corresponding pixels of the background image (extraction background image (not shown) or the subject non-existing image P3) and the subject existing image P1a (P1b) by the following equation (2). ) To generate a dissimilarity map.
Figure 0005493839
In the above formula, the YUV data of the background image is represented by “Y”, “U”, “V”, and the YUV data of the subject existing image P1a is “Yc”, “Uc”, “Vc”. Represented by G represents the gain of the color difference signals U and V.
Then, the mask generation unit 8e generates a mask image by binarizing (0, 255) the generated difference map with a predetermined threshold.

また、マスク生成部8eは、細かいノイズを除去するための収縮処理を行って所定値よりも小さい画素集合を除いた後、収縮分を修正するための膨張処理を行い、その後、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めも行う。さらに、マスク生成部8eは、領域情報に対して平均化フィルタをかけて領域の縁部に合成階調をつける。   Further, the mask generation unit 8e performs a contraction process for removing fine noise to remove a pixel set smaller than a predetermined value, and then performs a expansion process for correcting the contraction. By performing a labeling process for assigning the same numbers to the pixel sets to be configured, a hole area is also filled by replacing an area having a predetermined ratio or less in the number of constituent pixels of the effective area with the effective area. Further, the mask generation unit 8e applies an averaging filter to the region information to add a composite gradation to the edge of the region.

切抜画像生成部8fは、被写体Sの画像を所定の単一色背景画像P5と合成して被写体切り抜き画像P4の画像データを生成する。
即ち、切抜画像生成部8fは、クロマキー技術を利用して、マスク生成部8eにより生成されたマスク画像を用いて被写体存在画像P1a(P1b)から被写体画像Aを切り出して、単一色背景画像P5と合成して被写体切り抜き画像P4の画像データを生成する。
なお、マスク画像の縁部分には、合成階調がつけられているため、切り出された被写体画像Aと単一色背景画像P5との境界部分がはっきりしていない自然な感じに合成することができる。
ここで、切抜画像生成部8fは、被写体存在画像P1a(P1b)から被写体Sが含まれる被写体領域(被写体画像A)を抽出する被写体抽出手段を構成している。
The cut-out image generation unit 8f combines the image of the subject S with a predetermined single color background image P5 to generate image data of the subject cut-out image P4.
That is, the cut-out image generation unit 8f uses the chroma key technique to cut out the subject image A from the subject presence image P1a (P1b) using the mask image generated by the mask generation unit 8e, and the single color background image P5. The image data of the subject cutout image P4 is generated by combining.
In addition, since the synthetic gradation is given to the edge part of the mask image, it can be synthesized in a natural feeling in which the boundary part between the clipped subject image A and the single color background image P5 is not clear. .
Here, the cut-out image generation unit 8f constitutes a subject extraction unit that extracts a subject region (subject image A) including the subject S from the subject presence image P1a (P1b).

画像合成部8gは、被写体切り抜き画像P4の被写体画像A(第1画像)と合成用背景画像P2(第2画像)とを合成して被写体合成画像P6を生成する。
具体的には、画像合成部8gは、合成用背景画像P2の各画素のうち、マスク画像の画像データの被写体S以外の部分で覆われる画素については、何もせずに透過させる一方で、被写体部分の画素については、被写体切り抜き画像P4の被写体画像Aの対応する画素の画素値で上書きする。
The image composition unit 8g composes the subject image A (first image) of the subject cutout image P4 and the composition background image P2 (second image) to generate a subject composition image P6.
Specifically, the image composition unit 8g allows the pixels covered by the portions other than the subject S of the image data of the mask image among the pixels of the composition background image P2 to pass through without doing anything while The partial pixel is overwritten with the pixel value of the corresponding pixel in the subject image A of the subject cutout image P4.

また、画像合成部8gは、被写体切り抜き処理にて、背景指定判定部8aにより合成用背景画像P2が指定されたと判定された場合には、当該指定済みの合成用背景画像P2と被写体切り抜き画像P4の被写体画像Aの合成を行う。このとき、画像合成部8gは、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における位置及び大きさを基準として、当該被写体画像Aと合成用背景画像P2とを合成する。具体的には、画像合成部8gは、例えば、生成される被写体合成画像P6内の被写体画像Aの位置(即ち、被写体画像Aの中心位置)及び大きさ(即ち、被写体合成画像P6に対する被写体画像Aの構成画素数の比率)が、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における位置及び大きさと略等しくなるように調整して、当該被写体画像Aと合成用背景画像P2とを合成させる。
一方、被写体切り抜き処理にて、合成用背景画像P2が指定されていないと判定された場合には、画像合成部8gは、当該被写体切り抜き処理にて、被写体切り抜き画像P4の被写体画像Aと合成用背景画像P2の合成を行わずに、その後、ユーザ所望のタイミングで実行される画像合成処理にて被写体切り抜き画像P4と合成用背景画像P2の合成を行う。
Further, when it is determined in the subject clipping process that the background designation determination unit 8a has designated the composition background image P2, the image composition unit 8g and the designated composition background image P2 and the subject clipped image P4. The subject image A is synthesized. At this time, the image synthesis unit 8g synthesizes the subject image A and the synthesis background image P2 with reference to the position and size within the angle of view of the subject image A when the subject presence image P1a is captured. Specifically, the image composition unit 8g, for example, the position of the subject image A (that is, the center position of the subject image A) and the size (that is, the subject image with respect to the subject composition image P6) in the generated subject composition image P6. The ratio of the number of constituent pixels of A) is adjusted to be substantially equal to the position and size of the subject image A within the angle of view when the subject existing image P1a is captured, and the subject image A and the composition background image P2 are adjusted. And synthesize.
On the other hand, if it is determined in the subject clipping process that the composition background image P2 is not designated, the image composition unit 8g performs composition with the subject image A of the subject clipped image P4 in the subject clipping process. After the background image P2 is not synthesized, the subject cutout image P4 and the composition background image P2 are synthesized by an image synthesis process executed at a user-desired timing.

このように、画像合成部8gは、切抜画像生成部8fにより抽出された被写体切り抜き画像P4の被写体画像Aと予め指定されている合成用背景画像P2とを合成して被写体合成画像P6を生成する合成手段を構成している。   As described above, the image composition unit 8g composes the subject image A of the subject cutout image P4 extracted by the cutout image generation unit 8f and the synthesis background image P2 designated in advance to generate the subject composite image P6. It constitutes a synthesis means.

なお、ユーザによる操作入力部12の所定操作に基づいて被写体画像Aの合成位置を変更する場合、画像合成部8gは、当該合成位置に応じてマスク画像をずらして配置するようになっている。また、かかる状態で、合成用背景画像P2とマスク画像とがずれてしまいマスク画像の画像データの塗りつぶした部分(被写体S以外の部分)の範囲外となる領域については、画像合成部8gは、塗りつぶした部分を拡大してマスク画像により被覆されない領域を生じさせないようにする。   Note that when the composition position of the subject image A is changed based on a predetermined operation of the operation input unit 12 by the user, the image composition unit 8g is arranged to shift the mask image according to the composition position. In such a state, for the region outside the range of the portion where the image data of the mask image is filled (portion other than the subject S) because the composition background image P2 and the mask image are shifted, the image composition unit 8g The filled portion is enlarged so as not to generate an area not covered by the mask image.

記録媒体制御部9は、記録媒体9aが着脱自在に構成され、装着された記録媒体9aからのデータの読み出しや記録媒体9aに対するデータの書き込みを制御する。即ち、記録媒体制御部9は、画像処理部8のJPEG圧縮部(図示略)により符号化された撮像画像の記録用の画像データを記録媒体9aに記録させる。
また、記録媒体制御部9は、画像処理部8のマスク生成部8eにより生成されたマスク画像と、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データをそれぞれ圧縮した上で対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として記録媒体9aに記録させる。
さらに、記録媒体制御部9は、画像処理部8のマスク生成部8eにより生成されたマスク画像と、画像合成部8gにより生成された被写体合成画像P6の画像データとを対応付けて、当該被写体合成画像P6の画像データの拡張子を「.jpg」として記録媒体9aに記録させる。
The recording medium control unit 9 is configured such that the recording medium 9a is detachable, and controls reading of data from the loaded recording medium 9a and writing of data to the recording medium 9a. That is, the recording medium control unit 9 causes the recording medium 9a to record the image data for recording the captured image encoded by the JPEG compression unit (not shown) of the image processing unit 8.
In addition, the recording medium control unit 9 compresses and associates the mask image generated by the mask generation unit 8e of the image processing unit 8 with the image data of the subject cutout image P4 generated by the cutout image generation unit 8f. Thus, the extension of the image data of the subject cutout image P4 is recorded on the recording medium 9a as “.jpe”.
Further, the recording medium control unit 9 associates the mask image generated by the mask generation unit 8e of the image processing unit 8 with the image data of the subject combined image P6 generated by the image combining unit 8g, and combines the subject composition. The extension of the image data of the image P6 is recorded on the recording medium 9a as “.jpg”.

なお、記録媒体9aは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。   The recording medium 9a is composed of, for example, a non-volatile memory (flash memory) or the like. However, the recording medium 9a is an example and is not limited to this, and can be arbitrarily changed as appropriate.

表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいてライブビュー画像やレックビュー画像などを表示画面11aに表示する。
即ち、表示制御部10は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像や、本撮像画像として撮像されたレックビュー画像などを表示部11の表示画面11aに表示させる。
The display control unit 10 performs control to read display image data temporarily stored in the image memory 5 and display the display image data on the display unit 11.
Specifically, the display control unit 10 includes a VRAM, a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the image memory 5 and stored in the VRAM (not shown) under the control of the central control unit 13 via the VRAM controller. The data is periodically read from the VRAM, a video signal is generated based on these data, and is output to the display unit 11.
The display unit 11 is, for example, a liquid crystal display device, and displays a live view image, a REC view image, and the like on the display screen 11 a based on a video signal from the display control unit 10.
That is, the display control unit 10 in the imaging mode, a live view image or a main captured image based on a plurality of image frames generated by imaging the subject S by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. The REC view image captured as is displayed on the display screen 11 a of the display unit 11.

また、表示制御部10は、被写体存在画像P1aの撮像の際に、中央制御部13によって指定済みの合成用背景画像P2を半透過の表示態様で表示部11に表示させる。即ち、表示制御部10は、非平坦度判定部8bによりライブビュー画像Pbの非平坦度(特徴の高いブロック領域や画素値のばらつき量)が所定値以下であると判定された場合に、所定の画像サイズの合成用背景画像P2の画像データに基づいて当該合成用背景画像P2を半透過の表示態様(半透過の合成用背景画像P2´)でライブビュー画像に重ねて表示部11に表示させる。
ここで、合成用背景画像P2の画像データとしては、記録用として記録媒体9aに記録されている高解像度の画像データを用いても良いし、合成用背景画像P2の撮像の際に画像データ生成部4により水平(x軸)及び垂直(y軸)ともに所定の比率で縮小されることで生成された中間解像度(例えば、VGA程度)の縮小画像データを用いても良いが、表示制御部10の処理負担の軽減や処理速度の高速化を図る上では、縮小画像データを用いる方が好ましい。
なお、合成用背景画像P2の半透過の表示態様(半透過の合成用背景画像P2´)とは、合成用背景画像P2が透明と不透明の中間で表示された状態であり、当該合成用背景画像P2に重ねて後側に表示されるライブビュー画像の輪郭や色彩や明暗などを透過する程度の表示態様のことである。また、半透過の表示態様の合成用背景画像P2を所定のタイミングで表示と非表示とを交互に切り替えるようにすることで、通常のライブビュー画像と半透過した合成用背景画像P2が重ねられたライブビュー画像とを連続的に視認可能としても良い。
Further, the display control unit 10 causes the display unit 11 to display the synthesis background image P2 designated by the central control unit 13 in a semi-transparent display mode when the subject presence image P1a is captured. In other words, the display control unit 10 determines a predetermined value when the non-flatness determination unit 8b determines that the non-flatness of the live view image Pb (a highly characteristic block area or pixel value variation) is equal to or less than a predetermined value. Based on the image data of the composition background image P2 of the image size, the composition background image P2 is displayed on the display unit 11 in a semi-transparent display mode (semi-transparent composition background image P2 ′) on the live view image. Let
Here, as the image data of the composition background image P2, high-resolution image data recorded on the recording medium 9a for recording may be used, or image data is generated when the composition background image P2 is captured. Reduced image data having an intermediate resolution (for example, about VGA) generated by being reduced at a predetermined ratio in both horizontal (x-axis) and vertical (y-axis) by the unit 4 may be used, but the display control unit 10 In order to reduce the processing load and increase the processing speed, it is preferable to use reduced image data.
The translucent display mode of the compositing background image P2 (semi-transparent compositing background image P2 ′) is a state in which the compositing background image P2 is displayed between transparent and opaque, and the compositing background image P2 is displayed. The display mode is such that the outline, color, brightness, and the like of the live view image displayed on the rear side superimposed on the image P2 are transmitted. Further, by switching alternately between display and non-display of the synthesis background image P2 having a semi-transparent display mode at a predetermined timing, the normal live view image and the semi-transparent synthesis background image P2 are overlapped. The live view image may be continuously visible.

このように、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体存在画像P1aの撮像の際に、指定済みの合成用背景画像P2を半透過の表示態様で表示部(表示手段)11に表示させる表示制御手段を構成している。   Thus, the display control unit 10 displays the designated composition background image P2 in a semi-transparent display mode when the subject unit image P1a is captured by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. The display control means to display on the part (display means) 11 is comprised.

操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体Sの撮影指示に係るシャッタボタン12a、メニュー画面にて撮像モードや機能等の選択指示に係る選択決定用ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。   The operation input unit 12 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 12 includes a shutter button 12a related to an instruction to shoot the subject S, a selection determination button 12b related to an instruction to select an imaging mode or a function on the menu screen, and a zoom related to an instruction to adjust the zoom amount. Buttons (not shown) and the like are provided, and predetermined operation signals are output to the central control unit 13 in accordance with operations of these buttons.

また、操作入力部12の選択決定用ボタン12bは、ユーザによる所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から選択された所望の画像の指定指示を中央制御部13に出力する。
中央制御部13は、入力された指定指示に対応する画像を被写体画像Aと合成すべき合成用背景画像P2として指定する。
ここで、操作入力部12及び中央制御部13は、被写体画像Aと合成すべき合成用背景画像P2を指定する指定手段を構成している。
In addition, the selection determination button 12b of the operation input unit 12 gives a designation instruction for a desired image selected from a plurality of images recorded on the recording medium 9a based on a predetermined operation by the user. Output to.
The central control unit 13 designates an image corresponding to the designated designation instruction as the synthesis background image P2 to be synthesized with the subject image A.
Here, the operation input unit 12 and the central control unit 13 constitute a designating unit for designating the synthesis background image P2 to be synthesized with the subject image A.

なお、合成用背景画像P2は、ユーザによる操作入力部12の所定操作に基づいて指定されるようにしたが、合成用背景画像P2の指定方法はこれに限られるものではない。即ち、中央制御部13は、例えば、被写体切り抜き処理の実行直前に撮像された画像や、予め登録済みのユーザ所望の画像などを合成用背景画像P2として自動的に指定するような構成としても良い。   The composition background image P2 is designated based on a predetermined operation of the operation input unit 12 by the user, but the method for designating the composition background image P2 is not limited to this. That is, the central control unit 13 may be configured to automatically specify, for example, an image captured immediately before the subject clipping process or a user-desired image registered in advance as the synthesis background image P2. .

中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、CPU、RAM、ROM(何れも図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 13 controls each unit of the imaging apparatus 100. Specifically, the central control unit 13 includes a CPU, a RAM, and a ROM (all not shown), and performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

次に、撮像装置100による画像合成方法に係る被写体切り抜き処理について、図2〜図8を参照して説明する。
図2及び図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
Next, the subject clipping process according to the image composition method performed by the imaging apparatus 100 will be described with reference to FIGS.
2 and 3 are flowcharts showing an example of an operation related to the subject clipping process.

被写体切り抜き処理は、ユーザによる操作入力部12の選択決定用ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図2に示すように、先ず、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=0及び抽出用背景撮影フラグ=0を書き込む(ステップS1)。
次に、画像処理部8の背景指定判定部8aは、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から所望の合成用背景画像P2(図6(a)参照)が選択指定されたか否かを判定する(ステップS2)。
ここで、合成用背景画像P2が選択指定されたと判定されると(ステップS2;YES)、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=1を書き込む(ステップS3)。
The subject clipping process is executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. It is processing.
As shown in FIG. 2, first, the central control unit 13 writes a synthesis background image designation flag = 0 and an extraction background shooting flag = 0 in a flag table (not shown) of the image memory 5 (step S1).
Next, the background designation determination unit 8a of the image processing unit 8 selects a desired composition background image P2 (from the plurality of images recorded on the recording medium 9a based on a predetermined operation of the operation input unit 12 by the user. It is determined whether or not selection (see FIG. 6A) has been selected (step S2).
If it is determined that the composition background image P2 has been selected and designated (step S2; YES), the central control unit 13 sets the composition background image designation flag = 1 in the flag table (not shown) of the image memory 5. Write (step S3).

その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を表示部11の表示画面11aに表示させるとともに、当該ライブビュー画像に重ねて背景指示メッセージ(例えば、「背景に向けてください」等)を表示部11の表示画面11aに表示させる(ステップS4;図6(b)参照)。
また、ステップS2にて、合成用背景画像P2が選択指定されていないと判定された場合には(ステップS2;NO)、中央制御部13は、ステップS3の処理をスキップして、処理をステップS4に移行させる、そして、上記と同様に、表示制御部10は、ライブビュー画像を表示部11の表示画面11aに表示させるとともに、当該ライブビュー画像に重ねて背景指示メッセージを表示部11の表示画面11aに表示させる(ステップS4)。
Thereafter, the display control unit 10 displays a live view image on the display screen 11 a of the display unit 11 based on image frames sequentially generated by imaging the subject S by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. At the same time, a background instruction message (for example, “Please turn to the background”) is displayed on the display screen 11a of the display unit 11 so as to overlap the live view image (step S4; see FIG. 6B).
If it is determined in step S2 that the composition background image P2 is not selected and designated (step S2; NO), the central control unit 13 skips the process of step S3 and performs the process. The display control unit 10 displays the live view image on the display screen 11a of the display unit 11 and displays a background instruction message on the display unit 11 so as to overlap the live view image in the same manner as described above. It is displayed on the screen 11a (step S4).

そして、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS5)、中央制御部13は、ライブビュー画像表示用の画像フレーム(背景画像Pb)のYUVデータに基づいて、特徴の高いブロック領域(特徴点)を特徴量演算部6bに抽出させるとともに、各ブロック領域内のばらつき量としての標準偏差を式(1)に従ってばらつき量算出部6cに算出させる(ステップS6)。

Figure 0005493839
Then, the display control unit 10 performs control to update the live view image based on the image frames sequentially generated by the imaging of the subject S by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 (step S5). Based on the YUV data of the image frame (background image Pb) for live view image display, the central control unit 13 causes the feature amount calculation unit 6b to extract a block region with high features (feature point) and The standard deviation as the amount of variation is calculated by the variation amount calculation unit 6c according to equation (1) (step S6).
Figure 0005493839

次に、画像処理部8の非平坦度判定部8bは、特徴量演算部6bにより抽出された特徴の高いブロック領域が所定値以下であるか否か、及びばらつき量算出部6cにより算出された背景画像のブロック領域内の画素値のばらつき量が所定値以下であるか否かを判定することで、特徴点及び当該ブロック領域内の画素値のばらつき量がないか否かを判断する(ステップS7)。
ここで、特徴点及び当該ブロック領域内の画素値のばらつき量がないと判断されると(ステップS7;YES)、即ち、例えば、特徴量の少ない無地の背景をバックに被写体S(例えば、「犬」等)を撮影する場合(図6(b)参照)、中央制御部13は、合成用背景画像指定フラグ=1であるか否かを判定する(ステップS8)。
Next, the non-flatness determination unit 8b of the image processing unit 8 calculates whether or not the block region having a high feature extracted by the feature amount calculation unit 6b is equal to or less than a predetermined value and is calculated by the variation amount calculation unit 6c. By determining whether or not the variation amount of the pixel value in the block region of the background image is equal to or less than a predetermined value, it is determined whether or not there is a variation amount of the pixel value in the feature point and the block region (step) S7).
Here, if it is determined that there is no variation amount between the feature point and the pixel value in the block area (step S7; YES), for example, the subject S (for example, “ When photographing a “dog” or the like) (see FIG. 6B), the central control unit 13 determines whether or not the composition background image designation flag = 1 (step S8).

ステップS8にて、合成用背景画像指定フラグ=1であると判定されると(ステップS8;YES)、表示制御部10は、ライブビュー画像に重ねて、合成用背景画像P2の半透過の表示態様の画像(半透過の合成用背景画像P2´)及び撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS9)。
その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS10)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS11)。
If it is determined in step S8 that the composition background image designation flag = 1 (step S8; YES), the display control unit 10 displays the composition background image P2 in a semi-transparent display on the live view image. The mode image (semi-transparent composition background image P2 ′) and the imaging instruction message (for example, “shoot the subject”) are displayed on the display screen 11a of the display unit 11 (step S9).
Thereafter, the display control unit 10 performs control to update the live view image based on the image frames sequentially generated by the imaging of the subject S by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 (step S10). The central control unit 13 determines whether or not the user has performed an imaging instruction operation on the shutter button 12a of the operation input unit 12 (step S11).

また、ステップS8にて、合成用背景画像指定フラグ=1でないと判定された場合には(ステップS8;NO)、表示制御部10は、ライブビュー画像に重ねて撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させた後(ステップS12)、中央制御部13は、処理をステップS10に移行して、それ以降の処理を行う。   If it is determined in step S8 that the composition background image designation flag is not 1 (step S8; NO), the display control unit 10 superimposes the live view image on the imaging instruction message (for example, “subject” , Please take a picture ”) on the display screen 11a of the display unit 11 (step S12), the central control unit 13 moves the process to step S10 and performs the subsequent processes.

ステップS11にて、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS11;NO)、中央制御部13は、処理をステップS10に移行させて、それ以降の処理を、ステップS11にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS11;YES)、繰り返し実行する。   If it is determined in step S11 that the shutter button 12a has not been operated to perform an imaging instruction (step S11; NO), the central control unit 13 shifts the process to step S10 and performs the subsequent processes in step S11. Step S11 is repeatedly executed until it is determined that the shutter button 12a has been operated to instruct imaging (step S11; YES).

この後、ユーザは、被写体Sを画角内に移動させる、或いは被写体Sが移動するのを待った後(図6(c)参照)、ステップS11にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS11;YES)、撮像制御部3は、被写体存在画像P1aの光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS13)。
そして、画像データ生成部4は、電子撮像部2から転送された被写体存在画像P1aの画像フレームに基づいて、被写体存在画像P1aのYUVデータを生成した後、当該YUVデータを画像メモリ5に一時記憶させる。
これにより、特徴量の少ない背景をバックに被写体S(例えば、「犬」等)が撮影された被写体存在画像P1aが生成される。
Thereafter, the user moves the subject S within the angle of view, or waits for the subject S to move (see FIG. 6C), and then determines in step S11 that the shutter button 12a has been operated for imaging. Then (step S11; YES), the imaging control unit 3 causes the electronic imaging unit 2 to capture an optical image of the subject existing image P1a under a predetermined imaging condition (step S13).
Then, the image data generation unit 4 generates YUV data of the subject existing image P1a based on the image frame of the subject existing image P1a transferred from the electronic imaging unit 2, and then temporarily stores the YUV data in the image memory 5. Let
As a result, a subject presence image P1a in which the subject S (for example, “dog” or the like) is photographed with a background having a small feature amount is generated.

一方、ステップS7にて、特徴点及びブロック領域内の画素値のばらつき量があると判断されると(ステップS7;YES)、即ち、例えば、特徴量の多い背景をバックに被写体Sを撮影する場合(図8(a)参照)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS14)。
ここで、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS14;NO)、中央制御部13は、処理をステップS5に移行させ、それ以降の処理を、ステップS14にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS14;YES)、繰り返し実行する。
そして、ステップS14にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS14;YES)、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に抽出用背景撮影フラグ=1を書き込んだ後(ステップS15)、処理をステップS13に移行させて、被写体Sの撮影を行う。
これにより、特徴量の多い背景をバックに被写体Sが撮影された被写体存在画像P1b(図8(a)参照)が生成される。
On the other hand, if it is determined in step S7 that there is a variation amount of the pixel value in the feature point and the block area (step S7; YES), for example, the subject S is photographed against a background having a large amount of feature. In the case (see FIG. 8A), the central control unit 13 determines whether or not the user has performed an imaging instruction operation on the shutter button 12a of the operation input unit 12 (step S14).
Here, if it is determined that the shutter button 12a has not been operated to perform an imaging instruction (step S14; NO), the central control unit 13 shifts the process to step S5, and performs the subsequent processes in step S14. This is repeatedly executed until it is determined that the button 12a has been operated to instruct imaging (step S14; YES).
If it is determined in step S14 that the shutter button 12a has been instructed to perform an imaging operation (step S14; YES), the central control unit 13 stores an extraction background photographing flag = in the flag table (not shown) of the image memory 5. After 1 is written (step S15), the process proceeds to step S13, and the subject S is photographed.
As a result, a subject presence image P1b (see FIG. 8A) in which the subject S is photographed against a background with a large amount of feature is generated.

次に、図3に示すように、中央制御部13は、抽出用背景撮影フラグ=0であるか否かを判定する(ステップS16)。
ここで、抽出用背景撮影フラグ=0であると判定されると(ステップS16;YES)、中央制御部13は、非平坦度演算部6及び画像処理部8に、被写体存在画像P1aから被写体画像Aを抽出するための抽出用背景画像を生成させる抽出用背景生成処理を行わせる(ステップS17)。
Next, as shown in FIG. 3, the central control unit 13 determines whether or not the extraction background photographing flag = 0 (step S16).
Here, if it is determined that the extraction background shooting flag = 0 (step S16; YES), the central control unit 13 sends the subject image P1a to the subject image to the non-flatness calculation unit 6 and the image processing unit 8. An extraction background generation process for generating an extraction background image for extracting A is performed (step S17).

以下に、抽出用背景生成処理について図4を参照して詳細に説明する。
ここで、図4は、抽出用背景生成処理に係る動作の一例を示すフローチャートである。
Hereinafter, the extraction background generation processing will be described in detail with reference to FIG.
Here, FIG. 4 is a flowchart showing an example of an operation related to the extraction background generation processing.

図4に示すように、非平坦度演算部6の分割部6aは、被写体存在画像P1aのYUVデータに基づいて、当該被写体存在画像P1aの周縁部分を複数の画像ブロックB、…に分割して(図7(a)参照)、各画像ブロックBの特徴点を抽出する(ステップS41)。
続けて、画像処理部8のばらつき量算出部6cは、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…の各々について画素値のばらつき量としての標準偏差を式(1)に従って算出する(ステップS42)。

Figure 0005493839
As shown in FIG. 4, the dividing unit 6a of the non-flatness computing unit 6 divides the peripheral portion of the subject existing image P1a into a plurality of image blocks B,... Based on the YUV data of the subject existing image P1a. (See FIG. 7A), feature points of each image block B are extracted (step S41).
Subsequently, the variation amount calculation unit 6c of the image processing unit 8 calculates a standard deviation as a variation amount of the pixel value for each of the plurality of image blocks B in the peripheral portion of the subject existing image P1a according to the equation (1). (Step S42).
Figure 0005493839

次に、非平坦度判定部8bは、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…について抽出された特徴点が所定値以下であるか否かを判定するとともに、各画像ブロックBのばらつき量が所定値以下であるか否かを判定し、当該判定の結果、特徴点が所定値以下で、且つ、画像ブロックB内の画素値のばらつき量が所定値以下であると判定された画像ブロックBを計数して、画像ブロックBが複数あるか否かを判断する。さらに、ばらつきがないとされた画像ブロックBの内、同じ色の画像ブロックBを計数する。そして、ばらつきがなく、同じ色の画像ブロックBの数が所定値(例えば、画像全体のブロック数の半分)以上であるか否かを判定する(ステップS43)。
ここで、ばらつきがなく、同じ色の画像ブロックBが所定値以上あると判断されると(ステップS43;YES)、抽出用背景生成部8cは、当該画像ブロックBの色と同じ色を背景色とする抽出用背景画像のYUVデータを生成(ステップS44)して、抽出用背景生成成功とする(ステップS45)。
Next, the non-flatness determination unit 8b determines whether or not the feature points extracted for the plurality of image blocks B in the peripheral portion of the subject existing image P1a are equal to or less than a predetermined value, and each image block B Is determined to be less than or equal to a predetermined value, and as a result of the determination, it is determined that the feature point is equal to or less than the predetermined value and the variation value of the pixel value in the image block B is equal to or less than the predetermined value. The image blocks B are counted to determine whether there are a plurality of image blocks B. Further, the image blocks B of the same color among the image blocks B determined not to vary are counted. Then, it is determined whether there is no variation and the number of image blocks B of the same color is equal to or greater than a predetermined value (for example, half the number of blocks of the entire image) (step S43).
Here, when it is determined that there is no variation and the image block B having the same color has a predetermined value or more (step S43; YES), the extraction background generation unit 8c uses the same color as the color of the image block B as the background color. YUV data of the extraction background image is generated (step S44), and the extraction background generation is successful (step S45).

一方、ステップS43にて、ばらつきがなく、同じ色の画像ブロックBが所定値に満たないと判断されると(ステップS43;NO)、例えば、ばらつきのない安定した画像ブロックBがあっても、同じ色のブロックがない場合等には背景が特定できないため、抽出用背景生成部8cは、抽出用背景画像を生成せずに、抽出用背景生成失敗とする(ステップS46)。
これにより、抽出用背景生成処理を終了する。
On the other hand, if it is determined in step S43 that there is no variation and the image block B of the same color does not satisfy the predetermined value (step S43; NO), for example, even if there is a stable image block B without variation, Since the background cannot be specified when there is no block of the same color or the like, the extraction background generation unit 8c fails to generate the extraction background without generating the extraction background image (step S46).
Thus, the extraction background generation process is terminated.

図3に示すように、次に、中央制御部13は、抽出用背景生成部8cに、抽出用背景生成が成功したか否かを判定させる(ステップS18)。
ここで、抽出用背景生成が成功したと判定されると(ステップS18;YES)、中央制御部13は、画像処理部8に、被写体存在画像P1aから被写体Sが含まれる被写体領域を検出する領域検出処理を行わせる(ステップS19)。
As shown in FIG. 3, next, the central control unit 13 causes the extraction background generation unit 8c to determine whether or not the extraction background generation has succeeded (step S18).
Here, if it is determined that the extraction background generation has been successful (step S18; YES), the central control unit 13 causes the image processing unit 8 to detect a subject region including the subject S from the subject existing image P1a. A detection process is performed (step S19).

以下に、領域検出処理について図5を参照して詳細に説明する。
ここで、図5は、領域検出処理に係る動作の一例を示すフローチャートである。
Hereinafter, the region detection processing will be described in detail with reference to FIG.
Here, FIG. 5 is a flowchart showing an example of an operation related to the region detection processing.

図5に示すように、画像処理部8のマスク生成部8eは、抽出用背景画像のYUVデータと被写体存在画像P1aのYUVデータとの間で対応する各画素の相違度Dを式(2)に従って算出して相違度マップを生成する(ステップS51)。

Figure 0005493839
As shown in FIG. 5, the mask generation unit 8e of the image processing unit 8 calculates the difference D of each pixel corresponding between the YUV data of the background image for extraction and the YUV data of the subject existing image P1a using the equation (2). To calculate the difference map and generate a difference map (step S51).
Figure 0005493839

次に、マスク生成部8eは、生成した相違度マップを所定の閾値で二値化してマスク画像データを生成する(ステップS52)。そして、マスク生成部8eは、例えば、背景(二値化;0)の領域が著しく小さいか否か等を判定することで、二値化が成功したか否かを判断する(ステップS53)。
ここで、二値化に成功したと判断されると(ステップS53;YES)、マスク生成部8eは、被写体領域の周辺部の残り過ぎを修正したり細かいノイズを除去するため、マスク画像データに対する収縮処理を行って所定値よりも小さい画素集合を除いた後(ステップS54)、収縮分を修正するための膨張処理を行う(ステップS55)。
Next, the mask generation unit 8e binarizes the generated dissimilarity map with a predetermined threshold value to generate mask image data (step S52). Then, the mask generation unit 8e determines whether or not the binarization is successful by determining whether or not the background (binarization; 0) region is extremely small, for example (step S53).
Here, if it is determined that the binarization is successful (step S53; YES), the mask generation unit 8e corrects the remaining portion of the periphery of the subject region and removes fine noise, so that the mask image data is processed. After performing a contraction process to remove a pixel set smaller than a predetermined value (step S54), an expansion process for correcting the contraction is performed (step S55).

続けて、被写体Sに背景色と似たような色がある場合、マスク画像の被写体領域内が欠損するため、マスク生成部8eは、同じ連結成分を構成する画素集合に同じ番号を付けるラベリング処理により、マスク画像データの有効領域の構成画素数における所定の比率以下の領域を有効領域に置き換えることで穴埋めを行う(ステップS56)。
その後、マスク生成部8eは、マスク画像データに対して平均化フィルタをかけて、被写体領域の縁部に合成階調をつけて(ステップS57)、領域検出成功とする(ステップS58)。
Subsequently, if the subject S has a color similar to the background color, the subject region of the mask image is lost, so the mask generation unit 8e performs a labeling process for assigning the same number to the pixel sets that constitute the same connected component. Thus, a hole is filled by replacing an area below a predetermined ratio in the number of constituent pixels of the effective area of the mask image data with the effective area (step S56).
Thereafter, the mask generation unit 8e applies an averaging filter to the mask image data, adds a synthetic gradation to the edge of the subject region (step S57), and determines that the region has been successfully detected (step S58).

一方、ステップS53にて、二値化に成功しなかったと判断されると(ステップS53;NO)、例えば、背景(二値化;0)の領域が著しく小さい場合などには、マスク生成部8eは、二値化に失敗したとみなして領域検出失敗とする(ステップS59)。
これにより、領域検出処理を終了する。
On the other hand, if it is determined in step S53 that the binarization has not been successful (step S53; NO), for example, if the background (binarization; 0) region is extremely small, the mask generation unit 8e. Is assumed to have failed in binarization, and region detection fails (step S59).
Thereby, the region detection process is terminated.

図3に示すように、ステップS18にて、抽出用背景生成が成功しなかったと判定されると(ステップS18;NO)、表示制御部10は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体の切り抜きに失敗しました」等)を表示部11の表示画面11aに表示させて(ステップS20)、被写体切り抜き処理を終了する。   As shown in FIG. 3, when it is determined in step S18 that the extraction background generation has not succeeded (step S18; NO), the display control unit 10 determines a predetermined message related to the subject S clipping failure ( For example, “Subject clipping failed” or the like is displayed on the display screen 11a of the display unit 11 (step S20), and the subject clipping process is terminated.

また、ステップS16にて、抽出用背景撮影フラグ=0ではないと判定されると(ステップS16;NO)、即ち、抽出用背景撮影フラグ=1となっている場合には、表示制御部10は、ライブビュー画像に重ねて、被写体存在画像P1bの半透過の表示態様の画像と被写体非存在画像P3(図8(b)参照)の撮像指示メッセージ(例えば、「背景を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS21)。   If it is determined in step S16 that the extraction background shooting flag = 0 is not satisfied (step S16; NO), that is, if the extraction background shooting flag = 1, the display control unit 10 The image of the semi-transparent display mode of the subject presence image P1b and the imaging instruction message of the subject non-existence image P3 (see FIG. 8B) are superimposed on the live view image (for example, “shoot the background”) ) Is displayed on the display screen 11a of the display unit 11 (step S21).

その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS22)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS23)。
ここで、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS22;NO)、中央制御部13は、処理をステップS22に移行させて、それ以降の処理を、ステップS23にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS23;YES)、繰り返し実行する。
Thereafter, the display control unit 10 performs control to update the live view image based on the image frames sequentially generated by the imaging of the subject S by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 (step S22). The central control unit 13 determines whether or not the user has performed an imaging instruction operation on the shutter button 12a of the operation input unit 12 (step S23).
Here, if it is determined that the shutter button 12a has not been operated to instruct imaging (step S22; NO), the central control unit 13 shifts the process to step S22, and performs the subsequent processes in step S23. This is repeatedly executed until it is determined that the shutter button 12a has been operated to instruct imaging (step S23; YES).

この後、ユーザは、被写体Sを画角外に移動させる、或いは被写体Sが移動するのを待った後、ステップS23にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS23;YES)、撮像制御部3は、被写体非存在画像P3の光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS24)。
ここで、被写体非存在画像P3の合焦位置や露出条件やホワイトバランス等の撮像条件は、被写体存在画像P1bの撮像の際の撮像条件と同じであるのが好ましい。即ち、被写体存在画像P1bの撮像後に、撮像制御部3は、被写体存在画像P1bの撮像の際の合焦位置や露出条件やホワイトバランス等の撮像条件を固定した状態を維持させるようにしても良い。
そして、画像データ生成部4は、電子撮像部2から転送された被写体非存在画像P3の画像フレームに基づいて、被写体非存在画像P3のYUVデータを生成した後、当該YUVデータを画像メモリ5に一時記憶させる。
これにより、被写体Sが存在しない特徴量の多い背景が撮影された被写体非存在画像P3が生成される。
Thereafter, after the user moves the subject S out of the angle of view or waits for the subject S to move, it is determined in step S23 that the shutter button 12a has been operated to instruct imaging (step S23; YES). The imaging control unit 3 causes the electronic imaging unit 2 to capture an optical image of the subject non-existing image P3 under a predetermined imaging condition (step S24).
Here, it is preferable that the imaging conditions such as the in-focus position, the exposure condition, and the white balance of the subject non-existing image P3 are the same as the imaging conditions for imaging the subject existing image P1b. That is, after the subject presence image P1b is captured, the imaging control unit 3 may maintain a state in which imaging conditions such as a focus position, an exposure condition, and a white balance at the time of capturing the subject presence image P1b are fixed. .
Then, the image data generation unit 4 generates YUV data of the subject non-existing image P3 based on the image frame of the subject non-existing image P3 transferred from the electronic imaging unit 2, and then stores the YUV data in the image memory 5. Temporary storage.
As a result, a subject non-existing image P3 in which a background with a large amount of feature without the subject S is captured is generated.

次に、中央制御部13は、非平坦度演算部6、ブロックマッチング部7及び画像処理部8に、被写体非存在画像P3のYUVデータを基準として、被写体存在画像P1bのYUVデータと被写体非存在画像P3のYUVデータとを位置合わせする処理を行わせる(ステップS25)。
具体的には、非平坦度演算部6の特徴量演算部6bは、被写体非存在画像P3のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1b内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P3と被写体存在画像P1b間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
そして、画像処理部8の位置合わせ部8dは、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出した後、当該射影変換行例に基づいて被写体存在画像P1bを射影変換することで、被写体存在画像P1bのYUVデータと被写体非存在画像P3のYUVデータとを位置合わせする処理を行わせる。
Next, the central control unit 13 causes the non-flatness calculation unit 6, the block matching unit 7, and the image processing unit 8 to use the YUV data of the subject non-existing image P3 as a reference and the YUV data of the subject existing image P1b and the non-existence of the subject. A process of aligning the YUV data of the image P3 is performed (step S25).
Specifically, the feature amount calculation unit 6b of the non-flatness calculation unit 6 has a predetermined number (or a predetermined number or more) of highly featured block regions (feature points) based on the YUV data of the subject non-existing image P3. And the contents of the block are extracted as a template. Then, the block matching unit 7 searches the subject existing image P1b for a position where the pixel value of the template extracted by the feature extraction process is optimally matched, and the evaluation value of the difference between the pixel values is the best. An optimum offset between the subject non-existing image P3 and the subject existing image P1b is calculated as a motion vector of the template.
Then, the alignment unit 8d of the image processing unit 8 statistically calculates the entire motion vector based on the motion vectors of the plurality of templates calculated by the block matching unit 7, and performs feature point correspondences related to the motion vector. After calculating the projection transformation matrix of the subject existing image P1b, the subject existing image P1b is subjected to projective transformation based on the projection conversion row example, so that the YUV data of the subject existing image P1b and the YUV data of the subject nonexisting image P3 are converted. To perform the alignment process.

次に、中央制御部13は、画像処理部8に、位置合わせが成功したか否かを判定させる(ステップS26)。即ち、画像処理部8は、ステップS24にて、複数のテンプレートの動きベクトルから全体の動きベクトルを統計的に算出でき、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1bの射影変換行列を算出することができたか否かを判定する。   Next, the central control unit 13 causes the image processing unit 8 to determine whether or not the alignment is successful (step S26). That is, in step S24, the image processing unit 8 can statistically calculate the entire motion vector from the motion vectors of a plurality of templates, and uses the feature point correspondences related to the motion vector to projective transformation matrix of the subject existing image P1b. It is determined whether or not it has been calculated.

ステップS26にて、位置合わせが成功したと判定されると(ステップS25;YES)、中央制御部13は、処理をステップS19に移行させて、画像処理部8のマスク生成部8eに領域検出処理(図5参照)を行わせる(ステップS19)。
ここでの領域検出処理は、抽出用背景画像として被写体非存在画像P3を用いる以外の点で上述した内容と略同一であり、その詳細な説明は省略する。即ち、マスク生成部8eは、背景画像としての被写体非存在画像P3のYUVデータと被写体存在画像P1bのYUVデータとの間で対応する各画素の相違度Dを式(2)に従って算出して相違度マップを生成する(ステップS51)。

Figure 0005493839
If it is determined in step S26 that the alignment has succeeded (step S25; YES), the central control unit 13 shifts the process to step S19 and causes the mask generation unit 8e of the image processing unit 8 to perform area detection processing. (See FIG. 5) is performed (step S19).
The area detection process here is substantially the same as the above-described content except that the subject non-existing image P3 is used as the extraction background image, and a detailed description thereof will be omitted. That is, the mask generation unit 8e calculates the difference D between the corresponding pixels between the YUV data of the subject non-existing image P3 as the background image and the YUV data of the subject existing image P1b according to the equation (2). A degree map is generated (step S51).
Figure 0005493839

その後、上記したように、マスク生成部8eは、相違度マップを二値化してマスク画像データを生成する処理(ステップS52)、二値化が成功したか否かを判断する処理(ステップS53)、マスク画像データに対する収縮処理(ステップS54)、収縮分を修正するための膨張処理(ステップS55)、ラベリングにより、マスク画像データの所定の比率以下の領域を有効領域に置き換える処理(ステップS56)、平均化フィルタをかけて被写体領域の縁部に合成階調をつける処理(ステップS57)等を行う。   Thereafter, as described above, the mask generation unit 8e binarizes the dissimilarity map to generate mask image data (step S52), and determines whether binarization is successful (step S53). Shrinkage processing for the mask image data (step S54), expansion processing for correcting the shrinkage (step S55), processing for replacing an area below a predetermined ratio of the mask image data with an effective area by labeling (step S56), A process of applying a composite gradation to the edge of the subject area by applying an averaging filter (step S57) and the like are performed.

一方、ステップS26にて、位置合わせが成功しなかったと判定されると(ステップS26;NO)、中央制御部13は、処理をステップS19に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面11aに表示させた後(ステップS20)、被写体切り抜き処理を終了する。   On the other hand, when it is determined in step S26 that the alignment has not been successful (step S26; NO), the central control unit 13 shifts the process to step S19, and performs a predetermined process related to the clipping failure of the subject S. After the message is displayed on the display screen 11a of the display unit 11 (step S20), the subject clipping process is terminated.

そして、領域検出処理(ステップS19)の終了後、中央制御部13は、マスク生成部8eに、被写体領域の検出が成功したか否かを判定させる(ステップS27)。
ここで、被写体領域の検出が成功したと判定されると(ステップS27;YES)、中央制御部13は、画像処理部8の切抜画像生成部8fに、クロマキー技術を利用して、領域検出処理にて生成されたマスク画像を用いて被写体存在画像P1a(P1b)から被写体画像Aを切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成させる(ステップS28)。
具体的には、切抜画像生成部8fは、被写体存在画像P1a(P1b)、単一色背景画像P5及びマスク画像の各画像データを読み出して画像メモリ5に展開する。そして、切抜画像生成部8fは、被写体存在画像P1a(P1b)のうち、マスク画像データの塗りつぶした部分(被写体S以外の部分)で覆われる画素については、単一色背景画像P5の所定の単一色で塗りつぶす一方で、被写体部分の画素については、何もせずに所定の単一色に対して透過させないようにする。なお、マスク画像の縁部分には、合成階調がつけられているため、切り出された被写体画像Aと単一色背景画像P5との境界部分がはっきりしていない自然な感じとなる。
Then, after the region detection process (step S19) ends, the central control unit 13 causes the mask generation unit 8e to determine whether or not the subject region has been successfully detected (step S27).
Here, if it is determined that the detection of the subject region has succeeded (step S27; YES), the central control unit 13 uses the chroma key technique to perform the region detection process in the cut-out image generation unit 8f of the image processing unit 8. The subject image A is cut out from the subject presence image P1a (P1b) using the mask image generated in step S1 and is combined with a predetermined single-color background image P5 to create a subject cutout image P4 (see FIG. 7B). Data is generated (step S28).
Specifically, the cut-out image generation unit 8f reads out the image data of the subject presence image P1a (P1b), the single color background image P5, and the mask image and develops them in the image memory 5. The cut-out image generation unit 8f then applies a predetermined single color of the single-color background image P5 for the pixels covered by the portion of the subject existing image P1a (P1b) that is filled with the mask image data (the portion other than the subject S). On the other hand, the pixel of the subject portion is not subjected to anything and is not transmitted through a predetermined single color. In addition, since the synthetic gradation is given to the edge part of the mask image, it becomes a natural feeling that the boundary part between the cut subject image A and the single color background image P5 is not clear.

その後、中央制御部13は、合成用背景画像指定フラグ=0であるか否かを判定する(ステップS29)。
ここで、合成用背景画像指定フラグ=0であると判定されると(ステップS29;YES)、中央制御部13は、画像処理部8の画像合成部8gに、被写体切り抜き画像P4の被写体画像Aと指定済みの合成用背景画像P2とを合成して被写体合成画像P6(図7(c)参照)の画像データを生成させる(ステップS30)。
具体的には、画像合成部8gは、合成用背景画像P2、被写体切り抜き画像P4及びマスク画像の各画像データを読み出して画像メモリ5に展開する。そして、画像合成部8gは、生成される被写体合成画像P6における被写体画像Aの位置及び大きさが、被写体存在画像P1aの撮像の際の画角内の被写体画像Aの位置及び大きさと略等しくなるように調整した後、合成用背景画像P2の各画素のうち、マスク画像の画像データの塗りつぶした部分(被写体S以外の部分)で覆われる画素については、何もせずに透過させる一方で、被写体部分の画素については、被写体切り抜き画像P4の被写体画像Aの対応する画素の画素値で上書きする。なお、マスク画像の縁部分には、合成階調がつけられているため、合成される被写体画像Aと合成用背景画像P2との境界部分がはっきりしていない自然な感じとなる。
Thereafter, the central control unit 13 determines whether or not the composition background image designation flag = 0 (step S29).
If it is determined that the composition background image designation flag = 0 (step S29; YES), the central control unit 13 sends the subject image A of the subject cutout image P4 to the image composition unit 8g of the image processing unit 8. And the designated composition background image P2 are combined to generate image data of the subject composite image P6 (see FIG. 7C) (step S30).
Specifically, the image composition unit 8g reads the image data of the composition background image P2, the subject cutout image P4, and the mask image and develops them in the image memory 5. Then, the image composition unit 8g makes the position and size of the subject image A in the generated subject composition image P6 substantially equal to the position and size of the subject image A within the angle of view when the subject presence image P1a is captured. After the adjustment, the pixels covered by the filled portion (the portion other than the subject S) of the image data of the mask image among the respective pixels of the composition background image P2 are transmitted without doing anything while the subject The partial pixel is overwritten with the pixel value of the corresponding pixel in the subject image A of the subject cutout image P4. In addition, since the synthetic gradation is given to the edge part of the mask image, it becomes a natural feeling that the boundary part between the subject image A to be synthesized and the synthesis background image P2 is not clear.

その後、表示制御部10は、画像合成部8gにより生成された被写体合成画像P6の画像データに基づいて、合成用背景画像P2に被写体画像Aが合成された被写体合成画像P6を表示部11の表示画面11aに表示させる(ステップS31;図7(c)参照)。
次に、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体合成画像P6の画像データとを対応付けて、当該被写体合成画像P6の画像データの拡張子を「.jpg」として一ファイルで保存させる(ステップS32)。
これにより、被写体切り抜き処理を終了する。
Thereafter, the display control unit 10 displays the subject composite image P6 in which the subject image A is combined with the composition background image P2 on the display unit 11 based on the image data of the subject composite image P6 generated by the image composition unit 8g. It is displayed on the screen 11a (step S31; refer to FIG. 7C).
Next, the recording medium control unit 9 associates the mask image data with the image data of the subject composite image P6 in a predetermined storage area of the recording medium 9a, and sets the extension of the image data of the subject composite image P6 to “ .jpg "is saved as one file (step S32).
Thereby, the subject clipping process is completed.

一方、ステップS29にて、合成用背景画像指定フラグ=0でないと判定されると(ステップS29;NO)、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体画像Aが合成された被写体切り抜き画像P4を表示部11の表示画面11aに表示させる(ステップS33)。
その後、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体切り抜き画像P4の画像データとを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させた後(ステップS34)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S29 that the composition background image designation flag is not 0 (step S29; NO), the display control unit 10 displays the image data of the subject cutout image P4 generated by the cutout image generation unit 8f. The subject cutout image P4 obtained by combining the subject image A with the predetermined single color background image P5 is displayed on the display screen 11a of the display unit 11 (step S33).
Thereafter, the recording medium control unit 9 associates the mask image data with the image data of the subject cutout image P4 in a predetermined storage area of the recording medium 9a, and sets the extension of the image data of the subject cutout image P4 to “. jpe "is saved as one file (step S34), and the subject clipping process is terminated.

また、ステップS27にて、被写体領域の検出が成功しなかったと判定されると(ステップS27;NO)、中央制御部13は、処理をステップS20に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面11aに表示させた後(ステップS20)、被写体切り抜き処理を終了する。   If it is determined in step S27 that the detection of the subject area has not been successful (step S27; NO), the central control unit 13 shifts the process to step S20 and relates to the failure in clipping the subject S. After a predetermined message is displayed on the display screen 11a of the display unit 11 (step S20), the subject clipping process is terminated.

以上のように、本実施形態の撮像装置100によれば、被写体画像Aと合成すべき合成用背景画像P2が指定されたと判定され、当該合成用背景画像P2が目視可能な状態で背景内に被写体Sが存在する被写体存在画像P1aを撮像することで、この被写体存在画像P1aから被写体Sが含まれる領域の被写体画像Aを抽出して、当該被写体画像Aと指定済みの合成用背景画像P2とを合成して被写体合成画像P6を生成することができる。つまり、被写体存在画像P1aの撮像前に予め合成用背景画像P2を指定しておくだけで、当該合成用背景画像P2と被写体存在画像P1aの被写体画像Aとを合成することができ、ユーザによる所定操作に基づいて一回の撮影動作で被写体合成画像P6の生成を簡便に行うことができる。   As described above, according to the imaging apparatus 100 of the present embodiment, it is determined that the synthesis background image P2 to be synthesized with the subject image A is designated, and the synthesis background image P2 is visible in the background. By capturing the subject existence image P1a in which the subject S exists, the subject image A in the region including the subject S is extracted from the subject existence image P1a, and the subject image A and the designated synthesis background image P2 Can be combined to generate a subject composite image P6. That is, by simply designating the composition background image P2 in advance before capturing the subject existence image P1a, the composition background image P2 and the subject image A of the subject existence image P1a can be synthesized, Based on the operation, the subject composite image P6 can be easily generated by a single photographing operation.

また、被写体存在画像P1aの撮像の際に、指定済みの合成用背景画像P2の半透過画像P2´を表示部11に表示させるので、ユーザに当該半透過の表示態様で表示されている合成用背景画像P2を視認させた状態で被写体存在画像P1aの撮像を行うことができ、これにより、合成用背景画像P2と被写体Sとの位置関係を考慮して被写体合成画像P6の構図の決定を行うことができる。つまり、被写体存在画像P1aの撮像の際に、当該被写体存在画像P1aの撮像だけでなく、撮像後に生成される被写体合成画像P6の構図の決定も行うことができ、当該被写体合成画像P6の生成をより簡便に行うことができる。
特に、ライブビュー画像として表示される被写体存在画像P1aの背景部分の非平坦度が所定値以下であると判定された場合に、指定済みの合成用背景画像P2を半透過の表示態様で表示部11に表示させるので、ユーザに当該半透過の表示態様で表示されている合成用背景画像P2を適正に視認させることができる。即ち、例えば、特徴量の多い背景をバックに被写体Sを撮影する場合に、半透過の表示態様であっても合成用背景画像P2をライブビュー画像に重ねて表示させると、被写体存在画像P1aにおける被写体Sの背景部分の画素と合成用背景画像P2の画素とが混在してしまい、当該合成用背景画像P2を視認し難くなり被写体合成画像P6の構図の決定が困難となってしまう。一方、例えば、無地で単色の背景のように特徴量の少ない背景をバックにして被写体Sを撮像する際に、合成用背景画像P2を半透過の表示態様でライブビュー画像に重ねて表示させても、被写体存在画像P1aにおける被写体Sの背景側に表示される合成用背景画像P2の視認を適正に行うことができ、被写体合成画像P6の構図の決定を容易に行うことができる。
In addition, since the semi-transparent image P2 ′ of the designated composition background image P2 is displayed on the display unit 11 when the subject presence image P1a is captured, the composition is displayed in the semi-transparent display mode for the user. The subject presence image P1a can be captured while the background image P2 is visually recognized, whereby the composition of the subject composite image P6 is determined in consideration of the positional relationship between the composition background image P2 and the subject S. be able to. That is, when the subject existence image P1a is captured, not only the subject presence image P1a but also the composition of the subject composite image P6 generated after the imaging can be determined, and the subject composite image P6 is generated. It can be performed more simply.
In particular, when it is determined that the non-flatness of the background portion of the subject existing image P1a displayed as the live view image is equal to or less than a predetermined value, the designated composition background image P2 is displayed in a translucent display manner. 11, the composition background image P <b> 2 displayed in the semi-transparent display mode can be appropriately viewed by the user. That is, for example, when the subject S is photographed against a background with a large amount of feature, if the composition background image P2 is displayed overlaid on the live view image even in the translucent display mode, the subject existing image P1a is displayed. The background portion pixels of the subject S and the pixels of the composition background image P2 are mixed, making it difficult to visually recognize the composition background image P2 and determining the composition of the subject composition image P6. On the other hand, for example, when the subject S is imaged with a background having a small amount of feature, such as a plain background with a single color, the composite background image P2 is displayed in a semi-transparent display mode so as to be superimposed on the live view image. In addition, the composition background image P2 displayed on the background side of the subject S in the subject presence image P1a can be properly recognized, and the composition of the subject composition image P6 can be easily determined.

さらに、被写体存在画像P1aの撮像の際の被写体Sの画角内における位置を基準として、被写体画像Aと合成用背景画像P2の合成を行うので、生成される被写体合成画像P6内の被写体画像Aの位置が、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における位置と略等しくなるように調整して当該被写体画像Aと合成用背景画像P2とを合成させることができ、被写体合成画像P6の生成をより簡便に行うことができる。即ち、被写体存在画像P1aの撮像の際に被写体Sの画角内における位置を調整しておくだけで、合成用背景画像P2における被写体画像Aの合成位置を自動的に決定することができ、被写体存在画像P1aの撮像後に、合成用背景画像P2と被写体Sとの位置関係を考慮して被写体合成画像P6の構図の決定を行う必要がなくなる。   Further, since the subject image A and the synthesis background image P2 are synthesized based on the position within the angle of view of the subject S when the subject presence image P1a is imaged, the subject image A in the generated subject synthesized image P6 is used. Can be adjusted so that the position of the subject image A is substantially equal to the position within the angle of view of the subject image A when the subject presence image P1a is captured, and the subject image A and the composition background image P2 can be combined. The composite image P6 can be generated more easily. In other words, by simply adjusting the position of the subject S within the angle of view when capturing the subject presence image P1a, the composition position of the subject image A in the composition background image P2 can be automatically determined. There is no need to determine the composition of the subject composite image P6 after taking the presence image P1a in consideration of the positional relationship between the composition background image P2 and the subject S.

また、被写体存在画像P1aの撮像の際の被写体Sの画角内における大きさを基準として、被写体画像Aと合成用背景画像P2の合成を行うので、生成される被写体合成画像P6内の被写体画像Aの大きさが、被写体存在画像P1aの撮像の際の被写体画像Aの画角内における大きさと略等しくなるように調整して当該被写体画像Aと合成用背景画像P2とを合成させることができ、被写体合成画像P6の生成をより簡便に行うことができる。即ち、被写体存在画像P1aの撮像の際に被写体Sの画角内における大きさを調整しておくだけで、合成用背景画像P2における被写体画像Aの合成サイズを自動的に決定することができ、被写体存在画像P1aの撮像後に、合成用背景画像P2と被写体Sとの大小関係を考慮して被写体合成画像P6の構図の決定を行う必要がなくなる。   Further, since the subject image A and the synthesis background image P2 are synthesized based on the size of the subject S within the angle of view when the subject presence image P1a is imaged, the subject image in the generated subject synthesized image P6 is used. The subject image A can be combined with the composition background image P2 by adjusting the size of A so that it is substantially equal to the size of the subject image A within the angle of view when the subject existing image P1a is captured. The subject composite image P6 can be generated more easily. That is, the composite size of the subject image A in the composition background image P2 can be automatically determined simply by adjusting the size of the subject S within the angle of view when capturing the subject existing image P1a. It is not necessary to determine the composition of the subject composite image P6 after taking the subject presence image P1a in consideration of the magnitude relationship between the composition background image P2 and the subject S.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
以下に、撮像装置100の変形例について説明する。
ここで、撮像装置100の変形例は、以下に詳細に説明する以外の点で上記実施形態の撮像装置100と略同様の構成を成し、その説明は省略する
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
Below, the modification of the imaging device 100 is demonstrated.
Here, the modified example of the imaging device 100 has substantially the same configuration as the imaging device 100 of the above-described embodiment except for the details described below, and the description thereof is omitted.

<変形例1>
変形例1の撮像装置100は、被写体切り抜き処理にて、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定を行わない。即ち、被写体切り抜き処理にあっては、必ずしも被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定処理を行う必要がないことから、変形例1の撮像装置100は、撮像モードを予め特徴量の少ない背景をバックに被写体Sを撮像するモードに設定しておくことで、被写体切り抜き処理にて、当該被写体存在画像P1aの背景部分の非平坦度の判定処理を行わない。
<Modification 1>
The imaging apparatus 100 of the first modification does not determine whether or not the non-flatness of the background portion of the subject existing image P1a is equal to or less than a predetermined value in the subject clipping process. That is, in the subject clipping process, it is not always necessary to perform a determination process as to whether or not the non-flatness of the background portion of the subject existing image P1a is equal to or less than a predetermined value. By setting the imaging mode to a mode in which the subject S is imaged in the background with a small feature amount in advance, the non-flatness determination process for the background portion of the subject existing image P1a is performed in the subject clipping process. Absent.

次に、変形例1の撮像装置100による画像合成方法に係る被写体切り抜き処理について、図9及び図10を参照して説明する。
図9及び図10は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。
なお、以下の被写体切り抜き処理にあっては、特徴量の少ない背景をバックに被写体Sを撮像する場合について説明する。
Next, the subject clipping process according to the image composition method performed by the imaging apparatus 100 according to the first modification will be described with reference to FIGS. 9 and 10.
9 and 10 are flowcharts illustrating an example of operations related to the subject clipping process.
In the following subject clipping process, a case where the subject S is imaged with a background having a small feature amount as a background will be described.

図9に示すように、先ず、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=0を書き込む(ステップS101)。
次に、画像処理部8の背景指定判定部8aは、ユーザによる操作入力部12の所定操作に基づいて、記録媒体9aに記録されている複数の画像の中から所望の合成用背景画像P2(図6(a)参照)が選択指定されたか否かを判定する(ステップS102)。
ここで、合成用背景画像P2が選択指定されたと判定されると(ステップS102;YES)、中央制御部13は、画像メモリ5のフラグテーブル(図示略)に合成用背景画像指定フラグ=1を書き込む(ステップS103)。
As shown in FIG. 9, first, the central control unit 13 writes a composition background image designation flag = 0 in a flag table (not shown) of the image memory 5 (step S101).
Next, the background designation determination unit 8a of the image processing unit 8 selects a desired composition background image P2 (from the plurality of images recorded on the recording medium 9a based on a predetermined operation of the operation input unit 12 by the user. It is determined whether or not selection (see FIG. 6A) has been selected (step S102).
If it is determined that the composition background image P2 is selected and designated (step S102; YES), the central control unit 13 sets the composition background image designation flag = 1 in the flag table (not shown) of the image memory 5. Write (step S103).

次に、表示制御部10は、ライブビュー画像に重ねて、合成用背景画像P2の半透過の表示態様の画像(半透過の合成用背景画像P2´)及び撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させる(ステップS104)。
その後、表示制御部10は、レンズ部1、電子撮像部2及び撮像制御部3による被写体Sの撮像により順次生成された画像フレームに基づいてライブビュー画像を更新させる制御を行い(ステップS105)、中央制御部13は、ユーザにより操作入力部12のシャッタボタン12aが撮像指示操作されたか否かを判定する(ステップS106)。
Next, the display control unit 10 superimposes the live view image on the composite background image P2 in a semi-transparent display mode image (semi-transparent composite background image P2 ′) and an imaging instruction message (for example, “ Please take a picture "is displayed on the display screen 11a of the display unit 11 (step S104).
Thereafter, the display control unit 10 performs control to update the live view image based on the image frames sequentially generated by the imaging of the subject S by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 (step S105). The central control unit 13 determines whether or not the user has performed an imaging instruction operation on the shutter button 12a of the operation input unit 12 (step S106).

また、ステップS102にて、合成用背景画像P2が選択指定されていないと判定された場合には(ステップS102;NO)、表示制御部10は、ライブビュー画像に重ねて撮像指示メッセージ(例えば、「被写体を撮影してください」等)を表示部11の表示画面11aに表示させた後(ステップS107)、中央制御部13は、処理をステップS105に移行して、それ以降の処理を行う。   If it is determined in step S102 that the composition background image P2 is not selected and designated (step S102; NO), the display control unit 10 superimposes the live view image on an imaging instruction message (for example, After displaying “shoot a subject” or the like on the display screen 11a of the display unit 11 (step S107), the central control unit 13 shifts the processing to step S105 and performs the subsequent processing.

ステップS106にて、シャッタボタン12aが撮像指示操作されていないと判定されると(ステップS106;NO)、中央制御部13は、処理をステップS105に移行させて、それ以降の処理を、ステップS106にてシャッタボタン12aが撮像指示操作されたと判定されるまで(ステップS106;YES)、繰り返し実行する。   If it is determined in step S106 that the shutter button 12a has not been operated to perform an imaging instruction (step S106; NO), the central control unit 13 shifts the process to step S105 and performs the subsequent processes in step S106. Step S106 is repeatedly executed until it is determined that the shutter button 12a has been operated to instruct imaging (step S106; YES).

この後、ステップS106にて、シャッタボタン12aが撮像指示操作されたと判定されると(ステップS106;YES)、撮像制御部3は、被写体存在画像P1aの光学像を所定の撮像条件で電子撮像部2により撮像させる(ステップS106)。
そして、画像データ生成部4は、電子撮像部2から転送された被写体存在画像P1aの画像フレームに基づいて、被写体存在画像P1aのYUVデータを生成した後、当該YUVデータを画像メモリ5に一時記憶させる。
これにより、特徴量の少ない背景をバックに被写体S(例えば、「犬」等)が撮影された被写体存在画像P1aが生成される。
Thereafter, when it is determined in step S106 that the shutter button 12a has been instructed to perform an imaging instruction (step S106; YES), the imaging control unit 3 uses the electronic imaging unit to capture the optical image of the subject existing image P1a under a predetermined imaging condition. 2 (step S106).
Then, the image data generation unit 4 generates YUV data of the subject existing image P1a based on the image frame of the subject existing image P1a transferred from the electronic imaging unit 2, and then temporarily stores the YUV data in the image memory 5. Let
As a result, a subject presence image P1a in which the subject S (for example, “dog” or the like) is photographed with a background having a small feature amount is generated.

次に、図10に示すように、中央制御部13は、非平坦度演算部6及び画像処理部8に、被写体存在画像P1aから被写体画像Aを抽出するための抽出用背景画像を生成させる抽出用背景生成処理を行わせる(ステップS109)。
なお、抽出用背景生成処理は、上記実施形態で上述した内容と略同一であり、その詳細な説明は省略する。
Next, as shown in FIG. 10, the central control unit 13 causes the non-flatness calculation unit 6 and the image processing unit 8 to generate an extraction background image for extracting the subject image A from the subject existing image P1a. A background generation process is performed (step S109).
The extraction background generation process is substantially the same as the content described above in the above embodiment, and a detailed description thereof is omitted.

続けて、中央制御部13は、抽出用背景生成部8cに、抽出用背景生成が成功したか否かを判定させる(ステップS110)。
ここで、抽出用背景生成が成功したと判定されると(ステップS110;YES)、中央制御部13は、画像処理部8に、被写体存在画像P1aから被写体Sが含まれる被写体領域を検出する領域検出処理を行わせる(ステップS111)。
なお、領域検出処理は、上記実施形態で上述した内容と略同一であり、その詳細な説明は省略する。
Subsequently, the central control unit 13 causes the extraction background generation unit 8c to determine whether or not the extraction background generation has succeeded (step S110).
Here, if it is determined that the extraction background generation is successful (step S110; YES), the central control unit 13 causes the image processing unit 8 to detect a subject region including the subject S from the subject existing image P1a. A detection process is performed (step S111).
Note that the area detection process is substantially the same as the contents described above in the above embodiment, and a detailed description thereof will be omitted.

一方、ステップS110にて、抽出用背景生成が成功しなかったと判定されると(ステップS110;NO)、表示制御部10は、被写体Sの切り抜きの失敗に係る所定のメッセージ(例えば、「被写体の切り抜きに失敗しました」等)を表示部11の表示画面11aに表示させて(ステップS112)、被写体切り抜き処理を終了する。   On the other hand, when it is determined in step S110 that the extraction background generation has not succeeded (step S110; NO), the display control unit 10 determines a predetermined message (for example, “subject of subject” “Cutout failed” etc.) is displayed on the display screen 11a of the display unit 11 (step S112), and the subject cutout process is terminated.

そして、領域検出処理(ステップS111)の終了後、中央制御部13は、マスク生成部8eに、被写体領域の検出が成功したか否かを判定させる(ステップS113)。
ここで、被写体領域の検出が成功したと判定されると(ステップS113;YES)、中央制御部13は、画像処理部8の切抜画像生成部8fに、クロマキー技術を利用して、領域検出処理にて生成されたマスク画像を用いて被写体存在画像P1aから被写体画像Aを切り出して、所定の単一色背景画像P5と合成して被写体切り抜き画像P4(図7(b)参照)の画像データを生成させる(ステップS114)。
Then, after the region detection process (step S111) ends, the central control unit 13 causes the mask generation unit 8e to determine whether or not the detection of the subject region has succeeded (step S113).
Here, if it is determined that the detection of the subject region has succeeded (step S113; YES), the central control unit 13 uses the chroma key technique to perform the region detection process in the cut-out image generation unit 8f of the image processing unit 8. The subject image A is cut out from the subject existing image P1a using the mask image generated in step S1 and is combined with a predetermined single color background image P5 to generate image data of the subject cutout image P4 (see FIG. 7B). (Step S114).

その後、中央制御部13は、合成用背景画像指定フラグ=0であるか否かを判定する(ステップS115)。
ここで、合成用背景画像指定フラグ=0であると判定されると(ステップS115;YES)、中央制御部13は、画像処理部8の画像合成部8gに、被写体切り抜き画像P4の被写体画像Aと指定済みの合成用背景画像P2とを合成して被写体合成画像P6(図7(c)参照)の画像データを生成させる(ステップS116)。
Thereafter, the central control unit 13 determines whether or not the composition background image designation flag = 0 (step S115).
If it is determined that the composition background image designation flag = 0 (step S115; YES), the central control unit 13 sends the subject image A of the subject cutout image P4 to the image composition unit 8g of the image processing unit 8. And the designated synthesis background image P2 are combined to generate image data of the subject composite image P6 (see FIG. 7C) (step S116).

その後、表示制御部10は、画像合成部8gにより生成された被写体合成画像P6の画像データに基づいて、合成用背景画像P2に被写体画像Aが合成された被写体合成画像P6を表示部11の表示画面11aに表示させる(ステップS117;図7(c)参照)。
次に、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体合成画像P6の画像データとを対応付けて、当該被写体合成画像P6の画像データの拡張子を「.jpg」として一ファイルで保存させる(ステップS118)。
これにより、被写体切り抜き処理を終了する。
Thereafter, the display control unit 10 displays the subject composite image P6 in which the subject image A is combined with the composition background image P2 on the display unit 11 based on the image data of the subject composite image P6 generated by the image composition unit 8g. It is displayed on the screen 11a (step S117; refer to FIG. 7C).
Next, the recording medium control unit 9 associates the mask image data with the image data of the subject composite image P6 in a predetermined storage area of the recording medium 9a, and sets the extension of the image data of the subject composite image P6 to “ .jpg "is saved as one file (step S118).
Thereby, the subject clipping process is completed.

一方、ステップS115にて、合成用背景画像指定フラグ=0でないと判定されると(ステップS115;NO)、表示制御部10は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データに基づいて、所定の単一色背景画像P5に被写体画像Aが合成された被写体切り抜き画像P4を表示部11の表示画面11aに表示させる(ステップS119)。
その後、記録媒体制御部9は、記録媒体9aの所定の記憶領域に、マスク画像データと被写体切り抜き画像P4の画像データとを対応付けて、当該被写体切り抜き画像P4の画像データの拡張子を「.jpe」として一ファイルで保存させた後(ステップS120)、被写体切り抜き処理を終了する。
On the other hand, when it is determined in step S115 that the composition background image designation flag is not 0 (step S115; NO), the display control unit 10 displays the image data of the subject cutout image P4 generated by the cutout image generation unit 8f. The subject cutout image P4 obtained by combining the subject image A with the predetermined single color background image P5 is displayed on the display screen 11a of the display unit 11 (step S119).
Thereafter, the recording medium control unit 9 associates the mask image data with the image data of the subject cutout image P4 in a predetermined storage area of the recording medium 9a, and sets the extension of the image data of the subject cutout image P4 to “. jpe "is saved as one file (step S120), and the subject clipping process is terminated.

また、ステップS113にて、被写体領域の検出が成功しなかったと判定されると(ステップS113;NO)、中央制御部13は、処理をステップS112に移行させて、被写体Sの切り抜きの失敗に係る所定のメッセージを表示部11の表示画面11aに表示させた後(ステップS112)、被写体切り抜き処理を終了する。   If it is determined in step S113 that the detection of the subject area has not been successful (step S113; NO), the central control unit 13 shifts the process to step S112 and relates to the failure in clipping the subject S. After a predetermined message is displayed on the display screen 11a of the display unit 11 (step S112), the subject clipping process is terminated.

従って、変形例1の撮像装置100によれば、被写体切り抜き処理にて、被写体存在画像P1aの背景部分の非平坦度が所定値以下であるか否かの判定を行う必要がないので、当該被写体切り抜き処理をより簡略化することができ、当該撮像装置100の各部に係る処理負担の軽減を図ることができる。
さらに、被写体切り抜き処理の処理速度の高速化を図ることができ、当該被写体切り抜き処理から他の処理に移行するための待機時間などをより短くすることができ、より使い勝手の良い撮像装置100を提供することができる。
Therefore, according to the imaging apparatus 100 of the first modification, it is not necessary to determine whether or not the non-flatness of the background portion of the subject existing image P1a is equal to or less than a predetermined value in the subject clipping process. The clipping process can be further simplified, and the processing burden on each part of the imaging apparatus 100 can be reduced.
Furthermore, it is possible to increase the processing speed of the subject clipping process, to shorten the waiting time for shifting from the subject clipping process to another process, and to provide an imaging device 100 that is easier to use. can do.

また、上記実施形態にあっては、記録媒体制御部(記録制御手段)9は、切抜画像生成部8fにより生成された被写体切り抜き画像P4の画像データと画像合成部8gにより生成された被写体合成画像P6の画像データとを対応付けて記録媒体9aに記録させても良い。
これによって、被写体Sを同一とする複数の画像ファイルの管理を容易化することができ、より使い勝手の良い撮像装置100を提供することができる。
In the above embodiment, the recording medium control unit (recording control unit) 9 includes the image data of the subject cutout image P4 generated by the cutout image generation unit 8f and the subject composite image generated by the image composition unit 8g. The image data of P6 may be associated and recorded on the recording medium 9a.
Accordingly, it is possible to facilitate the management of a plurality of image files having the same subject S, and it is possible to provide the imaging device 100 that is easier to use.

さらに、上記実施形態にあっては、抽出用背景画像の生成の際に、被写体存在画像P1aの周縁部分の複数の画像ブロックB、…の非平坦度の判定処理として、各画像ブロックBの特徴点及びブロック内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の少なくとも一方を判定することで画像ブロックBの非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に抽出用背景画像を生成するようにしても良い。
加えて、ライブビュー画像Pbが表示されている際に、ライブビュー画像Pbの画像フレームの特徴点及びブロック内の画素値のばらつき量の両方について所定値以下であるか否かを判定するようにしたが、これに限られるものではなく、特徴点及びばらつき量の少なくとも一方を判定することで背景画像の非平坦度の判定を行って、非平坦度が所定値以下であると判定された場合に背景画像と略同一の背景内に被写体Sが存在する被写体存在画像P1aを撮像するようにしても良い。
Further, in the above-described embodiment, when the background image for extraction is generated, the characteristics of each image block B are used as the determination processing of the non-flatness of the plurality of image blocks B in the peripheral portion of the subject existing image P1a. Although it is determined whether or not both the point and the variation amount of the pixel value in the block are equal to or less than the predetermined value, the present invention is not limited to this, and by determining at least one of the feature point and the variation amount The non-flatness of the image block B may be determined, and the extraction background image may be generated when it is determined that the non-flatness is equal to or less than a predetermined value.
In addition, when the live view image Pb is displayed, it is determined whether or not both the feature point of the image frame of the live view image Pb and the variation amount of the pixel value in the block are equal to or less than a predetermined value. However, the present invention is not limited to this. When the non-flatness of the background image is determined by determining at least one of the feature point and the variation amount, and the non-flatness is determined to be equal to or less than a predetermined value. Alternatively, the subject presence image P1a in which the subject S exists in the substantially same background as the background image may be captured.

また、上記実施形態にあっては、マスク画像データと被写体切り抜き画像P4の画像データを対応付けて一ファイルで保存させるようにしたが、マスク画像データと被写体存在画像P1aの画像データを対応付けて一ファイルで記録媒体(記録手段)9aに保存させるようにしても良い。この場合、当該ファイルの再生には、被写体存在画像P1aを再生させるモードと、再生時にマスク画像データを適用して被写体切り抜き画像P4を合成して表示する2モードを用意しておくとよい。   In the above embodiment, the mask image data and the image data of the subject cutout image P4 are associated with each other and saved as one file. However, the mask image data and the image data of the subject existing image P1a are associated with each other. One file may be stored in the recording medium (recording means) 9a. In this case, for the reproduction of the file, it is preferable to prepare a mode for reproducing the subject existing image P1a and two modes for combining and displaying the subject cutout image P4 by applying the mask image data during reproduction.

なお、上記実施形態にあっては、第1画像として被写体画像を、また、第2画像として合成用背景画像を例示したが、これに限られるものではなく、例えば、第1画像としてフレーム画像を、第2画像として人物の顔画像等を用いても良い。即ち、予め人物の顔画像を指定しておき、所定形状のフレーム画像を切り抜いて生成した後、これら画像どうしを合成するようにしても良い。   In the above embodiment, the subject image is illustrated as the first image, and the background image for synthesis is illustrated as the second image. However, the present invention is not limited to this. For example, a frame image is used as the first image. A human face image or the like may be used as the second image. That is, a person's face image may be designated in advance, a frame image having a predetermined shape may be cut out and generated, and these images may be combined.

また、上記実施形態にあっては、合成用背景画像P2が指定されている場合に、ライブビュー画像に重ねて半透過の合成用背景画像P2を表示するようにしたが、表示方法はこれに限らず、指定された合成用背景画像P2が目視できればよい。例えば、ライブビュー画像上に合成用背景画像P2を表示するための枠を表示し、その中に指定された合成用背景画像P2を表示するようにしても良い。   In the above embodiment, when the synthesis background image P2 is designated, the semi-transparent synthesis background image P2 is displayed over the live view image. Not limited to this, it is only necessary to visually recognize the designated composition background image P2. For example, a frame for displaying the composition background image P2 may be displayed on the live view image, and the designated composition background image P2 may be displayed in the frame.

また、第1画像は、連続する撮像によって得られた連写画像又は動画像のそれぞれのフレームから被写体領域を抽出した被写体画像あり、それら複数の被写体画像毎に合成用背景画像に合成し、複数の合成画像を生成するようにしても良い。
また、第2画像として動画像を用いても良い。即ち、ライブビュー画像に重ねて動画像を再生表示させて、動画像を構成する少なくとも1つのフレーム画像に被写体画像を合成するようにしても良い。
Further, the first image is a subject image obtained by extracting a subject region from each frame of a continuous shot image or a moving image obtained by continuous imaging, and a plurality of subject images are synthesized with a synthesis background image, The composite image may be generated.
A moving image may be used as the second image. That is, a moving image may be reproduced and displayed on the live view image, and the subject image may be combined with at least one frame image constituting the moving image.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。   Furthermore, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto.

加えて、上記実施形態にあっては、指定手段、撮像制御手段、被写体抽出手段、合成手段としての機能を、中央制御部13、撮像制御部3、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、指定処理ルーチン、撮像制御処理ルーチン、被写体抽出処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、指定処理ルーチンにより中央制御部13のCPUを、第1画像と合成すべき第2画像を指定する指定手段として機能させるようにしても良い。また、撮像制御処理ルーチンにより中央制御部13のCPUを、第2画像の指定後、当該第2画像が目視可能な状態で被写体存在画像P1aを撮像手段により撮像させる撮像制御手段として機能させるようにしても良い。また、被写体抽出処理ルーチンにより中央制御部13のCPUを、撮像手段により撮像された被写体存在画像P1aから被写体Sが含まれる被写体領域を第1画像として抽出する被写体抽出手段として機能させるようにしても良い。また、合成指定処理ルーチンにより中央制御部13のCPUを、被写体抽出手段により抽出された第1画像と指定手段により指定された第2画像とを合成して合成画像を生成する合成手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the designation unit, the imaging control unit, the subject extraction unit, and the synthesis unit are realized by driving the central control unit 13, the imaging control unit 3, and the image processing unit 8. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the CPU of the central control unit 13.
That is, a program including a designation processing routine, an imaging control processing routine, a subject extraction processing routine, and a composition processing routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 13 may function as a designation unit that designates the second image to be combined with the first image by a designation processing routine. Further, the CPU of the central control unit 13 is caused to function as an imaging control unit that causes the imaging unit to capture the subject existing image P1a in a state where the second image is visible after the second image is designated by the imaging control processing routine. May be. Further, the CPU of the central control unit 13 may be caused to function as a subject extraction unit that extracts a subject region including the subject S from the subject presence image P1a captured by the imaging unit as a first image by the subject extraction processing routine. good. Further, the CPU of the central control unit 13 is caused to function as a combining unit that generates a combined image by combining the first image extracted by the subject extracting unit and the second image specified by the specifying unit by the combining specifying processing routine. You may do it.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8a 背景指定判定部
8b 非平坦度判定部
8f 切抜画像生成部
8g 画像合成部
9 記録媒体制御部
9a 記録媒体
10 表示制御部
11 表示部
13 中央制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Lens part 2 Electronic imaging part 3 Imaging control part 8 Image processing part 8a Background designation determination part 8b Non-flatness determination part 8f Cutout image generation part 8g Image composition part 9 Recording medium control part 9a Recording medium 10 Display control part 11 Display unit 13 Central control unit

Claims (9)

第1画像と合成すべき第2画像を指定する指定手段と、
被写体を撮像することにより、被写体存在画像を取得する撮像手段と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段と、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記撮像手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段と、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段と、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段と、
を備えたことを特徴とする撮像装置。
Designating means for designating a second image to be combined with the first image;
Imaging means for acquiring a subject presence image by imaging a subject;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining unit determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying unit is transmitted through the subject existing image acquired by the imaging unit. Display control means for displaying an image of the state on the display means;
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
An imaging apparatus comprising:
前記表示制御手段は、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記指定手段により指定された前記第2画像を半透過の表示態様で前記表示手段に表示させることを特徴とする請求項1に記載の撮像装置。
The display control means includes
When the non-flatness determining means determines that the non-flatness is less than or equal to a predetermined value, the display means displays the second image specified by the specifying means in a semi-transparent display mode. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記指定手段により前記第2画像が指定されたか否かを判定する指定判定手段を更に備え、
前記合成手段は、更に、
前記指定判定手段により前記第2画像が指定されたと判定された場合に、前記第1画像と前記第2画像の合成とを合成した合成画像を生成することを特徴とする請求項1又は2に記載の撮像装置。
Further comprising designation determination means for determining whether or not the second image is designated by the designation means;
The synthesis means further includes:
The composite image obtained by combining the first image and the second image is generated when it is determined that the second image is specified by the specification determination unit. The imaging device described.
前記合成手段は、更に、
前記撮像手段による前記被写体存在画像の撮像の際の前記被写体の画角内における位置を基準として、前記第1画像と前記第2画像の合成を行うことを特徴とする請求項1〜3の何れか一項に記載の撮像装置。
The synthesis means further includes:
The first image and the second image are combined based on a position within the angle of view of the subject when the subject-existing image is captured by the imaging unit. The imaging device according to claim 1.
前記合成手段は、更に、
前記撮像手段による前記被写体の撮像の際の前記被写体の画角内における大きさを基準として、前記第1画像と前記第2画像の合成を行うことを特徴とする請求項1〜4の何れか一項に記載の撮像装置。
The synthesis means further includes:
5. The composition of claim 1, wherein the first image and the second image are synthesized based on a size of the subject within an angle of view when the subject is imaged by the imaging unit. The imaging device according to one item.
前記被写体抽出手段により抽出された前記被写体領域と前記合成手段により生成された前記合成画像とを対応づけて記録手段に記録させる記録制御手段を更に備えることを特徴とする請求項1〜5の何れか一項に記載の撮像装置。   6. The recording control unit according to claim 1, further comprising: a recording control unit that causes the recording unit to record the subject area extracted by the subject extracting unit and the synthesized image generated by the synthesizing unit in association with each other. The imaging device according to claim 1. 前記撮像手段は、前記被写体を連続して複数回撮像することにより、複数の前記被写体存在画像を取得し、
前記被写体抽出手段は、前記撮像手段により取得された複数の前記被写体存在画像毎に被写体が含まれる被写体領域を抽出し、
前記合成手段は、前記被写体抽出手段によって抽出された被写体領域それぞれを前記第2画像に合成し、複数の合成画像を生成することを特徴とする請求項1〜6の何れか一項に記載の撮像装置。
The imaging means acquires a plurality of the subject presence images by continuously imaging the subject a plurality of times,
The subject extracting means extracts a subject area including a subject for each of the plurality of subject existing images acquired by the imaging means;
The said synthetic | combination means synthesize | combines each object area | region extracted by the said subject extraction means with the said 2nd image , and produces | generates a some synthetic | combination image, It is characterized by the above-mentioned. Imaging device.
背景内に被写体が存在する被写体存在画像を取得する取得手段を備える撮像装置を用いた画像合成方法であって、
第1画像と合成すべき第2画像を指定する処理と、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する処理と、
前記非平坦度が所定値以下であると判定された場合に、取得された被写体存在画像に対し、指定された第2画像が透過した状態の画像を表示手段に表示させる処理と、
前記表示手段に画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する処理と、
抽出された前記第1画像と指定された前記第2画像とを合成して合成画像を生成する処理と、
を実行させることを特徴とする画像合成方法。
An image composition method using an imaging device including an acquisition unit that acquires a subject existing image in which a subject is present in a background,
A process for designating a second image to be combined with the first image;
A process of determining whether or not the non-flatness of the background portion of the subject existing image is a predetermined value or less;
When the non-flatness is determined to be less than or equal to a predetermined value, a process for displaying on the display means an image in which the designated second image is transmitted with respect to the acquired subject existing image;
When a predetermined instruction is detected while an image is displayed on the display means, a process for extracting a subject area including a subject from the subject existing image as the first image;
A process of generating a composite image by combining the extracted first image and the designated second image;
An image composition method characterized by causing
背景内に被写体が存在する被写体存在画像を取得する取得手段を備える撮像装置のコンピュータを、
第1画像と合成すべき第2画像を指定する指定手段、
前記被写体存在画像の背景部分の非平坦度が所定値以下であるか否かを判定する非平坦度判定手段、
前記非平坦度判定手段により前記非平坦度が所定値以下であると判定された場合に、前記取得手段により取得された被写体存在画像に対し、前記指定手段によって指定された第2画像が透過した状態の画像を表示手段に表示させる表示制御手段、
前記表示制御手段により画像が表示されている間に所定の指示を検出すると、前記被写体存在画像から被写体が含まれる被写体領域を前記第1画像として抽出する被写体抽出手段、
前記被写体抽出手段により抽出された前記第1画像と前記指定手段により指定された前記第2画像とを合成して合成画像を生成する合成手段、
として機能させることを特徴とするプログラム。
A computer of an imaging apparatus including an acquisition unit that acquires a subject presence image in which a subject is present in the background,
Designating means for designating a second image to be synthesized with the first image;
Non-flatness determining means for determining whether or not the non-flatness of the background portion of the subject existing image is equal to or less than a predetermined value;
When the non-flatness determining means determines that the non-flatness is equal to or less than a predetermined value , the second image specified by the specifying means is transmitted through the subject existing image acquired by the acquiring means. Display control means for displaying an image of the state on the display means,
Subject extraction means for extracting a subject area including a subject from the subject presence image as the first image when a predetermined instruction is detected while the image is displayed by the display control means;
Combining means for generating a combined image by combining the first image extracted by the subject extracting means and the second image specified by the specifying means;
A program characterized by functioning as
JP2009294330A 2009-12-25 2009-12-25 Imaging apparatus, image composition method, and program Expired - Fee Related JP5493839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009294330A JP5493839B2 (en) 2009-12-25 2009-12-25 Imaging apparatus, image composition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009294330A JP5493839B2 (en) 2009-12-25 2009-12-25 Imaging apparatus, image composition method, and program

Publications (3)

Publication Number Publication Date
JP2011135437A JP2011135437A (en) 2011-07-07
JP2011135437A5 JP2011135437A5 (en) 2013-02-14
JP5493839B2 true JP5493839B2 (en) 2014-05-14

Family

ID=44347672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009294330A Expired - Fee Related JP5493839B2 (en) 2009-12-25 2009-12-25 Imaging apparatus, image composition method, and program

Country Status (1)

Country Link
JP (1) JP5493839B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6423612B2 (en) * 2014-04-28 2018-11-14 オリンパス株式会社 Information device, image processing method, and program
JP7256719B2 (en) * 2019-09-13 2023-04-12 富士フイルム株式会社 Image processing device, imaging device, image processing method, and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001197345A (en) * 2000-01-11 2001-07-19 Fuji Photo Film Co Ltd Digital camera, its picture display method and computer- readable recording medium
JP2003189160A (en) * 2001-12-13 2003-07-04 Fuji Photo Film Co Ltd Digital camera

Also Published As

Publication number Publication date
JP2011135437A (en) 2011-07-07

Similar Documents

Publication Publication Date Title
JP4760973B2 (en) Imaging apparatus and image processing method
JP5051156B2 (en) Image processing apparatus and program
JP5105550B2 (en) Image composition apparatus and program
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP4947136B2 (en) Image processing apparatus, image processing method, and program
JP5359856B2 (en) Image composition apparatus, image composition method, and program
JP2010088105A (en) Imaging apparatus and method, and program
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP5402166B2 (en) Image composition apparatus and program
JP5267279B2 (en) Image composition apparatus and program
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP5131399B2 (en) Image processing apparatus, image processing method, and program
JP2013149285A (en) Imaging apparatus and method, and program
JP2011041041A (en) Imaging apparatus, imaging method and program
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP2011182014A (en) Image pickup device, image processing method and program
JP5565227B2 (en) Image processing apparatus, image processing method, and program
JP5494537B2 (en) Image processing apparatus and program
JP2010278701A (en) Image combining device, and image combining method and program
JP5206421B2 (en) Digital camera, photographing recording method, and photographing control program
JP5310361B2 (en) Imaging apparatus, image processing method, and program
JP5402361B2 (en) Imaging apparatus, image processing method, and program
JP5381207B2 (en) Image composition apparatus and program
JP4803319B2 (en) Imaging apparatus, image processing method, and program
JP2011175663A (en) Imaging device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121219

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R150 Certificate of patent or registration of utility model

Ref document number: 5493839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees