JP5402166B2 - Image composition apparatus and program - Google Patents
Image composition apparatus and program Download PDFInfo
- Publication number
- JP5402166B2 JP5402166B2 JP2009086169A JP2009086169A JP5402166B2 JP 5402166 B2 JP5402166 B2 JP 5402166B2 JP 2009086169 A JP2009086169 A JP 2009086169A JP 2009086169 A JP2009086169 A JP 2009086169A JP 5402166 B2 JP5402166 B2 JP 5402166B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving
- subject
- unit
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、複数の画像を合成する画像合成装置及びプログラムに関する。 The present invention relates to an image composition apparatus and a program for synthesizing a plurality of images.
従来、合成用画像と背景用画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。 Conventionally, a technique for generating a composite image by combining a composite image with a background image or a frame image is known (see, for example, Patent Document 1).
しかしながら、背景用画像が動画像の場合、当該背景用画像に対する合成用の静止画像の合成位置を設定しても、合成用の静止画像が最初に設定された合成位置に固定された状態の動画像が単に生成されるに過ぎず、興趣に欠ける画像となってしまう。 However, if the background image is a moving image, the moving image in a state where the composition still image is fixed at the initially set composition position even if the composition position of the composition still image with respect to the background image is set. The image is merely generated, and the image is not interesting.
そこで、本発明の課題は、合成された静止画像に動きを与えることができ、興趣性の高い画像を生成することができる画像合成装置及びプログラムを提供することである。 Therefore, an object of the present invention is to provide an image composition device and a program that can give a motion to a synthesized still image and can generate a highly interesting image.
上記課題を解決するため、請求項1に記載の発明の画像合成装置は、背景用の動画像及び当該動画像と合成すべき静止画像を取得する取得手段と、この取得手段により取得された動画像における動体を特定する特定手段と、この特定手段によって特定された動体の動き情報を検出する検出手段と、この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成手段と、を備え、前記合成手段は、前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成することを特徴としている。 In order to solve the above-described problem, the image composition device according to the first aspect of the present invention includes an acquisition unit that acquires a background moving image and a still image to be combined with the moving image, and a moving image acquired by the acquisition unit. Specifying means for specifying a moving object in an image; detecting means for detecting motion information of the moving object specified by the specifying means; and based on the motion information detected by the detecting means, the still image is converted into the moving image for background Synthesis means for synthesizing the still image and the moving image so as to operate on the image to generate a synthesized moving image, wherein the synthesizing means has a synthesis position of the still image in the moving image. in the case body is a position including the, characterized in that synthesizing said still image and the moving image to displace in response to the still image in the moving object motion information in the moving image There.
請求項2に記載の発明は、請求項1に記載の画像合成装置において、
前記動画像を構成する複数の画像フレームのうち、何れか一の画像フレームにおける前記静止画像の合成位置を指定する指定手段を更に備え、前記合成手段は、前記複数の画像フレームのうち、前記一の画像フレームにおいては、前記指定手段によって指定された合成位置に前記静止画像を合成し、且つ、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動きに合わせて変位させるように前記静止画像を合成することを特徴としている。
According to a second aspect of the present invention, in the image composition device according to the first aspect,
The image processing apparatus further includes designation means for designating a synthesis position of the still image in any one of the plurality of image frames constituting the moving image, and the synthesis means includes the one of the plurality of image frames. In the image frame, the still image is synthesized at the synthesis position designated by the designation unit, and in each image frame other than the one image frame, the still image synthesized in the one image frame. On the other hand, the still image is synthesized so as to be displaced according to the movement of the moving body.
請求項3に記載の発明は、請求項2に記載の画像合成装置において、
前記合成手段は、前記指定手段によって指定された合成位置が、前記動画像における動体を含む位置であった場合に、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動き情報に応じて変位させるように前記静止画像を合成することを特徴としている。
According to a third aspect of the present invention, in the image composition device according to the second aspect,
The synthesizing unit synthesizes the one image frame in each image frame other than the one image frame when the synthesis position designated by the designation unit is a position including a moving object in the moving image. The still image is synthesized so that the still image is displaced in accordance with movement information of the moving object.
請求項4に記載の発明は、請求項2又は3に記載の画像合成装置において、
前記検出手段は、前記複数の画像フレームのうち、少なくとも一の隣合う画像フレーム間の動体の動き情報を検出し、前記検出手段によって検出された前記少なくとも一の隣合う画像フレーム間の動体の動き情報に基づいて、前記一の画像フレーム以外の各画像フレームにおける前記静止画像の合成位置を設定する合成位置設定手段を更に備えることを特徴としている。
According to a fourth aspect of the present invention, in the image composition device according to the second or third aspect,
The detection means detects movement information of a moving object between at least one adjacent image frame among the plurality of image frames, and a movement of the moving object between the at least one adjacent image frames detected by the detection means. The image processing apparatus further includes a combination position setting unit that sets a combination position of the still image in each image frame other than the one image frame based on the information.
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像合成装置において、
前記静止画像は、背景内に被写体が存在する被写体存在画像から被写体が含まれる被写体領域を抽出した画像であることを特徴としている。
The invention according to
The still image is an image obtained by extracting a subject area including a subject from a subject existing image in which a subject is present in a background.
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像合成装置において、
前記動体の動き情報は、動体の位置の変化情報、大きさの変化情報及び回転角度の変化情報のうち少なくとも1つを含むことを特徴としている。
The invention according to
The motion information of the moving object includes at least one of position change information, size change information, and rotation angle change information of the moving object.
請求項7に記載の発明のプログラムは、画像合成装置のコンピュータを、背景用の動画像及び当該動画像と合成すべき静止画像を取得する取得手段、この取得手段により取得された動画像における動体を特定する特定手段、この特定手段によって特定された動体の動き情報を検出する検出手段、この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成制御手段、として機能させ、前記合成手段は、前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成することを特徴としている。 According to a seventh aspect of the present invention, there is provided a program for an image synthesizing apparatus, wherein a computer of an image synthesizing apparatus obtains a moving image for background and a still image to be synthesized with the moving image, and a moving object in the moving image obtained by the obtaining unit. Identification means for identifying the moving object, detection means for detecting the motion information of the moving object identified by the identification means, and operating the still image on the background moving image based on the motion information detected by the detection means And combining the still image and the moving image so as to generate a combined moving image, and the combining unit includes a moving object in the moving image at a combining position of the still image in the moving image. If the position, the still image and synthesizing the said video image to displace in response to the still image in the moving object motion information in the moving image It is a symptom.
本発明によれば、動画像を背景として合成された静止画像に動きを与えることができ、興趣性の高い合成動画を生成することができる。 ADVANTAGE OF THE INVENTION According to this invention, a motion can be given to the still image synthesize | combined using the moving image as a background, and a synthetic animation with high interest property can be produced | generated.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
本実施形態の撮像装置100は、背景用の動画像P4(図5参照)における動体B(図5参照)の動き情報を検出し、検出された動き情報に基づいて、動体Bの動きに合わせて合成用の静止画像P3の被写体領域S(図3(c)参照)を所定動作させるように当該静止画像P3と動画像P4とを合成して合成動画M(図10(b)参照)を生成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、動き検出部6と、画像処理部7と、記録媒体8と、表示制御部9と、表示部10と、操作入力部11と、CPU12とを備えている。
また、撮像制御部3と、動き検出部6と、画像処理部7と、CPU12は、例えば、カスタムLSI1Aとして設計されている。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an
The
Specifically, as illustrated in FIG. 1, the
In addition, the imaging control unit 3, the
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The
Although not shown, the
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
The
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行う。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the
In addition, the imaging control unit 3 performs adjustment control of conditions when imaging a subject such as AF (automatic focusing process), AE (automatic exposure process), and AWB (automatic white balance).
このように構成されたレンズ部1、電子撮像部2及び撮像制御部3は、背景内に被写体が存在する被写体存在画像P1(図3(a)参照)や背景用の動画像P4(図5参照)を撮像する。
また、レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1の撮像後、当該被写体存在画像P1の撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3(図3(c)参照)の生成のための被写体非存在画像P2(図3(b)参照)を撮像する。
The
In addition, the
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an
画像メモリ5は、例えば、DRAM等により構成され、動き検出部6と、画像処理部7と、CPU12等によって処理されるデータ等を一時記憶する。
The
動き検出部6は、異なる時間に撮像された複数の画像を用いて、被写体の運動を解析する。具体的には、図1に示すように、動き検出部6は、特徴量演算部6aと、ブロックマッチング部6bとを備えている。
The
特徴量演算部6aは、被写体非存在画像P2を基準として、当該被写体非存在画像P2から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6aは、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The feature
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.
ブロックマッチング部6bは、被写体非存在画像P2と被写体存在画像P1の位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部6bは、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1内のどこに対応するか、つまり、被写体存在画像P1内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
The
また、ブロックマッチング部6bは、例えば、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、動画像P4を構成するユーザ所望の任意の基準画像フレーム(例えば、画像フレームf3)への被写体切り抜き画像P3における被写体領域Sの合成位置が指定入力されると、当該合成位置をテンプレートとして、当該基準画像フレームと隣合う画像フレーム(例えば、基準画像フレームの1つ前の画像フレームf2)内にて当該テンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった基準画像フレームと当該基準画像フレームの1つ前の画像フレームとの間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、算出された複数の動きベクトルの各々について、何れか一の動きベクトルを評価対象として他の動きベクトルと比較して当該評価対象の動きベクトルに対して投票するか否かを決定し、一の画像フレームにおける動体Bの動きベクトルを多数決により算出する。
さらに、動体Bの動きベクトルが算出された画像フレーム(例えば、画像フレームf2)と隣合う画像フレーム(例えば、基準画像フレームの二つ前の画像フレームf1)に対しても、上記と同様の処理を行って、当該画像フレームの動体Bの動きベクトルを算出する。これらの処理を動画像P4を構成する基準画像フレーム以外の全ての画像フレーム(例えば、画像フレームf1,f2,f4,f5)に対して行うことで、各画像フレームf1〜f5における動体Bの動きベクトルを算出する。
Further, the
Further, the same processing as described above is performed for an image frame (for example, the image frame f1 immediately before the reference image frame) adjacent to the image frame (for example, the image frame f2) for which the motion vector of the moving object B is calculated. To calculate the motion vector of the moving object B of the image frame. By performing these processes on all image frames (for example, image frames f1, f2, f4, and f5) other than the reference image frame constituting the moving image P4, the motion of the moving object B in each of the image frames f1 to f5 Calculate the vector.
画像処理部7は、被写体存在画像P1と被写体非存在画像P2との位置合わせを行う位置合わせ部7aを具備している。
位置合わせ部7aは、被写体非存在画像P2から抽出した特徴点に基づいて、被写体非存在画像P2に対する被写体存在画像P1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1を座標変換して被写体非存在画像P2と位置合わせを行う。
The
The
また、画像処理部7は、位置合わせ部7aにより位置合わせされた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像P1から被写体が含まれる被写体領域Sを抽出する被写体領域抽出部7bを具備している。
Further, the
また、画像処理部7は、被写体存在画像P1内で抽出された被写体領域Sの位置を特定して、被写体存在画像P1における被写体領域Sの位置を示す位置情報を生成する位置情報生成部7cを具備している。
ここで、位置情報としては、例えば、アルファマップが挙げられ、アルファマップとは、被写体存在画像P1の各画素について、被写体領域Sの画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
In addition, the
Here, as the position information, for example, an alpha map can be cited. The alpha map is a weight for alpha blending the image of the subject area S with respect to a predetermined background for each pixel of the subject existing image P1. It is expressed as a value (0 ≦ α ≦ 1).
また、画像処理部7は、生成されたアルファマップに基づいて、被写体存在画像P1の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き画像P3(図3(c)参照)の画像データを生成する切抜画像生成部7dを具備している。
これにより、切抜画像生成部7dは、背景と被写体とが存在する被写体存在画像P1から被写体が含まれる領域を切り抜いた被写体切り抜き画像P3を取得する。
Further, the
As a result, the cutout
また、画像処理部7は、複数の画像フレームf1〜f5からなる動画像P4と被写体切り抜き画像P3を合成用の静止画像として取得する取得部7eを具備している。
具体的には、取得部7eは、合成動画生成処理(後述)にて、記録媒体8に記録されている複数の画像データのうち、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて指示された動画像P4や被写体切り抜き画像P3の画像データを読み出して画像メモリ5に展開する。
In addition, the
Specifically, the acquisition unit 7e performs a predetermined operation of the selection determination button 11b of the
また、画像処理部7は、動画像P4の各画像フレームf1〜f5における被写体切り抜き画像P3の被写体領域Sの合成位置を設定する合成位置設定部7fを具備している。
具体的には、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて設定された動画像P4の基準画像フレーム(例えば、画像フレームf3(図10(a)参照))における被写体切り抜き画像P3の被写体領域Sの基準合成位置(例えば、中心座標)が指定されると、合成位置設定部7fは、基準画像フレーム中の当該基準合成位置を中心として被写体切り抜き画像P3が重畳される画像領域を合成領域として設定する。
そして、合成位置設定部7fは、動き検出部6により検出された隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf2)の動体Bの動きベクトルに基づいて、基準画像フレーム(例えば、画像フレームf3(図10(a)参照))以外の各画像フレーム(例えば、画像フレームf1,f2,f4,f5)における被写体切り抜き画像P3の被写体領域Sの合成位置を算出する。具体的には、合成位置設定部7fは、動き検出部6による各画像フレームf1〜f5の動体Bの動きベクトルの検出の際に探索された基準となる画像フレーム(例えば、画像フレームf3(図10(a)参照))における合成位置の周辺領域に対応する対応領域を、当該動きベクトルの検出に係る画像フレーム(例えば、画像フレームf2)における被写体切り抜き画像P3の被写体領域Sの合成位置として特定する。例えば、合成位置設定部7fは、動き検出部6による画像フレームf2の動体Bの動きベクトルの検出結果に基づいて、当該画像フレームf2内における被写体切り抜き画像P3の被写体領域Sの合成位置を算出して特定した後、当該画像フレームf2中の当該合成位置を中心として被写体切り抜き画像P3が重畳される画像領域を合成領域として設定する。続けて、合成位置設定部7fは、画像フレームf2を基準として画像フレームf1についても同様の処理を行う。このようにして、動画像P4の先頭の画像フレームf1まで繰り返すことで、基準画像フレーム(例えば、画像フレームf3(図10(a)参照))よりも前の画像フレーム(例えば、画像フレームf1,f2)について被写体切り抜き画像P3における被写体領域Sの合成位置を設定する。
同様に、合成位置設定部7fは、動き検出部6により検出された画像フレームf3の一つ後の画像フレームである画像フレームf4、また、二つ後の画像フレームである画像フレームf5についても、被写体切り抜き画像P3が重畳される画像領域を合成領域として設定する。
このように、合成位置設定部7fは、動き検出部6によって検出された少なくとも一の隣合う画像フレーム(例えば、画像フレームf3に対する画像フレームf2)間の動体Bの動き情報に基づいて、基準画像フレーム(例えば、画像フレームf3(図10(a)参照))以外の各画像フレーム(例えば、画像フレームf1,f2,f4,f5)における被写体切り抜き画像P3の被写体領域Sの合成位置を設定する。
In addition, the
Specifically, the subject clipping in the reference image frame (for example, the image frame f3 (see FIG. 10A)) of the moving image P4 set based on a predetermined operation of the selection determination button 11b of the
The composite
Similarly, the composition
As described above, the composite
また、画像処理部7は、被写体切り抜き画像P3と背景用の動画像P4を構成する各画像フレームf1〜f5とを合成する画像合成部7gを具備している。具体的には、画像合成部7gは、動画像P4の各画像フレームf1〜f5を背景用画像として指定して、指定された画像フレームf1〜f5の各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像P3の対応する画素の画素値で上書きし、さらに、指定された画像フレームf1〜f5の各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成する。
The
また、画像合成部7gは、被写体切り抜き画像P3の動画像P4を構成する各画像フレームf1〜f5に対する合成を制御する合成制御部7hを具備している。即ち、画像合成部7gは、合成制御部7hの制御下にて、動画像P4を構成する各画像フレームf1〜f5に対する被写体切り抜き画像P3における被写体領域Sの合成位置及び合成領域等を調整して画像合成により複数の画像フレームg1〜g5を生成して、当該複数の画像フレームg1〜g5からなる合成動画Mを生成する。
具体的には、合成制御部7hは、合成位置設定部7fにより設定された被写体切り抜き画像P3における被写体領域Sの合成位置及び合成領域に基づいて、ユーザによる操作入力部の所定操作に基づいて指定された基準画像フレーム(例えば、画像フレームf3)においては、当該基準画像フレームにおけるユーザにより指定された合成位置に被写体領域Sを合成させる。そして、合成制御部7hは、基準画像フレーム以外の各画像フレームf1〜f5においては、当該画像フレームf1〜f5に合成された被写体領域Sに対し動体Bの動きに合わせて変位させるように被写体切り抜き画像P3を順次合成させる。例えば、図10(a)及び図10(b)に示すように、基準画像フレームの一つ前の画像フレームf2においては、合成制御部7hは、合成位置設定部7fにより設定された被写体領域Sの合成位置に基づいて、被写体領域Sを画像フレームg3における被写体領域Sに対して動体Bの動きに合わせて左側に変位させるように被写体切り抜き画像P3を合成させて合成動画Mを構成する画像フレームg2を生成する。同様に、基準画像フレームよりも前の他の画像フレーム(例えば、画像フレームf1)については、処理対象となる画像フレーム(例えば、画像フレームf1)よりも一つ後の画像フレーム(例えば、画像フレームf2)における被写体領域Sの合成位置に対して動体Bの動きに合わせて左側に変位させるようにして合成動画Mを構成する画像フレームg1を生成する。
また、基準画像フレームの一つ後の画像フレームf4においては、合成制御部7hは、合成位置設定部7fにより設定された被写体領域Sの合成位置に基づいて、被写体領域Sを画像フレームg3における被写体領域Sに対して動体Bの動きに合わせて右側に変位させるように被写体切り抜き画像P3を合成させて合成動画Mを構成する画像フレームg4を生成する。同様に、基準画像フレームよりも後の他の画像フレーム(例えば、画像フレームf5)については、処理対象となる画像フレーム(例えば、画像フレームf5)よりも一つ前の画像フレーム(例えば、画像フレームf4)における被写体領域Sの合成位置に対して動体Bの動きに合わせて右側に変位させるようにして合成動画Mを構成する画像フレームg5を生成する。
このようにして、画像合成部7gは、動き検出部6により検出された動きベクトルに基づいて、動画像P4の動体Bの動きに合せて被写体切り抜き画像P3を所定動作させるように当該被写体切り抜き画像P3と動画像P4とを合成して合成動画Mを生成する。
Further, the
Specifically, the
In addition, in the image frame f4 immediately after the reference image frame, the
In this way, the
記録媒体8は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部7のJPEG圧縮部(図示略)により符号化された被写体切り抜き画像P3の静止画像データを記憶する。
また、被写体切り抜き画像P3の画像データは、画像処理部7の位置情報生成部7cにより生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として保存されている。
The
The image data of the subject clipped image P3 is associated with the alpha map generated by the position
また、記録媒体8は、レンズ部1、電子撮像部2及び撮像制御部3による動体Bの撮像により生成された複数の画像フレームf、…を画像処理部7の符号化部(図示略)により所定の圧縮形式で符号化した動画像P4を記憶する。
動画像P4は、動体Bの動きを所定の記録方式(例えば、Motion−JPEG形式)で記録したものであり、例えば、所定の撮像フレームレートで撮像された連続した複数の画像フレーム(例えば、n枚の画像フレーム)f、…からなるものである。なお、図5にあっては、動画像P4として、模式的に5枚の画像フレームf1〜f5からなるものを表すものとする。
Further, the
The moving image P4 is obtained by recording the motion of the moving object B in a predetermined recording method (for example, Motion-JPEG format). For example, a plurality of continuous image frames (for example, n) captured at a predetermined imaging frame rate. Image frames) f,... In FIG. 5, the moving image P <b> 4 is typically represented by five image frames f <b> 1 to f <b> 5.
表示制御部9は、画像メモリ5に一時的に記憶されている表示用の画像データを読み出して表示部10に表示させる制御を行う。
具体的には、表示制御部9は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU12の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部10に出力する。
The
Specifically, the
表示部10は、例えば、液晶表示装置であり、表示制御部9からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部10は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームf、…に基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
The
操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係るシャッタボタン11a、撮像モードや機能等の選択指示や被写体切り抜き画像P3における被写体領域Sの基準合成位置の設定指示等に係る選択決定ボタン11b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号をCPU12に出力する。
The
CPU12は、撮像装置100の各部を制御するものである。具体的には、CPU12は、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。
The
次に、撮像装置100による被写体切り抜き処理について、図2及び図3を参照して説明する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図3は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
被写体切り抜き処理は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
Next, the subject clipping process performed by the
FIG. 2 is a flowchart illustrating an example of an operation related to the subject clipping process. FIG. 3 is a diagram schematically illustrating an example of an image related to the subject clipping process.
The subject clipping process is executed when the subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 11b of the
図2に示すように、先ず、CPU12は、表示制御部9に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームf、…に基づいてライブビュー画像を表示部10の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の撮像指示メッセージを表示部10の表示画面に表示させる(ステップS1)。
As shown in FIG. 2, first, the
次に、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。ここで、撮像指示が入力されたと判定されると(ステップS2;YES)、CPU12は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体存在画像P1(図3(a)参照)の光学像を所定の条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体存在画像P1の画像フレームのYUVデータを生成させる(ステップS3)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
また、CPU12は、撮像制御部3を制御して、当該被写体存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
Next, the
Further, the
そして、CPU12は、表示制御部9に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の半透過の表示態様の画像と被写体非存在画像P2の撮像指示メッセージを表示部10の表示画面に表示させる(ステップS4)。
この後、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS5)。そして、ユーザは、被写体を画角外に移動させるか、或いは被写体が移動するのを待った後、ユーザにより被写体非存在画像P2が被写体存在画像P1の半透過の画像と重なるようにカメラ位置が調整されて、操作入力部11のシャッタボタン11aが所定操作されて撮像指示が入力されたと判定されると(ステップS5;YES)、CPU12は、撮像制御部3に、被写体非存在画像P2(図3(b)参照)の光学像を被写体存在画像P1の撮像後に固定された条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2の画像フレームに基づいて、被写体非存在画像P2のYUVデータを生成させる(ステップS6)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
Then, the
Thereafter, the
次に、CPU12は、特徴量演算部6a、ブロックマッチング部6b及び画像処理部7に、画像メモリ5に一時記憶されている被写体非存在画像P2のYUVデータを基準として、被写体存在画像P1のYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS7)。
具体的には、特徴量演算部6aは、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部6bは、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部7の位置合わせ部7aは、ブロックマッチング部6bにより算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。
Next, the
Specifically, the feature
次に、CPU12は、位置合わせ部7aに、算出された射影変換行例に基づいて被写体存在画像P1を射影変換させることで、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータとを位置合わせする処理を行わせる(ステップS8)。
Next, the
そして、CPU12は、画像処理部7の被写体領域抽出部7bに、被写体存在画像P1から被写体が含まれる被写体領域Sを抽出する処理を行わせる(ステップS9)。
具体的には、被写体領域抽出部7bは、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部7bは、ローパスフィルタをかけた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部7bは、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部7bは、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体領域Sとして特定し、収縮分を修正するための膨張処理を行う。
Then, the
Specifically, the subject
次に、CPU12は、画像処理部7の位置情報生成部7cに、抽出された被写体領域Sの被写体存在画像P1内での位置を示すアルファマップを生成させる(ステップS10)。
Next, the
その後、CPU12は、画像処理部7の切抜画像生成部7dに、被写体の画像を所定の単一色画像と合成した被写体切り抜き画像P3(図3(c)参照)の画像データを生成する処理を行わせる(ステップS11)。
具体的には、切抜画像生成部7dは、被写体存在画像P1、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
Thereafter, the
Specifically, the cut-out
その後、CPU12は、記録媒体8の所定の記憶領域に、画像処理部7の位置情報生成部7cにより生成されたアルファマップと被写体切り抜き画像P3の画像データを対応付けて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として一ファイルで記憶させる(ステップS12)。
これにより、被写体切り抜き処理を終了する。この結果、例えば、背景内から被写体領域Sとして人(図3(c)参照)が抽出された被写体切り抜き画像P3の静止画像データが生成される。
Thereafter, the
Thereby, the subject clipping process is completed. As a result, for example, still image data of the subject cutout image P3 in which a person (see FIG. 3C) is extracted as the subject region S from the background is generated.
次に、撮像装置100による背景用の動画像生成処理について、図4及び図5を参照して説明する。
図4は、背景用の動画像生成処理に係る動作の一例を示すフローチャートである。また、図5は、背景用の動画像生成処理に係る画像の一例を模式的に示す図である。
背景用の動画像生成処理は、通常の動画像の撮像処理であり、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から動画撮像モードが選択指示された場合に実行される処理である。
Next, background moving image generation processing by the
FIG. 4 is a flowchart illustrating an example of an operation related to a background moving image generation process. FIG. 5 is a diagram schematically illustrating an example of an image related to the background moving image generation process.
The background moving image generation process is a normal moving image imaging process, and is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 11b of the
図4に示すように、先ず、CPU12は、表示制御部9に、レンズ部1、電子撮像部2及び撮像制御部3による動画像P4の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させる(ステップS21)。
As shown in FIG. 4, first, the
次に、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、CPU13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、動画像P4(図5参照)の光学像を所定の条件で電子撮像部2により撮像させて画像データ生成部4に、電子撮像部2から転送された動画像P4の各画像フレームf1〜f5のYUVデータを生成させる(ステップS23)。その後、CPU12は、記録媒体8の所定の記憶領域に、動画像P4の各画像フレームf1〜f5のYUVデータをMotion−JPEG形式で記憶させる(ステップS24)。
これにより、動画像生成処理を終了する。この結果、例えば、トラックが左側から右側に走行する複数の画像フレームf1〜f5からなる動画像P4の画像データが生成される。
Next, the
Thus, the moving image generation process is terminated. As a result, for example, image data of a moving image P4 including a plurality of image frames f1 to f5 in which the track travels from the left side to the right side is generated.
次に、合成動画生成処理について図6〜図10を参照して詳細に説明する。
図6〜図8は、合成動画生成処理に係る動作の一例を示すフローチャートである。また、図9は、合成動画生成処理における画像合成処理に係る動作の一例を示すフローチャートである。また、図10(a)及び図10(b)は、合成動画生成処理にて画像合成される画像の一例を模式的に示す図である。
Next, the synthetic moving image generation process will be described in detail with reference to FIGS.
6 to 8 are flowcharts illustrating an example of operations related to the synthetic moving image generation process. FIG. 9 is a flowchart illustrating an example of an operation related to the image composition process in the composite moving image generation process. FIGS. 10A and 10B are diagrams schematically illustrating an example of an image that is combined in the combined moving image generation process.
合成動画生成処理は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から画像合成モードが選択指示された場合に実行される処理である。
図6に示すように、ユーザによる操作入力部11の所定操作に基づいて、記録媒体8に記録されている複数の画像の中で合成用の静止画像としての被写体切り抜き画像P3が選択して指定されると、画像処理部7の取得部7eは、指定された被写体切り抜き画像P3の画像データを読み出して画像メモリ5に展開する(ステップS31)。
The synthesized moving image generation process is executed when an image synthesis mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 11b of the
As shown in FIG. 6, based on a predetermined operation of the
次に、ユーザによる操作入力部11の所定操作に基づいて、記録媒体8に記録されている複数の画像の中で所望の動画像P4が選択して指定されると、画像処理部7の取得部7eは、指定された動画像P4の画像データを読み出して画像メモリ5に展開する。そして、CPU12は、表示制御部9に、画像メモリ5に展開された動画像P4の画像データに基づいて、当該動画像P4を構成する各画像フレームf1〜f5を所定の表示フレームレートで切り換えて表示部10の表示画面に再生表示させる(ステップS32)。
Next, when a desired moving image P4 is selected and specified from among a plurality of images recorded on the
続けて、CPU12は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、表示部10の表示画面に再生表示された画像フレームf1〜f5の選択指示が入力されたか否かを判定する(ステップS33)。
ここで、画像フレームf1〜f5の選択指示が入力されたと判定されると(ステップS33;YES)、CPU12は、表示制御部9に、選択指示入力のあったユーザ所望の画像フレーム(例えば、画像フレームf3(図10(a)参照))を基準画像フレームとして表示部10の表示画面に一時停止表示させる(ステップS34)。
Subsequently, the
If it is determined that the selection instruction for the image frames f1 to f5 has been input (step S33; YES), the
そして、CPU12は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、被写体切り抜き画像P3における被写体領域Sの当該基準画像フレームへの合成位置の指定指示が入力されたか否かを判定する(ステップS35)。
ここで、合成位置の指定指示が入力されたと判定されると(ステップS35;YES)、CPU12は、動画像P4の各画像フレームf1〜f5と被写体切り抜き画像P3とを合成して合成動画Mを構成する画像フレームg1〜g5を生成する画像合成処理を画像合成部7gに行わせる(ステップS36)。
Then, based on a predetermined operation of the selection determination button 11b of the
Here, if it is determined that an instruction for specifying a composite position has been input (step S35; YES), the
ここで、画像合成処理について図9を参照して詳細に説明する。
図9に示すように、画像合成部7gは、被写体切り抜き画像P3と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS61)。
なお、図6のステップS35にて被写体切り抜き画像P3における被写体領域Sの合成位置が指定された際に、動画像P4の基準画像フレーム(例えば、画像フレームf3(図10(a)参照))とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
Here, the image composition processing will be described in detail with reference to FIG.
As shown in FIG. 9, the
Note that when the synthesis position of the subject area S in the subject cutout image P3 is designated in step S35 of FIG. 6, the reference image frame (for example, the image frame f3 (see FIG. 10A)) of the moving image P4 and For an area that deviates from the alpha map and is out of the alpha map range, α = 0 is set so that no alpha value exists.
次に、画像合成部7gは、基準画像フレームの何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS62)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS63)。具体的には、画像合成部7gは、当該基準画像フレームの何れか一の画素のうち、アルファ値が1の画素については(ステップS63;α=1)、被写体切り抜き画像P3の対応する画素の画素値で上書きし(ステップS64)、アルファ値が0<α<1の画素については(ステップS65;0<α<1)、1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS65)、アルファ値が0の画素については(ステップS63;α=0)、何もせずに当該基準画像フレームを透過させるようにする。
Next, the
続けて、画像合成部7gは、当該基準画像フレームの全ての画素について処理したか否かを判定する(ステップS66)。
ここで、全ての画素について処理していないと判定されると(ステップS66;NO)、画像合成部7gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS67)、処理をステップS63に移行させる。
上記の処理を、ステップS66にて全ての画素について処理したと判定されるまで(ステップS66;YES)、繰り返すことで、画像合成部7gは、被写体切り抜き画像P3と動画像P4とを合成した合成動画Mを構成する一の画像フレームgを生成する。
これにより、画像合成処理を終了する。
Subsequently, the
If it is determined that all the pixels have not been processed (step S66; NO), the
By repeating the above processing until it is determined in step S66 that all pixels have been processed (step S66; YES), the
Thereby, the image composition process is terminated.
図6に示すように、その後、CPU12は、基準画像フレームが動画像P4を構成する画像フレームf1〜f5のうち最初の画像フレームf1であるか否かを判定する(ステップS37)。
ここで、基準画像フレームが最初の画像フレームf1でないと判定されると(ステップS37;NO)、CPU12は、処理対象を基準画像フレームの1つ前の画像フレームへ移動させる(ステップS38)。具体的には、図10(a)に示すように、基準画像フレームとして画像フレームf3が選択指示された場合、当該画像フレームf3の一つ前の画像フレームf2に移動する。
As shown in FIG. 6, thereafter, the
If it is determined that the reference image frame is not the first image frame f1 (step S37; NO), the
そして、CPU12は、隣合う画像フレーム(例えば、画像フレームf3と画像フレームf2)間の動体Bの動き情報として、基準画像フレームに対する画像フレーム(例えば、画像フレームf2)における動体の動きベクトルを動き検出部6に検出させる(ステップS39)。
Then, the
そして、CPU12は、動き検出部6により検出された画像フレーム(例えば、画像フレームf2)の動体Bの動きベクトル(動き情報)に基づいて、当該画像フレーム(例えば、画像フレームf2)における被写体切り抜き画像P3の被写体領域Sの合成位置の算出を合成位置設定部7fに行わせる(ステップS40)。
そして、合成制御部7hは、算出された合成位置に基づいて被写体切り抜き画像P3を1つ前に移動した画像フレーム(例えば、画像フレームf2)へ合成した場合に当該被写体領域Sの合成領域の一部が当該画像フレームf2内にあるか否かを判定する(ステップS41)。
ここで、合成領域の一部が画像フレームf2内にあると判定されると(ステップS41;YES)、CPU12は、算出された一つ前の画像フレーム(例えば、画像フレームf2)における被写体切り抜き画像P3の被写体領域Sの合成位置を合成位置設定部7fに設定させる(ステップS42)。
Then, based on the motion vector (motion information) of the moving object B of the image frame (for example, image frame f2) detected by the
Then, the
Here, when it is determined that a part of the synthesis area is within the image frame f2 (step S41; YES), the
そして、CPU12は、動画像P4の画像フレーム(例えば、画像フレームf2)と被写体切り抜き画像P3とを合成して合成動画Mを構成する画像フレーム(例えば、画像フレームg2)を生成する画像合成処理を画像合成部7gに行わせる(ステップS43;図9参照)。
なお、画像合成処理の内容は、上記説明したものと略同様であり、その詳細な説明は省略する。また、図7のステップS42にて被写体切り抜き画像P3における被写体領域Sの合成位置が設定された際に、動画像P4の画像フレームf1〜f5とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
Then, the
The contents of the image composition process are substantially the same as those described above, and a detailed description thereof is omitted. In addition, when the composition position of the subject area S in the subject cutout image P3 is set in step S42 in FIG. 7, the image frames f1 to f5 of the moving image P4 are shifted from the alpha map, and are outside the range of the alpha map. For such a region, α = 0 is set so as not to generate a region having no alpha value.
図7に示すように、その後、CPU12は、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行ったか否かを判定する(ステップS44)。
ここで、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行っていないと判定されると(ステップS44;NO)、ステップS38へ戻り、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理が行われるまで、CPU12は、ステップS38以降の処理を行わせる。一方、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行ったと判定されると(ステップS44;YES)、即ち、ステップS41にて、合成領域の一部が画像フレーム内にないと判定された場合(ステップS41;NO)、例えば、画像フレームf1における被写体切り抜き画像P3の被写体領域Sの合成領域の一部が当該画像フレームf1内にない場合には、CPU12は、ステップS44にて、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行ったと判定する。なお、ステップS41にて、合成領域の一部が画像フレーム(例えば、画像フレームf1)内にないと判定された画像フレーム(例えば、画像フレームf1)については、動画像P4の画像フレーム(例えば、画像フレームf1)を合成動画Mの画像フレーム(例えば、画像フレームg1)とみなす。
As shown in FIG. 7, thereafter, the
Here, if it is determined that the composition process has not been performed for all image frames (for example, image frames f1 and f2) before the reference image frame (step S44; NO), the process returns to step S38, and the reference image frame. The
その後、CPU12は、処理対象を基準画像フレーム(例えば、画像フレームf3)の1つ後の画像フレーム(例えば、画像フレームf4)へ移動させ(ステップS45)、CPU12は、ステップS39と同様に、隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf4)の動体Bの動き情報の検出を動き検出部6に行わせる(ステップS47)。
Thereafter, the
そして、CPU12は、動き検出部6により検出された画像フレーム(例えば、画像フレームf4)の動体Bの動きベクトル(動き情報)に基づいて、当該画像フレーム(例えば、画像フレームf4)における被写体切り抜き画像P3の被写体領域Sの合成位置の算出を合成位置設定部7fに行わせる(ステップS48)。
そして、合成制御部7hは、算出された合成位置に基づいて被写体切り抜き画像P3を1つ後に移動した画像フレーム(例えば、画像フレームf4)へ合成した場合に当該被写体切り抜き画像P3における被写体領域Sの合成領域の一部が当該画像フレーム(例えば、画像フレームf4)内にあるか否かを判定する(ステップS49)。
ここで、合成領域の一部が画像フレーム(例えば、画像フレームf4)内にあると判定されると(ステップS49;YES)、CPU12は、算出された一つ後の画像フレーム(例えば、画像フレームf4)における被写体切り抜き画像P3の被写体領域Sの合成位置を合成位置設定部7fに設定させる(ステップS50)。
Then, based on the motion vector (motion information) of the moving object B of the image frame (for example, image frame f4) detected by the
Then, the
Here, when it is determined that a part of the composite area is within the image frame (for example, image frame f4) (step S49; YES), the
そして、CPU12は、動画像P4の画像フレーム(例えば、画像フレームf4)と被写体切り抜き画像P3とを合成して合成動画Mを構成する画像フレーム(例えば、画像フレームg4)を生成する画像合成処理を画像合成部7gに行わせる(ステップS51;図9参照)。
なお、画像合成処理の内容は、上記説明したものと略同様であり、その詳細な説明は省略する。また、図8のステップS50にて被写体切り抜き画像P3における被写体領域Sの合成位置が設定された際に、動画像P4の画像フレームf1〜f5とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
Then, the
The contents of the image composition process are substantially the same as those described above, and a detailed description thereof is omitted. Also, when the composition position of the subject region S in the subject cutout image P3 is set in step S50 of FIG. 8, the image frames f1 to f5 of the moving image P4 are shifted from the alpha map, and are outside the range of the alpha map. For such a region, α = 0 is set so as not to generate a region having no alpha value.
図8に示すように、その後、CPU12は、全ての画像フレームf1〜f5について合成処理を行ったか否かを判定する(ステップS52)。
ここで、全ての画像フレームf1〜f5について合成処理を行っていないと判定されると(ステップS52;NO)、ステップS46へ戻り、全ての画像フレームf1〜f5について合成処理が行われるまで、CPU12は、ステップS46以降の処理を行わせる。一方、全ての画像フレームf1〜f5について合成処理を行ったと判定されると(ステップS52;YES)、画像合成部7gは、合成動画Mを構成する全ての画像フレームg1〜5(図10(b)参照)を生成する。なお、ステップS49にて、合成領域の一部が画像フレーム(例えば、画像フレームf5)内にないと判定された画像フレーム(例えば、画像フレームf5)については、動画像P4の画像フレーム(例えば、画像フレームf5)を合成動画Mの画像フレーム(例えば、画像フレームg5)とみなす。
As shown in FIG. 8, thereafter, the
If it is determined that the composition process has not been performed for all the image frames f1 to f5 (step S52; NO), the process returns to step S46, and the
また、図6のステップS37において、基準画像フレームが最初の画像フレームf1であると判定された場合(ステップS37;YES)、CPU12は、処理対象を基準画像フレームの1つ後の画像フレームf2へ移動させ、(ステップS46)上記のように、ステップS47以降の処理を行う。
これにより、合成動画生成処理を終了する。
If it is determined in step S37 of FIG. 6 that the reference image frame is the first image frame f1 (step S37; YES), the
As a result, the combined moving image generation process is terminated.
以上のように、本実施形態の撮像装置100によれば、背景用の動画像P4の複数の画像フレームf1〜f5のうち、隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf2)の動体Bの動き情報を動き検出部6により検出し、当該動き情報に基づいて、被写体切り抜き画像P3を動画像P4上で動作させるように当該被写体切り抜き画像P3と動画像P4の複数の画像フレームf1〜f5の各々とを合成して合成動画Mを画像合成部7gにより生成する。
従って、背景用の動画像P4の各画像フレームf1〜f5と合成用の静止画像である被写体切り抜き画像P3とを合成する場合に、合成用の静止画像が最初に設定された合成位置に固定されることなく、動画像P4における動体Bの動きに合わせて被写体切り抜き画像P3を所定動作させることができ、興趣性の高い合成動画Mを生成することができる。
As described above, according to the
Therefore, when the image frames f1 to f5 of the background moving image P4 and the subject cutout image P3, which is a still image for combining, are combined, the combining still image is fixed at the initially set combining position. Therefore, the subject cutout image P3 can be operated in a predetermined manner in accordance with the movement of the moving object B in the moving image P4, and a highly interesting synthetic video M can be generated.
また、画像合成部7gは、動画像P4を構成する複数の画像フレームf1〜f5のうち、ユーザによる操作入力部11の所定操作に基づいて指定された基準画像フレーム(例えば、画像フレームf3)においては、所望の基準合成位置に被写体切り抜き画像P3を合成し、且つ、基準画像フレーム以外の各画像フレームにおいては、合成位置設定部7fが、動き検出部6によって検出された隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf2)の動体Bの動き情報に基づいて、基準画像フレーム以外の各画像フレームにおける被写体切り抜き画像P3の合成位置を設定して、基準画像フレームに合成された被写体切り抜き画像P3に対し動体Bの動きに合わせて変位させるように被写体切り抜き画像P3を合成して合成動画Mを構成する複数の画像フレームg1〜g5を生成する。
これにより、ユーザ所望の画像フレーム(基準画像フレーム)において、被写体切り抜き画像P3の合成位置を指定することにより、当該基準画像フレーム以外の各画像フレームについて被写体切り抜き画像P3の合成位置を自動的に設定することができ、合成動画Mの生成に係る操作をより簡便なものとすることができる。従って、ユーザ所望の合成位置を適切に指定するだけで、興趣性の高い合成動画Mを簡便に生成することができる。
In addition, the
As a result, in the user-desired image frame (reference image frame), the composition position of the subject cutout image P3 is automatically set for each image frame other than the reference image frame by designating the composition position of the subject cutout image P3. Therefore, the operation related to the generation of the synthesized moving image M can be simplified. Therefore, it is possible to easily generate a highly interesting synthesized moving image M simply by appropriately specifying a user-desired synthesis position.
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態として、動画像P4を構成する各画像フレームf1〜f5間のそれぞれの動体Bの動きベクトル(動き情報)を算出したが、これに限られるものではなく、例えば、動体Bが一定の方向に一定間隔の速さで変位していると判断した場合には、少なくとも一の動体Bの動きベクトルに基づいて、各画像フレームf1〜f5に対する被写体切り抜き画像P3の合成位置を算出するようにしても良い。
また、基準画像フレームにおいて指定した基準合成位置が動体Bを含む領域だった場合に、基準画像フレーム以外の各画像フレームにおいては、動き検出部6によって検出された隣合う画像フレーム間の動体Bの動き情報に基づいて、基準画像フレーム以外の各画像フレームにおける被写体切り抜き画像P3の合成位置を設定するようにしてもよい。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, as the above embodiment, the motion vector (motion information) of each moving object B between the image frames f1 to f5 constituting the moving image P4 is calculated. However, the present invention is not limited to this. If it is determined that the object is displaced in a certain direction at a constant interval, the combined position of the subject cutout image P3 for each of the image frames f1 to f5 is calculated based on the motion vector of at least one moving object B. You may do it.
Further, when the reference composite position designated in the reference image frame is an area including the moving object B, in each image frame other than the reference image frame, the moving object B between adjacent image frames detected by the
また、上記実施形態として、動画像P4として、Motion−JPEG形式で記録された動画像データを例示したが、これに限られるものではなく、例えば、所定のシャッタースピードで連写された連続した複数の静止画からなる連写画像であっても良い。この場合にあっても、上記実施形態と同様に、連続する静止画どうしの間で動体Bの動き情報を検出して、当該動き情報に基づいて被写体切り抜き画像P3の被写体領域Sを所定動作させる。 In the above embodiment, the moving image data recorded in the Motion-JPEG format is exemplified as the moving image P4. However, the present invention is not limited to this. For example, a plurality of continuous images continuously shot at a predetermined shutter speed are used. The continuous shot image which consists of still images may be sufficient. Even in this case, as in the above-described embodiment, the motion information of the moving object B is detected between successive still images, and the subject region S of the subject clipped image P3 is caused to perform a predetermined operation based on the motion information. .
また、上記実施形態にあっては、動画像データの記録方式として、Motion−JPEG形式を例示したが、MPEG形式であっても良い。かかる場合には、動体Bの動きを検出する際に、予め当該MPEG形式の動画像データを復号化して複数の画像フレームf1〜f5を生成することで、画像フレームf1〜f5間の動体Bの動きの検出を行うことができる。 In the above embodiment, the Motion-JPEG format has been exemplified as a moving image data recording method. However, an MPEG format may be used. In such a case, when detecting the motion of the moving object B, the moving image data in the MPEG format is generated in advance by decoding the MPEG moving image data to generate a plurality of image frames f1 to f5. Motion detection can be performed.
また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置を例示したが、これに限られるものではい。例えば、被写体切り抜き画像P3、動画像P4及び動体Bの動き情報に基づいて設定された当該動画像P4に対する被写体切り抜き画像の合成位置に係るデータの生成は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送されたデータのみを記録して、合成動画の再生処理のみを実行する画像再生装置であっても良い。
In addition, the configuration of the
加えて、上記実施形態にあっては、取得手段、検出手段、合成手段、合成位置設定手段としての機能を、CPU13の制御下にて、動き検出部6、画像処理部7の切抜画像生成部7d、取得部7e、合成位置設定部7f、画像合成部7gが駆動することにより実現される構成としたが、これに限られるものではなく、CPU13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、検出処理ルーチン、合成位置設定処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンによりCPU13に、背景用の動画像と合成用の静止画像を取得させるようにしても良い。また、検出処理ルーチンによりCPU13に、取得された背景用の動画像における動体の動き情報を検出させるようにしても良い。また、合成位置設定処理ルーチンによりCPU13に、検出された少なくとも一の隣合う画像フレーム間の動体の動き情報に基づいて、一の画像フレーム以外の各画像フレームにおける静止画像の合成位置を設定させるようにしても良い。また、合成処理ルーチンによりCPU13に、検出された動き情報に基づいて、動体の動きに合わせて合成用の静止画像を所定動作させるように静止画像と動画像とを合成して合成動画を生成させるようにしても良い。
In addition, in the above embodiment, the functions as the acquisition unit, the detection unit, the synthesis unit, and the synthesis position setting unit are controlled under the control of the CPU 13 by the
That is, a program memory (not shown) that stores a program stores a program including an acquisition process routine, a detection process routine, a synthesis position setting process routine, and a synthesis process routine. Then, the background processing image and the composition still image may be acquired by the CPU 13 by the acquisition processing routine. Further, the CPU 13 may detect the motion information of the moving object in the acquired background moving image by the detection processing routine. Further, the synthesis position setting processing routine causes the CPU 13 to set the still image synthesis position in each image frame other than the one image frame based on the detected motion information of the moving body between at least one adjacent image frame. Anyway. Further, the synthesis processing routine causes the CPU 13 to generate a synthesized moving image by synthesizing the still image and the moving image so that the synthesis still image is operated in a predetermined manner in accordance with the motion of the moving object based on the detected motion information. You may do it.
100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
6 動き検出部
7 画像処理部
7d 切抜画像生成部
7e 取得部
7f 合成位置設定部
7g 画像合成部
7h 合成制御部
8 記録媒体
10 表示部
12 CPU
DESCRIPTION OF
Claims (7)
この取得手段により取得された動画像における動体を特定する特定手段と、
この特定手段によって特定された動体の動き情報を検出する検出手段と、
この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成手段と、
を備え、
前記合成手段は、
前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成する
ことを特徴とする画像合成装置。 Acquisition means for acquiring a moving image for background and a still image to be combined with the moving image;
Specifying means for specifying a moving object in the moving image acquired by the acquiring means;
Detecting means for detecting motion information of the moving object specified by the specifying means;
Based on the motion information detected by the detection means, a synthesis means for synthesizing the still image and the moving image so as to operate the still image on the background moving image to generate a synthesized moving image;
Equipped with a,
The synthesis means includes
When the combined position of the still image in the moving image is a position including a moving object in the moving image, the still image and the moving image are displaced so as to be displaced according to movement information of the moving object in the moving image. An image synthesizing apparatus that synthesizes a moving image .
前記合成手段は、
前記複数の画像フレームのうち、前記一の画像フレームにおいては、前記指定手段によって指定された合成位置に前記静止画像を合成し、且つ、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動きに合わせて変位させるように前記静止画像を合成することを特徴とする請求項1に記載の画像合成装置。 Among a plurality of image frames constituting the moving image, further comprising designation means for designating the combined position of the still image in any one of image frames,
The synthesis means includes
Among the plurality of image frames, in the one image frame, the still image is synthesized at the synthesis position designated by the designation unit, and in each image frame other than the one image frame, the one image frame The image synthesizing apparatus according to claim 1, wherein the still image is combined with the still image combined with the image frame so as to be displaced in accordance with the movement of the moving object.
前記指定手段によって指定された合成位置が、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動き情報に応じて変位させるように前記静止画像を合成することを特徴とする請求項2記載の画像合成装置。 The synthesis means includes
Synthetic positions specified by said designation means, said in each image frame other than one image frame, the relative one combined the still image to the image frame to displace in response to the movement information of the moving object The image synthesizing apparatus according to claim 2, wherein the still images are synthesized.
前記複数の画像フレームのうち、少なくとも一の隣合う画像フレーム間の動体の動き情報を検出し、
前記検出手段によって検出された前記少なくとも一の隣合う画像フレーム間の動体の動き情報に基づいて、前記一の画像フレーム以外の各画像フレームにおける前記静止画像の合成位置を設定する合成位置設定手段を更に備えることを特徴とする請求項2又は3に記載の画像合成装置。 The detection means includes
Detecting motion information of a moving object between at least one adjacent image frame among the plurality of image frames;
Composition position setting means for setting a composition position of the still image in each image frame other than the one image frame based on movement information of a moving body between the at least one adjacent image frames detected by the detection means; The image composition device according to claim 2 or 3, further comprising:
背景用の動画像及び当該動画像と合成すべき静止画像を取得する取得手段、
この取得手段により取得された動画像における動体を特定する特定手段、
この特定手段によって特定された動体の動き情報を検出する検出手段、
この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成制御手段、
として機能させ、
前記合成手段は、
前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成することを特徴とするプログラム。 The computer of the image synthesizer
Acquisition means for acquiring a moving image for background and a still image to be combined with the moving image;
A specifying unit for specifying a moving object in the moving image acquired by the acquiring unit;
Detecting means for detecting movement information of the moving object specified by the specifying means;
Based on the motion information detected by the detection means, a synthesis control means for synthesizing the still image and the moving image so as to operate the still image on the background moving image to generate a synthesized moving image;
To function as,
The synthesis means includes
When the combined position of the still image in the moving image is a position including a moving object in the moving image, the still image and the moving image are displaced so as to be displaced according to movement information of the moving object in the moving image. A program characterized by combining a moving image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009086169A JP5402166B2 (en) | 2009-03-31 | 2009-03-31 | Image composition apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009086169A JP5402166B2 (en) | 2009-03-31 | 2009-03-31 | Image composition apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010239464A JP2010239464A (en) | 2010-10-21 |
JP5402166B2 true JP5402166B2 (en) | 2014-01-29 |
Family
ID=43093401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009086169A Expired - Fee Related JP5402166B2 (en) | 2009-03-31 | 2009-03-31 | Image composition apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5402166B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318596A (en) * | 2014-10-08 | 2015-01-28 | 北京搜狗科技发展有限公司 | Dynamic picture generation method and generation device |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013214158A (en) * | 2012-03-30 | 2013-10-17 | Ntt Comware Corp | Display image retrieval device, display control system, display control method, and program |
JP5906897B2 (en) * | 2012-03-30 | 2016-04-20 | カシオ計算機株式会社 | Motion information generation method, motion information generation device, and program |
KR102586637B1 (en) * | 2021-12-28 | 2023-10-06 | 연세대학교 산학협력단 | Method for generating synthetic video using optical flow |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3122099B2 (en) * | 1989-06-26 | 2001-01-09 | ソニー株式会社 | Image synthesizing apparatus and image synthesizing method |
JP3214258B2 (en) * | 1994-10-24 | 2001-10-02 | 三菱電機株式会社 | Video processing device, video anchor display method, video anchor determination method |
JP2000013683A (en) * | 1998-06-22 | 2000-01-14 | Canon Inc | Device and method for composing image, and storage medium |
-
2009
- 2009-03-31 JP JP2009086169A patent/JP5402166B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318596A (en) * | 2014-10-08 | 2015-01-28 | 北京搜狗科技发展有限公司 | Dynamic picture generation method and generation device |
Also Published As
Publication number | Publication date |
---|---|
JP2010239464A (en) | 2010-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5105550B2 (en) | Image composition apparatus and program | |
JP5051156B2 (en) | Image processing apparatus and program | |
KR101062502B1 (en) | Image pickup device having a panning mode for picking up panning images | |
JP4798236B2 (en) | Imaging apparatus, image processing method, and program | |
JP4807432B2 (en) | Imaging apparatus, image processing method, and program | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP5267279B2 (en) | Image composition apparatus and program | |
JP5125294B2 (en) | Program, image processing apparatus, imaging apparatus, and image processing method | |
JP5402148B2 (en) | Image composition apparatus, image composition method, and program | |
JP2009044329A (en) | Program, image processing method, and image processor | |
JP5476900B2 (en) | Image composition apparatus, image composition method, and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011003057A (en) | Image composition device, image specifying method, image composition method, and program | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP2011182014A (en) | Image pickup device, image processing method and program | |
JP5423296B2 (en) | Image processing apparatus, image processing method, and program | |
JP5589333B2 (en) | Image composition apparatus, image composition method, and program | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP5565227B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP6564295B2 (en) | Composite image creation device | |
JP5381207B2 (en) | Image composition apparatus and program | |
JP2009049457A (en) | Imaging device and program | |
JP2010045619A (en) | Image reproducing device, imaging apparatus, image reproduction method, image reproduction program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120327 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130620 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131014 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5402166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |