JP3929811B2 - Image composition apparatus and image composition method - Google Patents
Image composition apparatus and image composition method Download PDFInfo
- Publication number
- JP3929811B2 JP3929811B2 JP2002104908A JP2002104908A JP3929811B2 JP 3929811 B2 JP3929811 B2 JP 3929811B2 JP 2002104908 A JP2002104908 A JP 2002104908A JP 2002104908 A JP2002104908 A JP 2002104908A JP 3929811 B2 JP3929811 B2 JP 3929811B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- extracted
- reference image
- subject
- composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像合成を行なう画像合成装置及び画像合成方法に関するものであり、例えば、テレビジョン番組制作、映画制作等において用いられる画像合成に関するものである。
【0002】
【従来の技術】
従来より、スポーツ中継放送等では、被写体である選手の動きを視聴者に分かりやすく表現するため、スローモーション再生が多用されている。また、選手の動きをストロボ写真のように表現し、その静止画像を背景画像上で順次上書きすることにより合成していくマルチモーションと呼ばれる技術も利用されている。
【0003】
【発明が解決しようとする課題】
スポーツ中継において、速い選手の動きをゆっくりと表現するスローモーション再生は、視聴者にとって分かりやすく効果的である。その一方で、動きが遅くなることで、選手が動いた軌跡やフォームの移行が捉えにくいという欠点があった。
【0004】
マルチモーションは、静止した選手の画像を次々に重ね合わせて合成していくため、残像効果で動きの経緯が分かりやすいという利点がある。しかしながら、時間経緯に従って順次画像を重ね合わせているため、野球やゴルフのスイング等を表示する場合、被写体の位置に大きな移動がないため、ヒッティングポイント等の注目シーンがあっても上書きされてしまい、この注目シーンが見えなくなってしまうという欠点があった。また、マルチモーションによる表示は、平面的で立体感を視聴者に与えることができないといった視覚表現上の欠点もあった。
【0005】
本発明は、このような問題点を解決するためになされたもので、奥行方向への動作を伴う被写体の動きを効果的に表現することができる画像合成装置及び画像合成方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明にかかる画像合成装置は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成装置であって、画像データを記憶する画像メモリと、前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、基準画像を決定する基準画像決定手段とを備え、前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次上方に抽出画像が重ねられる上重ね処理を行い、前記基準画像の後の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行なうものである。このような構成により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。
【0007】
好ましい実施の形態では、前記下重ね処理は、上重ね処理によって生成された第1の合成画像と前記基準画像の後の画像を合成するとともに、この合成画像に対して、第1の合成画像の被写体を抽出した合成画像を上書きにすることにより実現するものである。
【0008】
また、前記下重ね処理は、前記基準画像の後の画像の被写体を抽出した画像から上重ね処理によって生成された第1の合成画像の被写体を抽出した画像の部分を取り除くことにより生成した第2の合成画像を前記第1の合成画像に合成することにより実現するようにしてもよい。
【0009】
さらに、また、前記下重ね処理は、上重ね処理によって生成された第1の合成画像の被写体の抽出範囲を抽出しないように、前記画像抽出手段によって基準画像の後の画像の被写体を抽出した抽出画像を前記第1の合成画像に合成することにより実現するようにしてもよい。
【0010】
また、前記基準画像決定手段は、入力手段によって入力された基準画像を特定するための情報に基づいて基準画像を決定するようにしてもよい。
【0011】
前記基準画像決定手段は、音声検出手段によって検出された音声情報に基づいて基準画像を決定するようにしてもよい。このような構成により基準画像を自動的に決定することができ、合成処理が容易に行なうことができる。
【0012】
また、前記基準画像決定手段は、位置検出手段によって検出された被写体の全部又は一部の位置情報に基づいて基準画像を決定するようにしてもよい。このような構成により基準画像を自動的に決定することができ、合成処理が容易に行なうことができる。また、このような手段によれば、被写体の全部又は一部が最も撮影位置に近い状態を特定する画像を基準画像として選択することも自動的にできる。
【0013】
さらに、基準画像決定手段は、奥行検出手段によって検出された被写体の全部又は一部の位置情報に基づいて基準画像を決定するようにしてもよい。このような構成により基準画像を自動的に決定することができ、合成処理が容易に行なうことができる。また、このような手段によれば、被写体の全部又は一部が最も撮影位置に近い状態を特定する画像を基準画像として選択することも自動的にできる。
【0014】
特に、前記基準画像決定手段は、被写体の全部又は一部が最も撮影位置に近い状態を特定する画像を基準画像として選択することが望ましい。このような構成によって、表示される画像が視覚的に立体になるため、迫力のある表現効果が得られる。
【0015】
本発明にかかる他の画像合成装置は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成装置であって、画像データを記憶する画像メモリと、前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、基準画像を決定する基準画像決定手段とを備え、前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行い、前記基準画像の後の画像に対しては、順次上方に抽出画像が重ねられる上重ね処理を行なうものである。このような構成により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。特に、注目シーンが奥にある場合には、有効な処理である。
【0016】
他方、本発明にかかる画像合成方法は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成方法であって、基準画像を決定するステップと、決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを有するものである。このような方法により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。
【0017】
本発明にかかる他の画像合成方法は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成方法であって、基準画像を決定するステップと、前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップとを有するものである。このような方法により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。特に、注目シーンが奥にある場合には、有効な処理である。
【0018】
本発明にかかる画像合成プログラムは、奥行方向への動きを伴う被写体の画像合成を行なう画像合成プログラムであって、コンピュータに対して、基準画像を決定するステップと、決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを実行させるものである。このようなプログラムをコンピュータにより実行することにより、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。
【0019】
本発明にかかる他の画像合成プログラムは、奥行方向への動きを伴う被写体の画像合成を行なう画像合成プログラムであって、コンピュータに対して、基準画像を決定するステップと、前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップを実行させるものである。このようなプログラムをコンピュータにより実行することにより、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。特に、注目シーンが奥にある場合には、有効な処理である。
【0020】
【発明の実施の形態】
発明の実施の形態1.
図1に、本発明の実施の形態1にかかる画像合成装置の構成を示す。この画像合成装置100は、撮影用カメラ1とケーブルや無線回線によって接続されている。
【0021】
撮影用カメラ1は、動きのある被写体を撮影し、画像データ信号を生成する。この例では、主として奥行方向、即ち撮影用カメラ1から被写体を結ぶ線上であって両者が離れる方向への動きがある被写体の撮影に用いられる。例えば、野球の打者のスイング動作、投手の投球動作、ゴルフのスイング動作、サッカーのシュート動作、フィギュアスケートの回転動作、柔道の投げ技の動作、カーレースでの車のコーナリング動作である。撮影用カメラ1は、生成した画像データ信号をケーブルを介して画像合成装置100に入力する。尚、撮影用カメラ1から画像データ信号を一旦磁気テープ等の記憶媒体に格納し、画像合成装置100においてこの記憶媒体より画像データ信号を読み出すようにしてもよい。
【0022】
画像合成装置100は、例えば、CPU、ROM、RAM、ハードディスク、ディスプレイ、キーボード等を有する専用コンピュータによってハードウエア上構成される。また、いわゆる汎用コンピュータに応用プログラムをインストールすることによってこの画像合成装置100を構成することも可能である。さらに、画像合成装置100は、バッファメモリを備え、適宜、背景あり合成画像5、背景なし合成画像6、抽出画像7を格納する。
【0023】
画像合成装置100は、図1に示されるように、画像メモリ2、画像抽出部3、画像合成部4を備えている。
【0024】
画像メモリ2は、撮影用カメラ1より入力された画像データ信号を蓄積する記憶手段である。この画像メモリ2には、本発明にかかる画像合成処理の対象となる画像データがフレーム毎に時刻情報と関連付けられて蓄積される。この画像データのフレーム数は、画像合成処理を行なう被写体の動作の速さ、動作時間に応じて適宜選択される。
【0025】
画像抽出部3は、画像メモリ2より画像データを入力し、被写体の画像を抽出し、背景画像と分離する処理を行なう。例えば、野球の打者のスイング動作に関する画像であれば、被写体となる打者の部分のみが抽出される。画像抽出部3による画像情報の抽出は、画面上でオペレータが抽出画像を指定することによって実現でき、また、次の方法によって自動的に生成することも可能である。
【0026】
(1)背景との差分をとり、画像処理を施す。
【0027】
(2)検出器を用いて抽出対象の位置を検出して映像内の特定部分を抽出する。
【0028】
(3)色情報を用いて、特定の色以外の部分を抽出する。
【0029】
画像抽出部3によって抽出された画像は、抽出画像7としてバッファメモリに格納される。
【0030】
画像合成部4は、画像メモリ2に格納された画像データや、画像抽出部3によって生成された抽出画像データを入力し、画像合成処理を行なう。例えば、画像合成部4は、画像メモリ2より入力された画像に対して、画像抽出部3より入力された抽出画像7を重ね合わせる処理を行い、背景のある合成画像5を生成する。また、画像合成部4は、画像抽出部3より入力された複数の抽出画像を重ね合わせる処理を行い、背景のない合成画像6を生成することも可能である。
【0031】
ここで、合成された画像Aよりも後ろにある画像Bを合成する方法の一例について説明する。まず、背景がある合成画像Aに画像Bの抽出画像を重ね合わせる。その後、重ね合わせた合成画像に対して、さらに背景のない合成画像Aを重ね合わせる。このような合成処理によって、画像Bが画像Aの下に位置するように表示させることができる。
【0032】
図2に本発明の実施の形態1にかかる画像合成装置の画像合成処理を説明するために、合成前の画像と合成後の画像を示す。画像2a〜2fが合成前の画像であり、画像20が合成後の画像である。
【0033】
画像2a〜2fは、野球の打者のスイング動作を一定時間おきに撮影した画像を簡略的に表示したものである。画像2aを最初として時系列的に並べてあり、最後が画像2fである。各画像の背景は斜線で示す。本発明においては、基準となる画像を決定し、その基準画像よりも時間的に前の画像及び基準画像に対する合成処理と、基準画像よりも時間的に後の画像に対する合成処理を変えている点に特徴を有する。この発明の実施の形態1では、基準画像よりも時間的に前の画像及び基準画像に関しては、被写体について上重ね処理を行い、基準画像よりも時間的に後の画像に関しては、被写体について下重ね処理を行なう。基準画像の決定については、さまざまな方法があり、発明の実施の形態4以降において詳述する。
【0034】
図2に示す例では、ヒッティングポイントを示す注目シーンである画像2cを基準画像としている。尚、基準画像を選択するにあたっては、このように他の画像により上書きされることを防止したい画像を優先的に選択する場合、最も撮影カメラ1に近い、手前に被写体或いは被写体に一部(バット等)が位置する画像を選択する場合等、種々の場合がある。
【0035】
この発明の実施の形態1では、基準画像2cよりも前の画像2a、画像2b及び基準画像2cの被写体については上重ね処理を行なう。さらに具体的には、画像2aの打者(バットを含む、以下同じ)の画像に対して、画像2bの打者の画像が上になるように重ねられる。さらに、この合成画像に対して画像2cの打者の画像が上になるように重ねられる。その後、基準画像2cよりも後の画像2d、画像2e、画像2fの被写体については下重ね処理を行なう。さらに具体的には、画像2a〜2cが上重ねされた合成画像に対して、画像2dの打者の画像が下になるように重ねられる。さらに、その合成画像に対して、画像2eの打者の画像が下になるように重ねられる。最後に、その合成画像に対して、画像2fの打者の画像が下になるように重ねられる。このようにして生成された合成画像が画像20である。
【0036】
画像20は、注目シーンがある基準画像が一番上に表示されるため、注目シーンが上書きされずに最後まで残るとともに、その経過を確認することができる。この注目シーンが、撮影用カメラ側である場合には、表示される画像が視覚的に立体になるため、迫力のある表現効果が得られる。
【0037】
続いて、図3を用いて、画像の合成処理について具体的に説明する。画像例は、図2に示すものと同じである。
【0038】
まず、画像メモリ2より画像2a、2b、2cを読み出し、画像合成部4によって、画像2a、2b、2cが順に上重ねされるように合成し、画像21を生成する。この合成方法については、従来のマルチモーションにおいて行っていた周知の手法であるため説明を省略する。次に、画像抽出部3によって画像メモリ2から画像2dを読み出し、被写体の画像のみ抽出し、抽出画像22を生成する。この抽出画像22は、背景のない画像となる。
【0039】
次に、合成画像21と画像22とを合成処理23を行い、画像24を得る。また、画像抽出部3は、合成画像21より被写体の画像のみを抽出し抽出画像25を生成する。この抽出画像25は、背景のない画像となる。そして、合成画像24と抽出画像25とを合成処理することによって、合成画像27を生成する。同様にして、この合成画像27に対して画像2e、画像2fを合成処理することによって、図2に示す合成画像20を得ることができる。
【0040】
発明の実施の形態2.
図4に、本発明の実施の形態2にかかる画像合成装置の構成を示す。撮影用カメラ31は、図1に示す撮影用カメラ1と、画像メモリ32は、図1に示す画像メモリ2と、画像抽出部33は、図1に示す画像抽出部3と、画像合成部34は、図1に示す画像合成部4とそれぞれ同等の機能を有するものである。
【0041】
この発明の実施の形態2にかかる画像合成装置100は、図4に示されるように、抽出領域メモリ36を備えている。
【0042】
この発明の実施の形態2にかかる画像合成部34は、特に画像抽出部33によって抽出された抽出画像37を、画像メモリ32に格納された画像データに重ね合わせて、背景のある合成画像35を生成する。また、画像合成部34は、抽出領域メモリ36に、画像抽出部33によって抽出された画像の範囲を示す情報を適宜取り込んで保存する。
【0043】
ここで、合成された画像Aよりも後ろにある画像Bを合成する方法の一例について説明する。まず、画像Bの抽出画像37より、抽出領域メモリ36に格納された合成画像Aの抽出画像の範囲部分を取り除く。そして、この画像に対して、合成画像Aを重ね合わせる。このような合成処理によって、画像Bが画像Aの下に位置するように表示させることができる。
【0044】
続いて、図5を用いて、本発明の実施の形態2にかかる画像の合成処理について具体的に説明する。画像例は、図2に示すものと同じである。
【0045】
まず、画像メモリ32より画像2a、2b、2cを読み出し、画像合成部34によって、画像2a、2b、2cが順に上重ねされるように合成し、画像41を生成する。次に、画像抽出部33によってこの画像41より、被写体の画像のみ抽出し、抽出画像44を生成し、抽出領域メモリ36に格納する。この抽出画像44は、背景のない画像となる。
【0046】
また、画像メモリ32より画像2dを読み出し、画像抽出部33によって被写体の画像のみ抽出し、抽出画像43を生成し、抽出領域メモリ36に格納する。この抽出画像43は、背景のない画像となる。
【0047】
次に、抽出領域メモリ36から、抽出画像43及び抽出画像44を読み出し、画像合成部34によって、抽出画像43から抽出画像44を取り除く処理を行なう。この処理によって、画像46を得る。続いて、この画像46と、画像41を合成することによって、合成画像42を得る。同様にして、この合成画像42に対して画像2e、画像2fを合成処理することによって、図2に示す合成画像20を得ることができる。
【0048】
発明の実施の形態3.
図6に、本発明の実施の形態3にかかる画像合成装置の構成を示す。撮影用カメラ51は、図1に示す撮影用カメラ1と、画像メモリ52は、図1に示す画像メモリ2と、画像抽出部53は、図1に示す画像抽出部3と、画像合成部54は、図1に示す画像合成部4と同等の機能を有するものである。
【0049】
この発明の実施の形態3にかかる画像合成装置100は、図6に示されるように、抽出領域メモリ56を備えている。
【0050】
この発明の実施の形態3にかかる画像合成部54は、特に画像抽出部53によって抽出された抽出画像57を、画像メモリ52に格納された画像データに重ね合わせて、背景のある合成画像55を生成する。また、画像合成部54は、抽出領域メモリ56に、画像抽出部53によって抽出された画像の範囲を示す情報を適宜取り込んで保存する。
【0051】
ここで、合成された画像Aよりも後ろにある画像Bを合成する方法の一例について説明する。まず、画像抽出部53により画像Bの抽出画像を生成するに際して、抽出領域メモリ56に格納された合成画像Aの抽出範囲は、抽出しないように処理する。そして、この画像に対して、合成画像Aを重ね合わせる。このような合成処理によって、画像Bが画像Aの下に位置するように表示させることができる。
【0052】
続いて、図7を用いて、本発明の実施の形態3にかかる画像の合成処理について具体的に説明する。画像例は、図2に示すものと同じである。
【0053】
まず、画像メモリ52より画像2a、2b、2cを読み出し、画像合成部54によって、画像2a、2b、2cが順に上重ねされるように合成し、画像61を生成する。次に、画像抽出部53によってこの画像61より、被写体の画像のみ抽出し、抽出画像62を生成し、その抽出範囲の情報を抽出領域メモリ56に格納する。
【0054】
また、画像メモリ52より画像2dを読み出し、画像抽出部53によって被写体の画像のみ抽出するが、このとき抽出領域メモリ56に格納された抽出画像62の抽出範囲の情報に基づき、この範囲の画像は抽出しないように処理する。このようにして、抽出画像65を生成する。この抽出画像65は、背景のない画像となる。
【0055】
次に、画像合成部54によって、抽出画像65と合成画像61を合成66することによって、合成画像67を得る。同様にして、この合成画像67に対して画像2e、画像2fを合成処理することによって、図2に示す合成画像20を得ることができる。
【0056】
発明の実施の形態4.
発明の実施の形態4は、基準画像の決定の処理に関するものである。図8に示されるように、発明の実施の形態4では、画像合成装置72に基準画像決定装置73が接続されている。この基準画像決定装置73は、画像合成装置72内に組み込まれる構成であってもよい。即ち、基準画像決定装置73は、画像合成装置72の一機能として実現することができる。
【0057】
ここで、撮影用カメラ71は、図1に示す撮影用カメラ1に相当するものであり、画像合成装置72は、図1に示す画像合成装置100に相当する。
【0058】
基準画像決定装置73には、キーボード74、マイク75及びカメラ76を接続することができる。この発明の実施の形態4における基準画像決定装置73は、さまざまな態様により基準画像を決定することができるものとして説明するが、これに限らず、態様のうちの一つ又は任意の組み合わせにより基準画像を決定することができるものとしてもよい。
【0059】
基準画像決定装置73は、画像合成装置72と別体で構成される場合にあっては、CPU、ROM、RAM等の制御回路、メモリ、ディスプレイ等によって構成される。そのメモリには、基準画像を決定するためのアルゴリズム、処理を行なうためのソフトウェアプログラムがインストールされる。
【0060】
キーボード74は、基準画像の決定をオペレータが直接画面上の画像を確認しながら入力するための入力手段として用いられる。この入力手段としては、キーボード74以外にも、例えば、マウスやタッチパッド等のポインティングデバイスが含まれる。このとき、基準画像決定装置73は、キーボード74等の入力手段からの入力信号に基づき、基準画像を特定する情報を抽出し、画像合成装置72に対して出力する。
【0061】
マイク75は、被写体の動作に伴って発生する音声を検出する音声検出手段として用いられる。例えば、野球の打者のスイングの動作であれば、ボールがバットに衝突する際に生じる打球音を検出する。このとき、基準画像決定装置73は、マイク75により検出された音声情報を入力し、まず、音声情報より特定すべき音、例えば打球音を抽出する。この音の抽出にあたっては、例えば、予め特定すべき音の強度や周波数のデータを設定しておき、そのデータと入力した音声情報を比較することによって実現可能である。音声情報より特定すべき音が抽出された場合には、この音が検出された時刻情報を生成する。この時刻情報に基づき、画像合成装置72の画像メモリから音が検出された時刻又はそれよりも一定時間前又は後に撮影された画像を基準画像として決定する。時刻情報に基づいて基準画像を特定するためのアルゴリズムは、オペレータによって予め設定することができるよう構成されている。
【0062】
カメラ76は、撮影用カメラ81とは別の位置に設けられたカメラであって、被写体の動作を撮影することによって、基準画像の時刻情報を導出するためのカメラである。例えば、野球の打者のスイング動作の場合、ドーム球場の天井に取り付けられたカメラが該当する。このカメラは、上方から打者を撮影することができるため、バットの位置を明確に撮影することができる。そして、バットがヒッティングポイントの領域を通過する時刻情報を検出する。この時刻情報に基づき、基準画像を決定する。時刻情報に基づいて基準画像を特定するためのアルゴリズムは、オペレータによって予め設定することができるよう構成されている。
【0063】
発明の実施の形態5.
本発明の実施の形態5では、図9に示されるように、画像合成装置82に位置検出センサ83が接続されている。ここで、撮影用カメラ81は、図1に示す撮影用カメラ1に相当するものであり、画像合成装置82は、図1に示す画像合成装置100に相当する。
【0064】
この位置検出センサ83は、動作する被写体の位置情報を取得する。画像合成装置82は、当該位置検出センサ83より被写体の位置情報を取得し、被写体の位置と合成画像が矛盾しないように抽出画像を重ね合わせる順序を決定する。位置検出センサ83は、例えば光センサであり、予め定められた位置に設置される。例えば、ゴルフのスイング動作を撮影する場合には、ゴルフクラブがボールに当たる位置に設置される。位置検出センサ83の検出信号に基づき、ゴルフクラブがボールに当たる位置を通過する時刻情報を得ることができる。この時刻情報に基づき、基準画像を決定する。時刻情報に基づいて基準画像を特定するためのアルゴリズムは、オペレータによって予め設定することができるよう構成されている。
【0065】
発明の実施の形態6.
本発明の実施の形態6では、図10に示されるように、画像合成装置92に奥行検出装置93が接続されている。この奥行検出装置93は、画像合成装置92内に設けてもよい。ここで、撮影用カメラ91は、図1に示す撮影用カメラ1に相当するものであり、画像合成装置92は、図1に示す画像合成装置100に相当する。
【0066】
この奥行検出装置93は、動作する被写体の特定箇所の奥行方向、即ち撮影用カメラ91と当該被写体を結ぶ線方向の位置情報を取得する。例えば、野球の打者のスイング動作の場合には、バットの先端部分の位置情報である。この位置情報の検出は、例えば、Color Digiclops(ポイントグレイ社製)の3次元画像撮影装置を利用することができる。
【0067】
画像合成装置92は、奥行検出装置93により検出された奥行方向の位置情報に基づいて、特定箇所と撮影用カメラ91が最も近くに位置する時刻情報を検出し、この位置に特定箇所が位置した状態を撮影した画像を基準画像とする。そして、この基準画像が一番上に表示されるように上記各発明の実施の形態で述べたような手法により画像合成する。
【0068】
尚、被写体の一部が奥行方向に動作するのではなく、被写体の全部が奥行方向に動作する場合には、その被写体の全部の奥行方向の位置情報を検出し、この位置情報に基づき、基準画像を決定してもよい。具体的には、被写体の全部が撮影用カメラ91に最も近い状態を撮影した画像を基準画像とする。そして、この基準画像が一番上に表示されるように上記各発明の実施の形態で述べたような手法により画像合成する。
【0069】
このようにして、被写体の特定箇所又は全体が最も撮影用カメラに近い場所に位置した状態を撮影した画像を基準画像とし、この基準画像が一番上に表示されるように画像合成することによって、被写体を立体的に表示することが可能となる。
【0070】
尚、撮影用カメラ91と奥行検出装置93を単一のカメラによって実現してもよい。
【0071】
発明の実施の形態7.
本発明の実施の形態7にかかる画像合成装置には、発明の実施の形態6と同様に、図10で示されるような奥行検出装置93が画像合成装置92に接続されている。この奥行検出装置93は、画像合成装置92内に設けてもよい。本発明の実施の形態7では、特に、奥行検出装置93によって検出された被写体の動作をさらに分析し、動作開始時及び動作終了時の特定箇所の位置と基準時の特定箇所の位置を比較することによって、合成処理を変更するようにしている。
【0072】
図11に本発明の実施の形態7にかかる画像合成装置の処理フローを示す。まず、被写体を撮影用カメラ91によって撮影する(S101)。次に、画像合成装置は、撮影用カメラ91から画像データを入力し、画像メモリに格納する(S102)。この画像メモリに格納された画像データに基づき、基準画像を決定する(S103)。基準画像の決定は、発明の実施の形態6において説明したような奥行検出装置93を用いて自動決定してもよく、発明の実施の形態4、5において説明したような手法によって決定してもよい。
【0073】
次に動作開始時及び動作終了時における特定箇所の位置は、基準画像を撮像した基準時における特定箇所の位置よりも奥かどうか、即ち撮影用カメラ91よりも離れた位置にあるかどうかを、奥行検出装置93の出力信号に基づき判定する(S104)。
【0074】
判定の結果、動作開始時及び動作終了時における特定箇所の位置は、基準画像を撮像した基準時における特定箇所の位置よりも奥にあると判断された場合には、基準画像までは、上重ね処理をし、基準画像の後は下重ね処理を行なう(S105)。
【0075】
判定の結果、動作開始時及び動作終了時における特定箇所の位置は、基準画像を撮像した基準時における特定箇所の位置よりも奥でないと判断された場合には、基準画像までは、下重ね処理をし、基準画像の後は上重ね処理を行なう(S106)。
【0076】
例えば、野球の打者のスイング動作の場合、図2に示した場合のように正面から撮影した場合には、特定箇所をバットとすると、ステップS105を行なうことになる。他方、打者の背後から撮影した場合には、ステップS106を行なうことになる。
【0077】
尚、この例では、奥行検出装置93によって、自動的に判別する場合を説明したが、ステップS105の処理かステップS106の処理のいずれかをキーボード等に用いてオペレータが設定することができるようにしてもよい。
【0078】
その他の実施の形態.
尚、上述の画像合成装置は、必ずしも単一のコンピュータによって構成される必要はなく、複数のコンピュータによって構成されてもよい。また、画像合成装置と撮影用カメラ、さらには基準画像決定装置を単一の機器により構成してもよい。例えば、動画を撮影する、家庭用又は業務用のカメラ中に画像合成装置や基準画像決定装置を組み込んでもよい。また、家庭用のデジタルビデオ再生装置やゲーム機器に画像合成装置を組み込んでもよい。いわゆるバッティングセンタ、ゴルフ練習場、ゲームセンタ等に、この画像合成装置を撮影用カメラとともに設置するとよい。
【0079】
また、画像合成装置をインタネットサーバ上に備え、インターネットを介してクライアントコンピュータから画像データを送信し、この画像合成装置によって、本発明にかかる画像合成処理を行い、合成画像をクライアントコンピュータに送信するようにしてもよい。このとき、基準画像はクライアントコンピュータによって指定するとよい。
【0080】
基準画像を決定する例をいくつか説明したが、必ずしも基準画像自体でなくとも、基準画像と関連性のある情報を決定してもよい。例えば、基準時刻を決定することによって間接的に基準画像を決定することもできる。
【0081】
上述の例では、最終的に得られる画像上では、背景画像が組み込まれていたが、組み込む必要は必ずしもない。また、撮影時の背景画像でなくとも他の画像を組み込んでもよい。
【0082】
一旦、本発明にかかる画像合成装置によって作成した合成画像を表示させ、その画面上の被写体のうち基準画像としたい被写体をポインタなどによって指定することによって基準画像を容易に変更するものであってもよい。
【0083】
上述の例において、画像合成装置を汎用のコンピュータで構成した場合には、汎用コンピュータを画像合成装置として機能させるための応用プログラムがインストールされる。この応用プログラムは、様々な種類の記憶媒体に格納することが可能であり、また、通信媒体を介して伝達されることが可能である。ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM、DVD、ROMカートリッジ、バッテリバックアップ付きRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等を含む。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等を含み、インターネットも含まれる。
【0084】
【発明の効果】
本発明によれば、奥行方向への動作を伴う被写体の動きを効果的に表現することができる画像合成装置及び画像合成方法を提供することができる。
【図面の簡単な説明】
【図1】本発明にかかる画像合成装置の構成を示すブロック図である。
【図2】合成前の画像と合成後の画像を示す図である。
【図3】本発明にかかる画像合成装置による合成処理を示す図である。
【図4】本発明にかかる画像合成装置の構成を示すブロック図である。
【図5】本発明にかかる画像合成装置による合成処理を示す図である。
【図6】本発明にかかる画像合成装置の構成を示すブロック図である。
【図7】本発明にかかる画像合成装置による合成処理を示す図である。
【図8】本発明にかかる画像合成装置の構成を示すブロック図である。
【図9】本発明にかかる画像合成装置の構成を示すブロック図である。
【図10】本発明にかかる画像合成装置の構成を示すブロック図である。
【図11】本発明にかかる画像合成装置による合成処理を示すフローチャートである。
【符号の説明】
1 撮影用カメラ 100 画像合成装置
2 画像メモリ 3 画像抽出部 4 画像合成部
73 基準画像決定装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image synthesizing apparatus and an image synthesizing method for synthesizing images. For example, the present invention relates to image synthesis used in television program production, movie production, and the like.
[0002]
[Prior art]
Conventionally, in sports broadcast broadcasting or the like, slow motion playback has been frequently used in order to express the movements of the players as subjects in an easy-to-understand manner for the viewer. In addition, a technique called multi-motion is also used in which a player's movement is expressed like a stroboscopic photograph and the still images are sequentially overwritten on a background image to be combined.
[0003]
[Problems to be solved by the invention]
In sports broadcasts, slow motion playback that slowly expresses the movement of fast players is easy to understand and effective for viewers. On the other hand, due to the slow movement, there was a drawback that it was difficult to grasp the trajectory and form transition that the player moved.
[0004]
Multi-motion has the advantage that the background of the movement is easy to understand because of the afterimage effect because the images of stationary players are superimposed one after another and synthesized. However, since images are sequentially superimposed according to time, when a baseball or golf swing is displayed, there is no significant movement in the position of the subject, so even if there is a scene of interest such as a hitting point, it is overwritten. There was a drawback that this scene of interest disappeared. In addition, the multi-motion display has a drawback in visual expression that it is flat and cannot give a stereoscopic effect to the viewer.
[0005]
The present invention has been made to solve such a problem, and provides an image composition device and an image composition method capable of effectively expressing the movement of a subject accompanied by a motion in the depth direction. Objective.
[0006]
[Means for Solving the Problems]
An image composition apparatus according to the present invention is an image composition apparatus that performs image composition of a subject with movement in a depth direction, and reads out image data from an image memory that stores image data and the image memory. Image extracting means for extracting image data, image combining means for performing image composition based on image data stored in the image memory and / or an extracted image extracted by the image extracting means, and reference image determining means for determining a reference image The image synthesizing unit performs an overlay process in which the extracted image is sequentially superimposed on the image before the reference image determined by the reference image determining unit, and is added to the image after the reference image. On the other hand, a lower superposition process is performed in which the extracted images are sequentially superimposed on the lower side. With such a configuration, the reference image is displayed at the top, and if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can.
[0007]
In a preferred embodiment, the lower overlay process combines the first composite image generated by the upper overlay process and an image after the reference image, and the first composite image is combined with the composite image. This is realized by overwriting the composite image from which the subject is extracted.
[0008]
Further, the lower superimposing process is a second image generated by removing a portion of the image obtained by extracting the subject of the first composite image generated by the upper overlapping process from the image obtained by extracting the subject of the image after the reference image. This composite image may be realized by combining the first composite image with the first composite image.
[0009]
Furthermore, the lower superimposition process is an extraction in which the subject of the image after the reference image is extracted by the image extraction means so as not to extract the subject extraction range of the first composite image generated by the upper superimposition process. This may be realized by combining an image with the first combined image.
[0010]
The reference image determination unit may determine the reference image based on information for specifying the reference image input by the input unit.
[0011]
The reference image determining means may determine a reference image based on the sound information detected by the sound detecting means. With such a configuration, the reference image can be automatically determined, and the composition process can be easily performed.
[0012]
Further, the reference image determining means may determine the reference image based on the position information of all or a part of the subject detected by the position detecting means. With such a configuration, the reference image can be automatically determined, and the composition process can be easily performed. Further, according to such means, it is possible to automatically select an image that specifies a state in which all or a part of the subject is closest to the photographing position as the reference image.
[0013]
Further, the reference image determining means may determine the reference image based on the position information of all or part of the subject detected by the depth detecting means. With such a configuration, the reference image can be automatically determined, and the composition process can be easily performed. Further, according to such means, it is possible to automatically select an image that specifies a state in which all or a part of the subject is closest to the photographing position as the reference image.
[0014]
In particular, it is desirable that the reference image determination means selects an image that specifies a state in which all or a part of the subject is closest to the shooting position as the reference image. With such a configuration, since the displayed image is visually three-dimensional, a powerful expression effect can be obtained.
[0015]
Another image synthesizer according to the present invention is an image synthesizer that synthesizes an image of a subject that moves in a depth direction, and reads out image data from an image memory that stores image data and the image memory. Image extracting means for extracting the image, image composition means for performing image composition based on the image data stored in the image memory and / or the extracted image extracted by the image extracting means, and a reference image for determining a reference image Determining means, and the image synthesizing means performs a lower superposition process in which the extracted images are sequentially overlaid on an image before the reference image determined by the reference image determining means, and The image is subjected to an overlay process in which the extracted images are sequentially superimposed on the upper side. With such a configuration, the reference image is displayed at the top, and if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can. This process is particularly effective when the scene of interest is in the back.
[0016]
On the other hand, an image composition method according to the present invention is an image composition method for performing image composition of a subject with a movement in a depth direction, the step of determining a reference image, and an image before the determined reference image. Thus, the method includes a step of performing an overlay process in which the extracted images are sequentially superimposed on the upper side, and a step of performing a lower overlay process in which the extracted images are sequentially superimposed on the lower side of the image after the reference image. Since the reference image is displayed at the top by such a method, if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can.
[0017]
Another image composition method according to the present invention is an image composition method for performing image composition of a subject with a movement in a depth direction, wherein a step of determining a reference image, and an image before the reference image, The method includes a step of performing a lower superimposing process in which the extracted images are sequentially superimposed on the lower side, and a step of performing an upper superimposing process in which the extracted images are sequentially superimposed on the subsequent image of the determined reference image. Since the reference image is displayed at the top by such a method, if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can. This process is particularly effective when the scene of interest is in the back.
[0018]
An image composition program according to the present invention is an image composition program for performing image composition of a subject with a movement in a depth direction, a step of determining a reference image for a computer, and a step before the determined reference image. A step of performing an overlay process in which an extracted image is sequentially superimposed on an image, and a step of performing a overlay process in which an extracted image is sequentially superimposed on an image subsequent to the reference image are performed. It is. By executing such a program with a computer, the reference image is displayed at the top, so if you select the scene of interest as the reference image, the scene of interest remains without being overwritten, and its progress is effective. Can be confirmed.
[0019]
Another image composition program according to the present invention is an image composition program for performing image composition of a subject with a movement in a depth direction, a step of determining a reference image for a computer, and a step before the reference image. A step of performing a superimposing process in which the extracted image is sequentially superimposed on the lower side of the image and a step of performing an upper superimposing process in which the extracted image is sequentially superimposed on the upper side of the image after the determined reference image are performed. It is something to be made. By executing such a program with a computer, the reference image is displayed at the top, so if you select the scene of interest as the reference image, the scene of interest remains without being overwritten, and its progress is effective. Can be confirmed. This process is particularly effective when the scene of interest is in the back.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 of the Invention
FIG. 1 shows the configuration of an image composition apparatus according to Embodiment 1 of the present invention. The
[0021]
The photographing camera 1 photographs a moving subject and generates an image data signal. In this example, it is mainly used for photographing a subject that moves in the depth direction, that is, on a line connecting the subject from the photographing camera 1 and away from the subject. For example, a baseball batter's swing motion, a pitcher's pitching motion, a golf swing motion, a soccer shoot motion, a figure skating rotation motion, a judo throwing motion, and a car cornering motion in a car race. The photographing camera 1 inputs the generated image data signal to the
[0022]
The
[0023]
As shown in FIG. 1, the
[0024]
The
[0025]
The image extraction unit 3 inputs image data from the
[0026]
(1) The difference from the background is taken and image processing is performed.
[0027]
(2) The position of the extraction target is detected using a detector to extract a specific portion in the video.
[0028]
(3) Using color information, a portion other than a specific color is extracted.
[0029]
The image extracted by the image extraction unit 3 is stored as an extracted image 7 in the buffer memory.
[0030]
The image composition unit 4 receives the image data stored in the
[0031]
Here, an example of a method for synthesizing the image B behind the synthesized image A will be described. First, the extracted image of the image B is superimposed on the composite image A with the background. Thereafter, a composite image A without a background is further superimposed on the superimposed composite image. By such composition processing, the image B can be displayed so as to be positioned below the image A.
[0032]
FIG. 2 shows an image before composition and an image after composition in order to explain the image composition processing of the image composition apparatus according to the first embodiment of the present invention.
[0033]
The
[0034]
In the example illustrated in FIG. 2, an
[0035]
In Embodiment 1 of the present invention, the
[0036]
In the
[0037]
Next, the image composition process will be described in detail with reference to FIG. An example image is the same as that shown in FIG.
[0038]
First, the
[0039]
Next, a
[0040]
FIG. 4 shows a configuration of an image composition device according to the second exemplary embodiment of the present invention. The shooting
[0041]
The
[0042]
The
[0043]
Here, an example of a method for synthesizing the image B behind the synthesized image A will be described. First, the range portion of the extracted image of the composite image A stored in the
[0044]
Next, an image composition process according to the second embodiment of the present invention will be specifically described with reference to FIG. An example image is the same as that shown in FIG.
[0045]
First, the
[0046]
Further, the
[0047]
Next, the extracted
[0048]
Embodiment 3 of the Invention
FIG. 6 shows the configuration of an image composition apparatus according to the third embodiment of the present invention. The shooting
[0049]
The
[0050]
The
[0051]
Here, an example of a method for synthesizing the image B behind the synthesized image A will be described. First, when the extraction image of the image B is generated by the
[0052]
Next, an image composition process according to the third embodiment of the present invention will be specifically described with reference to FIG. An example image is the same as that shown in FIG.
[0053]
First, the
[0054]
Further, the
[0055]
Next, the combined
[0056]
Embodiment 4 of the Invention
The fourth embodiment of the present invention relates to a process for determining a reference image. As shown in FIG. 8, in the fourth embodiment of the present invention, a reference
[0057]
Here, the photographing
[0058]
A
[0059]
When the reference
[0060]
The
[0061]
The
[0062]
The
[0063]
In the fifth embodiment of the present invention, as shown in FIG. 9, a
[0064]
The
[0065]
Embodiment 6 of the Invention
In the sixth embodiment of the present invention, as shown in FIG. 10, a
[0066]
The
[0067]
Based on the position information in the depth direction detected by the
[0068]
Note that when not all of the subject moves in the depth direction but all of the subject moves in the depth direction, the position information of all the subjects in the depth direction is detected, and based on this position information, the reference An image may be determined. Specifically, an image obtained by photographing a state where all of the subjects are closest to the photographing
[0069]
In this way, an image obtained by photographing a state where a specific part or the entire subject is located closest to the photographing camera is used as a reference image, and the image is synthesized so that the reference image is displayed at the top. The object can be displayed in three dimensions.
[0070]
The photographing
[0071]
Embodiment 7 of the Invention
In the image composition device according to the seventh embodiment of the present invention, a
[0072]
FIG. 11 shows a processing flow of the image composition apparatus according to the seventh embodiment of the present invention. First, the subject is photographed by the photographing camera 91 (S101). Next, the image composition device inputs image data from the photographing
[0073]
Next, whether the position of the specific part at the start of the operation and the end of the operation is deeper than the position of the specific part at the reference time when the reference image is captured, that is, whether the position is away from the shooting
[0074]
As a result of the determination, if it is determined that the position of the specific part at the start and end of the operation is behind the position of the specific part at the time of reference when the reference image is captured, the reference image is overlaid. Then, after the reference image, a lower overlay process is performed (S105).
[0075]
As a result of the determination, if it is determined that the position of the specific location at the start and end of the operation is not behind the position of the specific location at the time of reference when the reference image is captured, the reference image is processed upside down. Then, after the reference image, the superposition process is performed (S106).
[0076]
For example, in the case of a baseball batter's swing motion, when shooting from the front as shown in FIG. 2, if a specific location is a bat, step S105 is performed. On the other hand, if the image is taken from behind the batter, step S106 is performed.
[0077]
In this example, the case where the
[0078]
Other embodiments.
Note that the above-described image synthesizing apparatus is not necessarily configured by a single computer, and may be configured by a plurality of computers. Further, the image synthesizing device, the photographing camera, and further the reference image determining device may be configured by a single device. For example, an image composition device or a reference image determination device may be incorporated in a home or business camera that captures a moving image. Further, an image composition device may be incorporated in a home digital video playback device or game machine. It is advisable to install this image composition device together with a photographing camera in a so-called batting center, golf driving range, game center or the like.
[0079]
Also, an image composition device is provided on the Internet server, image data is transmitted from a client computer via the Internet, the image composition processing according to the present invention is performed by this image composition device, and the composite image is transmitted to the client computer. It may be. At this time, the reference image may be designated by the client computer.
[0080]
Although some examples of determining the reference image have been described, information related to the reference image may be determined, not necessarily the reference image itself. For example, the reference image can be indirectly determined by determining the reference time.
[0081]
In the above example, the background image is incorporated on the finally obtained image, but it is not always necessary to incorporate it. In addition, other images may be incorporated instead of the background image at the time of shooting.
[0082]
Even if the composite image created by the image composition device according to the present invention is once displayed, the reference image can be easily changed by designating a subject to be a reference image among the subjects on the screen by a pointer or the like. Good.
[0083]
In the above example, when the image composition device is configured by a general-purpose computer, an application program for causing the general-purpose computer to function as the image composition device is installed. This application program can be stored in various types of storage media, and can be transmitted via a communication medium. Here, the storage medium includes, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a battery-backed RAM memory cartridge, a flash memory cartridge, and a nonvolatile RAM cartridge. The communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the Internet.
[0084]
【The invention's effect】
According to the present invention, it is possible to provide an image composition device and an image composition method capable of effectively expressing the movement of a subject accompanied by an operation in the depth direction.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 2 is a diagram showing an image before composition and an image after composition.
FIG. 3 is a diagram illustrating a composition process by the image composition apparatus according to the present invention.
FIG. 4 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 5 is a diagram showing a composition process by the image composition apparatus according to the present invention.
FIG. 6 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 7 is a diagram showing a composition process by the image composition apparatus according to the present invention.
FIG. 8 is a block diagram showing a configuration of an image composition device according to the present invention.
FIG. 9 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 10 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 11 is a flowchart showing a composition process by the image composition apparatus according to the present invention.
[Explanation of symbols]
1 Camera for
2 Image memory 3 Image extraction unit 4 Image composition unit
73 Reference Image Determination Device
Claims (14)
画像データを記憶する画像メモリと、
前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、
前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、
基準画像を決定する基準画像決定手段とを備え、
前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次上方に抽出画像が重ねられる上重ね処理を行い、前記基準画像の後の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行なう画像合成装置。An image composition device that performs image composition of a subject with movement in a depth direction,
An image memory for storing image data;
Image extraction means for reading out image data from the image memory and extracting an image of a subject;
Image composition means for performing image composition based on the image data stored in the image memory and / or the extracted image extracted by the image extraction means;
A reference image determining means for determining a reference image;
The image synthesizing unit performs an overlay process in which the extracted image is sequentially overlaid on the image before the reference image determined by the reference image determining unit, and sequentially on the image after the reference image. An image synthesizing apparatus that performs a bottom overlay process in which an extracted image is superimposed below.
画像データを記憶する画像メモリと、
前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、
前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、
基準画像を決定する基準画像決定手段とを備え、
前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行い、前記基準画像の後の画像に対しては、順次上方に抽出画像が重ねられる上重ね処理を行なう画像合成装置。An image composition device that performs image composition of a subject with movement in a depth direction,
An image memory for storing image data;
Image extraction means for reading out image data from the image memory and extracting an image of a subject;
Image composition means for performing image composition based on the image data stored in the image memory and / or the extracted image extracted by the image extraction means;
A reference image determining means for determining a reference image;
The image synthesizing unit performs a lower superposition process in which the extracted image is sequentially superimposed on an image before the reference image determined by the reference image determining unit, and for an image after the reference image, An image composition apparatus for performing an overlay process in which extracted images are sequentially superimposed on the upper side.
基準画像を決定するステップと、
決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、
前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを有する画像合成方法。An image composition method for compositing an image of a subject with a movement in a depth direction,
Determining a reference image;
Performing an overlay process in which the extracted image is sequentially superimposed on the image before the determined reference image;
An image synthesizing method including a step of performing a lower superimposition process in which an extracted image is sequentially superimposed on an image subsequent to the reference image.
基準画像を決定するステップと、
前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、
決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップとを有する画像合成方法。An image composition method for compositing an image of a subject with a movement in a depth direction,
Determining a reference image;
Performing an overlay process in which the extracted images are sequentially superimposed on the previous image of the reference image;
And a step of performing an overlay process in which the extracted image is sequentially superimposed on the subsequent image of the determined reference image.
基準画像を決定するステップと、
決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、
前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを実行させる画像合成プログラム。An image synthesis program for synthesizing an image of a subject with a movement in the depth direction.
Determining a reference image;
Performing an overlay process in which the extracted image is sequentially superimposed on the image before the determined reference image;
An image composition program for executing a step of performing a lower superimposition process in which an extracted image is sequentially superimposed on an image subsequent to the reference image.
基準画像を決定するステップと、
前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、
決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップを実行させる画像合成プログラム。An image synthesis program for synthesizing an image of a subject with a movement in the depth direction.
Determining a reference image;
Performing an overlay process in which the extracted images are sequentially superimposed on the previous image of the reference image;
An image synthesis program for executing a step of performing an overlay process in which an extracted image is sequentially overlaid on a subsequent image of a determined reference image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002104908A JP3929811B2 (en) | 2002-04-08 | 2002-04-08 | Image composition apparatus and image composition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002104908A JP3929811B2 (en) | 2002-04-08 | 2002-04-08 | Image composition apparatus and image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003304444A JP2003304444A (en) | 2003-10-24 |
JP3929811B2 true JP3929811B2 (en) | 2007-06-13 |
Family
ID=29389866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002104908A Expired - Lifetime JP3929811B2 (en) | 2002-04-08 | 2002-04-08 | Image composition apparatus and image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3929811B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI246031B (en) * | 2004-09-17 | 2005-12-21 | Ulead Systems Inc | System and method for synthesizing multi-exposed image |
JP2006203443A (en) * | 2005-01-19 | 2006-08-03 | Inc Corp | Image synthesizer and synthesization program |
JP4971813B2 (en) * | 2007-01-31 | 2012-07-11 | 日本放送協会 | Video generation apparatus and video generation program |
JP4591576B2 (en) | 2008-08-18 | 2010-12-01 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP4623201B2 (en) | 2008-10-27 | 2011-02-02 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5526727B2 (en) * | 2009-11-20 | 2014-06-18 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5515671B2 (en) * | 2009-11-20 | 2014-06-11 | ソニー株式会社 | Image processing apparatus, control method thereof, and program |
JP5293587B2 (en) * | 2009-12-16 | 2013-09-18 | ソニー株式会社 | Display control apparatus, display control method, and program |
JP2016163089A (en) * | 2015-02-27 | 2016-09-05 | 株式会社Jvcケンウッド | Image connection device, image connection method, and image connection program |
CN104735385B (en) | 2015-03-31 | 2018-10-12 | 小米科技有限责任公司 | Control method for playing back and device, electronic equipment |
-
2002
- 2002-04-08 JP JP2002104908A patent/JP3929811B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2003304444A (en) | 2003-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8885979B2 (en) | Apparatus and associated methodology for analyzing subject motion in images | |
US8358346B2 (en) | Video processing device, video processing method, and program | |
JP4557035B2 (en) | Information processing apparatus, information processing method, program, and recording medium | |
US20190287302A1 (en) | System and method of controlling a virtual camera | |
US20110102678A1 (en) | Key Generation Through Spatial Detection of Dynamic Objects | |
US10382704B2 (en) | Image processing device that generates a composite image | |
US20110157423A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP5201860B2 (en) | Dart form check system | |
JP3929811B2 (en) | Image composition apparatus and image composition method | |
JP2023156453A (en) | Program, information processing device, and method for processing information | |
KR101291765B1 (en) | Ball trace providing system for realtime broadcasting | |
CN110270078B (en) | Football game special effect display system and method and computer device | |
US20230353717A1 (en) | Image processing system, image processing method, and storage medium | |
JPH06105231A (en) | Picture synthesis device | |
JP4906588B2 (en) | Specific operation determination device, reference data generation device, specific operation determination program, and reference data generation program | |
CN107506108B (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
JP2020202458A (en) | Information processor, control method of information processor, and program | |
TW201607592A (en) | Determination method and device | |
JP2003141505A (en) | Image synthesizing device and program | |
KR102652647B1 (en) | Server, method and computer program for generating time slice video by detecting highlight scene event | |
JP2019176260A (en) | Display program, display method, and display device | |
EP4460017A1 (en) | Information processing device, image processing method, and program | |
EP4369304A1 (en) | Information processing device, information processing method, and program | |
WO2023100703A1 (en) | Image production system, image production method, and program | |
TWI559760B (en) | Extraction method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070307 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3929811 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110316 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140316 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |