Nothing Special   »   [go: up one dir, main page]

JP3929811B2 - Image composition apparatus and image composition method - Google Patents

Image composition apparatus and image composition method Download PDF

Info

Publication number
JP3929811B2
JP3929811B2 JP2002104908A JP2002104908A JP3929811B2 JP 3929811 B2 JP3929811 B2 JP 3929811B2 JP 2002104908 A JP2002104908 A JP 2002104908A JP 2002104908 A JP2002104908 A JP 2002104908A JP 3929811 B2 JP3929811 B2 JP 3929811B2
Authority
JP
Japan
Prior art keywords
image
extracted
reference image
subject
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002104908A
Other languages
Japanese (ja)
Other versions
JP2003304444A (en
Inventor
賢二 西久保
浩幸 岡本
大一郎 加藤
裕康 増田
真 池田
豊 岩井
賢一 橋本
宏幸 玉木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2002104908A priority Critical patent/JP3929811B2/en
Publication of JP2003304444A publication Critical patent/JP2003304444A/en
Application granted granted Critical
Publication of JP3929811B2 publication Critical patent/JP3929811B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像合成を行なう画像合成装置及び画像合成方法に関するものであり、例えば、テレビジョン番組制作、映画制作等において用いられる画像合成に関するものである。
【0002】
【従来の技術】
従来より、スポーツ中継放送等では、被写体である選手の動きを視聴者に分かりやすく表現するため、スローモーション再生が多用されている。また、選手の動きをストロボ写真のように表現し、その静止画像を背景画像上で順次上書きすることにより合成していくマルチモーションと呼ばれる技術も利用されている。
【0003】
【発明が解決しようとする課題】
スポーツ中継において、速い選手の動きをゆっくりと表現するスローモーション再生は、視聴者にとって分かりやすく効果的である。その一方で、動きが遅くなることで、選手が動いた軌跡やフォームの移行が捉えにくいという欠点があった。
【0004】
マルチモーションは、静止した選手の画像を次々に重ね合わせて合成していくため、残像効果で動きの経緯が分かりやすいという利点がある。しかしながら、時間経緯に従って順次画像を重ね合わせているため、野球やゴルフのスイング等を表示する場合、被写体の位置に大きな移動がないため、ヒッティングポイント等の注目シーンがあっても上書きされてしまい、この注目シーンが見えなくなってしまうという欠点があった。また、マルチモーションによる表示は、平面的で立体感を視聴者に与えることができないといった視覚表現上の欠点もあった。
【0005】
本発明は、このような問題点を解決するためになされたもので、奥行方向への動作を伴う被写体の動きを効果的に表現することができる画像合成装置及び画像合成方法を提供することを目的とする。
【0006】
【課題を解決するための手段】
本発明にかかる画像合成装置は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成装置であって、画像データを記憶する画像メモリと、前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、基準画像を決定する基準画像決定手段とを備え、前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次上方に抽出画像が重ねられる上重ね処理を行い、前記基準画像の後の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行なうものである。このような構成により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。
【0007】
好ましい実施の形態では、前記下重ね処理は、上重ね処理によって生成された第1の合成画像と前記基準画像の後の画像を合成するとともに、この合成画像に対して、第1の合成画像の被写体を抽出した合成画像を上書きにすることにより実現するものである。
【0008】
また、前記下重ね処理は、前記基準画像の後の画像の被写体を抽出した画像から上重ね処理によって生成された第1の合成画像の被写体を抽出した画像の部分を取り除くことにより生成した第2の合成画像を前記第1の合成画像に合成することにより実現するようにしてもよい。
【0009】
さらに、また、前記下重ね処理は、上重ね処理によって生成された第1の合成画像の被写体の抽出範囲を抽出しないように、前記画像抽出手段によって基準画像の後の画像の被写体を抽出した抽出画像を前記第1の合成画像に合成することにより実現するようにしてもよい。
【0010】
また、前記基準画像決定手段は、入力手段によって入力された基準画像を特定するための情報に基づいて基準画像を決定するようにしてもよい。
【0011】
前記基準画像決定手段は、音声検出手段によって検出された音声情報に基づいて基準画像を決定するようにしてもよい。このような構成により基準画像を自動的に決定することができ、合成処理が容易に行なうことができる。
【0012】
また、前記基準画像決定手段は、位置検出手段によって検出された被写体の全部又は一部の位置情報に基づいて基準画像を決定するようにしてもよい。このような構成により基準画像を自動的に決定することができ、合成処理が容易に行なうことができる。また、このような手段によれば、被写体の全部又は一部が最も撮影位置に近い状態を特定する画像を基準画像として選択することも自動的にできる。
【0013】
さらに、基準画像決定手段は、奥行検出手段によって検出された被写体の全部又は一部の位置情報に基づいて基準画像を決定するようにしてもよい。このような構成により基準画像を自動的に決定することができ、合成処理が容易に行なうことができる。また、このような手段によれば、被写体の全部又は一部が最も撮影位置に近い状態を特定する画像を基準画像として選択することも自動的にできる。
【0014】
特に、前記基準画像決定手段は、被写体の全部又は一部が最も撮影位置に近い状態を特定する画像を基準画像として選択することが望ましい。このような構成によって、表示される画像が視覚的に立体になるため、迫力のある表現効果が得られる。
【0015】
本発明にかかる他の画像合成装置は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成装置であって、画像データを記憶する画像メモリと、前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、基準画像を決定する基準画像決定手段とを備え、前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行い、前記基準画像の後の画像に対しては、順次上方に抽出画像が重ねられる上重ね処理を行なうものである。このような構成により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。特に、注目シーンが奥にある場合には、有効な処理である。
【0016】
他方、本発明にかかる画像合成方法は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成方法であって、基準画像を決定するステップと、決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを有するものである。このような方法により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。
【0017】
本発明にかかる他の画像合成方法は、奥行方向への動きを伴う被写体の画像合成を行なう画像合成方法であって、基準画像を決定するステップと、前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップとを有するものである。このような方法により、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。特に、注目シーンが奥にある場合には、有効な処理である。
【0018】
本発明にかかる画像合成プログラムは、奥行方向への動きを伴う被写体の画像合成を行なう画像合成プログラムであって、コンピュータに対して、基準画像を決定するステップと、決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを実行させるものである。このようなプログラムをコンピュータにより実行することにより、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。
【0019】
本発明にかかる他の画像合成プログラムは、奥行方向への動きを伴う被写体の画像合成を行なう画像合成プログラムであって、コンピュータに対して、基準画像を決定するステップと、前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップを実行させるものである。このようなプログラムをコンピュータにより実行することにより、基準画像が一番上に表示されるため、注目シーンを基準画像に選択すれば、注目シーンが上書きされずに最後まで残るとともに、その経過を効果的に確認することができる。特に、注目シーンが奥にある場合には、有効な処理である。
【0020】
【発明の実施の形態】
発明の実施の形態1.
図1に、本発明の実施の形態1にかかる画像合成装置の構成を示す。この画像合成装置100は、撮影用カメラ1とケーブルや無線回線によって接続されている。
【0021】
撮影用カメラ1は、動きのある被写体を撮影し、画像データ信号を生成する。この例では、主として奥行方向、即ち撮影用カメラ1から被写体を結ぶ線上であって両者が離れる方向への動きがある被写体の撮影に用いられる。例えば、野球の打者のスイング動作、投手の投球動作、ゴルフのスイング動作、サッカーのシュート動作、フィギュアスケートの回転動作、柔道の投げ技の動作、カーレースでの車のコーナリング動作である。撮影用カメラ1は、生成した画像データ信号をケーブルを介して画像合成装置100に入力する。尚、撮影用カメラ1から画像データ信号を一旦磁気テープ等の記憶媒体に格納し、画像合成装置100においてこの記憶媒体より画像データ信号を読み出すようにしてもよい。
【0022】
画像合成装置100は、例えば、CPU、ROM、RAM、ハードディスク、ディスプレイ、キーボード等を有する専用コンピュータによってハードウエア上構成される。また、いわゆる汎用コンピュータに応用プログラムをインストールすることによってこの画像合成装置100を構成することも可能である。さらに、画像合成装置100は、バッファメモリを備え、適宜、背景あり合成画像5、背景なし合成画像6、抽出画像7を格納する。
【0023】
画像合成装置100は、図1に示されるように、画像メモリ2、画像抽出部3、画像合成部4を備えている。
【0024】
画像メモリ2は、撮影用カメラ1より入力された画像データ信号を蓄積する記憶手段である。この画像メモリ2には、本発明にかかる画像合成処理の対象となる画像データがフレーム毎に時刻情報と関連付けられて蓄積される。この画像データのフレーム数は、画像合成処理を行なう被写体の動作の速さ、動作時間に応じて適宜選択される。
【0025】
画像抽出部3は、画像メモリ2より画像データを入力し、被写体の画像を抽出し、背景画像と分離する処理を行なう。例えば、野球の打者のスイング動作に関する画像であれば、被写体となる打者の部分のみが抽出される。画像抽出部3による画像情報の抽出は、画面上でオペレータが抽出画像を指定することによって実現でき、また、次の方法によって自動的に生成することも可能である。
【0026】
(1)背景との差分をとり、画像処理を施す。
【0027】
(2)検出器を用いて抽出対象の位置を検出して映像内の特定部分を抽出する。
【0028】
(3)色情報を用いて、特定の色以外の部分を抽出する。
【0029】
画像抽出部3によって抽出された画像は、抽出画像7としてバッファメモリに格納される。
【0030】
画像合成部4は、画像メモリ2に格納された画像データや、画像抽出部3によって生成された抽出画像データを入力し、画像合成処理を行なう。例えば、画像合成部4は、画像メモリ2より入力された画像に対して、画像抽出部3より入力された抽出画像7を重ね合わせる処理を行い、背景のある合成画像5を生成する。また、画像合成部4は、画像抽出部3より入力された複数の抽出画像を重ね合わせる処理を行い、背景のない合成画像6を生成することも可能である。
【0031】
ここで、合成された画像Aよりも後ろにある画像Bを合成する方法の一例について説明する。まず、背景がある合成画像Aに画像Bの抽出画像を重ね合わせる。その後、重ね合わせた合成画像に対して、さらに背景のない合成画像Aを重ね合わせる。このような合成処理によって、画像Bが画像Aの下に位置するように表示させることができる。
【0032】
図2に本発明の実施の形態1にかかる画像合成装置の画像合成処理を説明するために、合成前の画像と合成後の画像を示す。画像2a〜2fが合成前の画像であり、画像20が合成後の画像である。
【0033】
画像2a〜2fは、野球の打者のスイング動作を一定時間おきに撮影した画像を簡略的に表示したものである。画像2aを最初として時系列的に並べてあり、最後が画像2fである。各画像の背景は斜線で示す。本発明においては、基準となる画像を決定し、その基準画像よりも時間的に前の画像及び基準画像に対する合成処理と、基準画像よりも時間的に後の画像に対する合成処理を変えている点に特徴を有する。この発明の実施の形態1では、基準画像よりも時間的に前の画像及び基準画像に関しては、被写体について上重ね処理を行い、基準画像よりも時間的に後の画像に関しては、被写体について下重ね処理を行なう。基準画像の決定については、さまざまな方法があり、発明の実施の形態4以降において詳述する。
【0034】
図2に示す例では、ヒッティングポイントを示す注目シーンである画像2cを基準画像としている。尚、基準画像を選択するにあたっては、このように他の画像により上書きされることを防止したい画像を優先的に選択する場合、最も撮影カメラ1に近い、手前に被写体或いは被写体に一部(バット等)が位置する画像を選択する場合等、種々の場合がある。
【0035】
この発明の実施の形態1では、基準画像2cよりも前の画像2a、画像2b及び基準画像2cの被写体については上重ね処理を行なう。さらに具体的には、画像2aの打者(バットを含む、以下同じ)の画像に対して、画像2bの打者の画像が上になるように重ねられる。さらに、この合成画像に対して画像2cの打者の画像が上になるように重ねられる。その後、基準画像2cよりも後の画像2d、画像2e、画像2fの被写体については下重ね処理を行なう。さらに具体的には、画像2a〜2cが上重ねされた合成画像に対して、画像2dの打者の画像が下になるように重ねられる。さらに、その合成画像に対して、画像2eの打者の画像が下になるように重ねられる。最後に、その合成画像に対して、画像2fの打者の画像が下になるように重ねられる。このようにして生成された合成画像が画像20である。
【0036】
画像20は、注目シーンがある基準画像が一番上に表示されるため、注目シーンが上書きされずに最後まで残るとともに、その経過を確認することができる。この注目シーンが、撮影用カメラ側である場合には、表示される画像が視覚的に立体になるため、迫力のある表現効果が得られる。
【0037】
続いて、図3を用いて、画像の合成処理について具体的に説明する。画像例は、図2に示すものと同じである。
【0038】
まず、画像メモリ2より画像2a、2b、2cを読み出し、画像合成部4によって、画像2a、2b、2cが順に上重ねされるように合成し、画像21を生成する。この合成方法については、従来のマルチモーションにおいて行っていた周知の手法であるため説明を省略する。次に、画像抽出部3によって画像メモリ2から画像2dを読み出し、被写体の画像のみ抽出し、抽出画像22を生成する。この抽出画像22は、背景のない画像となる。
【0039】
次に、合成画像21と画像22とを合成処理23を行い、画像24を得る。また、画像抽出部3は、合成画像21より被写体の画像のみを抽出し抽出画像25を生成する。この抽出画像25は、背景のない画像となる。そして、合成画像24と抽出画像25とを合成処理することによって、合成画像27を生成する。同様にして、この合成画像27に対して画像2e、画像2fを合成処理することによって、図2に示す合成画像20を得ることができる。
【0040】
発明の実施の形態2.
図4に、本発明の実施の形態2にかかる画像合成装置の構成を示す。撮影用カメラ31は、図1に示す撮影用カメラ1と、画像メモリ32は、図1に示す画像メモリ2と、画像抽出部33は、図1に示す画像抽出部3と、画像合成部34は、図1に示す画像合成部4とそれぞれ同等の機能を有するものである。
【0041】
この発明の実施の形態2にかかる画像合成装置100は、図4に示されるように、抽出領域メモリ36を備えている。
【0042】
この発明の実施の形態2にかかる画像合成部34は、特に画像抽出部33によって抽出された抽出画像37を、画像メモリ32に格納された画像データに重ね合わせて、背景のある合成画像35を生成する。また、画像合成部34は、抽出領域メモリ36に、画像抽出部33によって抽出された画像の範囲を示す情報を適宜取り込んで保存する。
【0043】
ここで、合成された画像Aよりも後ろにある画像Bを合成する方法の一例について説明する。まず、画像Bの抽出画像37より、抽出領域メモリ36に格納された合成画像Aの抽出画像の範囲部分を取り除く。そして、この画像に対して、合成画像Aを重ね合わせる。このような合成処理によって、画像Bが画像Aの下に位置するように表示させることができる。
【0044】
続いて、図5を用いて、本発明の実施の形態2にかかる画像の合成処理について具体的に説明する。画像例は、図2に示すものと同じである。
【0045】
まず、画像メモリ32より画像2a、2b、2cを読み出し、画像合成部34によって、画像2a、2b、2cが順に上重ねされるように合成し、画像41を生成する。次に、画像抽出部33によってこの画像41より、被写体の画像のみ抽出し、抽出画像44を生成し、抽出領域メモリ36に格納する。この抽出画像44は、背景のない画像となる。
【0046】
また、画像メモリ32より画像2dを読み出し、画像抽出部33によって被写体の画像のみ抽出し、抽出画像43を生成し、抽出領域メモリ36に格納する。この抽出画像43は、背景のない画像となる。
【0047】
次に、抽出領域メモリ36から、抽出画像43及び抽出画像44を読み出し、画像合成部34によって、抽出画像43から抽出画像44を取り除く処理を行なう。この処理によって、画像46を得る。続いて、この画像46と、画像41を合成することによって、合成画像42を得る。同様にして、この合成画像42に対して画像2e、画像2fを合成処理することによって、図2に示す合成画像20を得ることができる。
【0048】
発明の実施の形態3.
図6に、本発明の実施の形態3にかかる画像合成装置の構成を示す。撮影用カメラ51は、図1に示す撮影用カメラ1と、画像メモリ52は、図1に示す画像メモリ2と、画像抽出部53は、図1に示す画像抽出部3と、画像合成部54は、図1に示す画像合成部4と同等の機能を有するものである。
【0049】
この発明の実施の形態3にかかる画像合成装置100は、図6に示されるように、抽出領域メモリ56を備えている。
【0050】
この発明の実施の形態3にかかる画像合成部54は、特に画像抽出部53によって抽出された抽出画像57を、画像メモリ52に格納された画像データに重ね合わせて、背景のある合成画像55を生成する。また、画像合成部54は、抽出領域メモリ56に、画像抽出部53によって抽出された画像の範囲を示す情報を適宜取り込んで保存する。
【0051】
ここで、合成された画像Aよりも後ろにある画像Bを合成する方法の一例について説明する。まず、画像抽出部53により画像Bの抽出画像を生成するに際して、抽出領域メモリ56に格納された合成画像Aの抽出範囲は、抽出しないように処理する。そして、この画像に対して、合成画像Aを重ね合わせる。このような合成処理によって、画像Bが画像Aの下に位置するように表示させることができる。
【0052】
続いて、図7を用いて、本発明の実施の形態3にかかる画像の合成処理について具体的に説明する。画像例は、図2に示すものと同じである。
【0053】
まず、画像メモリ52より画像2a、2b、2cを読み出し、画像合成部54によって、画像2a、2b、2cが順に上重ねされるように合成し、画像61を生成する。次に、画像抽出部53によってこの画像61より、被写体の画像のみ抽出し、抽出画像62を生成し、その抽出範囲の情報を抽出領域メモリ56に格納する。
【0054】
また、画像メモリ52より画像2dを読み出し、画像抽出部53によって被写体の画像のみ抽出するが、このとき抽出領域メモリ56に格納された抽出画像62の抽出範囲の情報に基づき、この範囲の画像は抽出しないように処理する。このようにして、抽出画像65を生成する。この抽出画像65は、背景のない画像となる。
【0055】
次に、画像合成部54によって、抽出画像65と合成画像61を合成66することによって、合成画像67を得る。同様にして、この合成画像67に対して画像2e、画像2fを合成処理することによって、図2に示す合成画像20を得ることができる。
【0056】
発明の実施の形態4.
発明の実施の形態4は、基準画像の決定の処理に関するものである。図8に示されるように、発明の実施の形態4では、画像合成装置72に基準画像決定装置73が接続されている。この基準画像決定装置73は、画像合成装置72内に組み込まれる構成であってもよい。即ち、基準画像決定装置73は、画像合成装置72の一機能として実現することができる。
【0057】
ここで、撮影用カメラ71は、図1に示す撮影用カメラ1に相当するものであり、画像合成装置72は、図1に示す画像合成装置100に相当する。
【0058】
基準画像決定装置73には、キーボード74、マイク75及びカメラ76を接続することができる。この発明の実施の形態4における基準画像決定装置73は、さまざまな態様により基準画像を決定することができるものとして説明するが、これに限らず、態様のうちの一つ又は任意の組み合わせにより基準画像を決定することができるものとしてもよい。
【0059】
基準画像決定装置73は、画像合成装置72と別体で構成される場合にあっては、CPU、ROM、RAM等の制御回路、メモリ、ディスプレイ等によって構成される。そのメモリには、基準画像を決定するためのアルゴリズム、処理を行なうためのソフトウェアプログラムがインストールされる。
【0060】
キーボード74は、基準画像の決定をオペレータが直接画面上の画像を確認しながら入力するための入力手段として用いられる。この入力手段としては、キーボード74以外にも、例えば、マウスやタッチパッド等のポインティングデバイスが含まれる。このとき、基準画像決定装置73は、キーボード74等の入力手段からの入力信号に基づき、基準画像を特定する情報を抽出し、画像合成装置72に対して出力する。
【0061】
マイク75は、被写体の動作に伴って発生する音声を検出する音声検出手段として用いられる。例えば、野球の打者のスイングの動作であれば、ボールがバットに衝突する際に生じる打球音を検出する。このとき、基準画像決定装置73は、マイク75により検出された音声情報を入力し、まず、音声情報より特定すべき音、例えば打球音を抽出する。この音の抽出にあたっては、例えば、予め特定すべき音の強度や周波数のデータを設定しておき、そのデータと入力した音声情報を比較することによって実現可能である。音声情報より特定すべき音が抽出された場合には、この音が検出された時刻情報を生成する。この時刻情報に基づき、画像合成装置72の画像メモリから音が検出された時刻又はそれよりも一定時間前又は後に撮影された画像を基準画像として決定する。時刻情報に基づいて基準画像を特定するためのアルゴリズムは、オペレータによって予め設定することができるよう構成されている。
【0062】
カメラ76は、撮影用カメラ81とは別の位置に設けられたカメラであって、被写体の動作を撮影することによって、基準画像の時刻情報を導出するためのカメラである。例えば、野球の打者のスイング動作の場合、ドーム球場の天井に取り付けられたカメラが該当する。このカメラは、上方から打者を撮影することができるため、バットの位置を明確に撮影することができる。そして、バットがヒッティングポイントの領域を通過する時刻情報を検出する。この時刻情報に基づき、基準画像を決定する。時刻情報に基づいて基準画像を特定するためのアルゴリズムは、オペレータによって予め設定することができるよう構成されている。
【0063】
発明の実施の形態5.
本発明の実施の形態5では、図9に示されるように、画像合成装置82に位置検出センサ83が接続されている。ここで、撮影用カメラ81は、図1に示す撮影用カメラ1に相当するものであり、画像合成装置82は、図1に示す画像合成装置100に相当する。
【0064】
この位置検出センサ83は、動作する被写体の位置情報を取得する。画像合成装置82は、当該位置検出センサ83より被写体の位置情報を取得し、被写体の位置と合成画像が矛盾しないように抽出画像を重ね合わせる順序を決定する。位置検出センサ83は、例えば光センサであり、予め定められた位置に設置される。例えば、ゴルフのスイング動作を撮影する場合には、ゴルフクラブがボールに当たる位置に設置される。位置検出センサ83の検出信号に基づき、ゴルフクラブがボールに当たる位置を通過する時刻情報を得ることができる。この時刻情報に基づき、基準画像を決定する。時刻情報に基づいて基準画像を特定するためのアルゴリズムは、オペレータによって予め設定することができるよう構成されている。
【0065】
発明の実施の形態6.
本発明の実施の形態6では、図10に示されるように、画像合成装置92に奥行検出装置93が接続されている。この奥行検出装置93は、画像合成装置92内に設けてもよい。ここで、撮影用カメラ91は、図1に示す撮影用カメラ1に相当するものであり、画像合成装置92は、図1に示す画像合成装置100に相当する。
【0066】
この奥行検出装置93は、動作する被写体の特定箇所の奥行方向、即ち撮影用カメラ91と当該被写体を結ぶ線方向の位置情報を取得する。例えば、野球の打者のスイング動作の場合には、バットの先端部分の位置情報である。この位置情報の検出は、例えば、Color Digiclops(ポイントグレイ社製)の3次元画像撮影装置を利用することができる。
【0067】
画像合成装置92は、奥行検出装置93により検出された奥行方向の位置情報に基づいて、特定箇所と撮影用カメラ91が最も近くに位置する時刻情報を検出し、この位置に特定箇所が位置した状態を撮影した画像を基準画像とする。そして、この基準画像が一番上に表示されるように上記各発明の実施の形態で述べたような手法により画像合成する。
【0068】
尚、被写体の一部が奥行方向に動作するのではなく、被写体の全部が奥行方向に動作する場合には、その被写体の全部の奥行方向の位置情報を検出し、この位置情報に基づき、基準画像を決定してもよい。具体的には、被写体の全部が撮影用カメラ91に最も近い状態を撮影した画像を基準画像とする。そして、この基準画像が一番上に表示されるように上記各発明の実施の形態で述べたような手法により画像合成する。
【0069】
このようにして、被写体の特定箇所又は全体が最も撮影用カメラに近い場所に位置した状態を撮影した画像を基準画像とし、この基準画像が一番上に表示されるように画像合成することによって、被写体を立体的に表示することが可能となる。
【0070】
尚、撮影用カメラ91と奥行検出装置93を単一のカメラによって実現してもよい。
【0071】
発明の実施の形態7.
本発明の実施の形態7にかかる画像合成装置には、発明の実施の形態6と同様に、図10で示されるような奥行検出装置93が画像合成装置92に接続されている。この奥行検出装置93は、画像合成装置92内に設けてもよい。本発明の実施の形態7では、特に、奥行検出装置93によって検出された被写体の動作をさらに分析し、動作開始時及び動作終了時の特定箇所の位置と基準時の特定箇所の位置を比較することによって、合成処理を変更するようにしている。
【0072】
図11に本発明の実施の形態7にかかる画像合成装置の処理フローを示す。まず、被写体を撮影用カメラ91によって撮影する(S101)。次に、画像合成装置は、撮影用カメラ91から画像データを入力し、画像メモリに格納する(S102)。この画像メモリに格納された画像データに基づき、基準画像を決定する(S103)。基準画像の決定は、発明の実施の形態6において説明したような奥行検出装置93を用いて自動決定してもよく、発明の実施の形態4、5において説明したような手法によって決定してもよい。
【0073】
次に動作開始時及び動作終了時における特定箇所の位置は、基準画像を撮像した基準時における特定箇所の位置よりも奥かどうか、即ち撮影用カメラ91よりも離れた位置にあるかどうかを、奥行検出装置93の出力信号に基づき判定する(S104)。
【0074】
判定の結果、動作開始時及び動作終了時における特定箇所の位置は、基準画像を撮像した基準時における特定箇所の位置よりも奥にあると判断された場合には、基準画像までは、上重ね処理をし、基準画像の後は下重ね処理を行なう(S105)。
【0075】
判定の結果、動作開始時及び動作終了時における特定箇所の位置は、基準画像を撮像した基準時における特定箇所の位置よりも奥でないと判断された場合には、基準画像までは、下重ね処理をし、基準画像の後は上重ね処理を行なう(S106)。
【0076】
例えば、野球の打者のスイング動作の場合、図2に示した場合のように正面から撮影した場合には、特定箇所をバットとすると、ステップS105を行なうことになる。他方、打者の背後から撮影した場合には、ステップS106を行なうことになる。
【0077】
尚、この例では、奥行検出装置93によって、自動的に判別する場合を説明したが、ステップS105の処理かステップS106の処理のいずれかをキーボード等に用いてオペレータが設定することができるようにしてもよい。
【0078】
その他の実施の形態.
尚、上述の画像合成装置は、必ずしも単一のコンピュータによって構成される必要はなく、複数のコンピュータによって構成されてもよい。また、画像合成装置と撮影用カメラ、さらには基準画像決定装置を単一の機器により構成してもよい。例えば、動画を撮影する、家庭用又は業務用のカメラ中に画像合成装置や基準画像決定装置を組み込んでもよい。また、家庭用のデジタルビデオ再生装置やゲーム機器に画像合成装置を組み込んでもよい。いわゆるバッティングセンタ、ゴルフ練習場、ゲームセンタ等に、この画像合成装置を撮影用カメラとともに設置するとよい。
【0079】
また、画像合成装置をインタネットサーバ上に備え、インターネットを介してクライアントコンピュータから画像データを送信し、この画像合成装置によって、本発明にかかる画像合成処理を行い、合成画像をクライアントコンピュータに送信するようにしてもよい。このとき、基準画像はクライアントコンピュータによって指定するとよい。
【0080】
基準画像を決定する例をいくつか説明したが、必ずしも基準画像自体でなくとも、基準画像と関連性のある情報を決定してもよい。例えば、基準時刻を決定することによって間接的に基準画像を決定することもできる。
【0081】
上述の例では、最終的に得られる画像上では、背景画像が組み込まれていたが、組み込む必要は必ずしもない。また、撮影時の背景画像でなくとも他の画像を組み込んでもよい。
【0082】
一旦、本発明にかかる画像合成装置によって作成した合成画像を表示させ、その画面上の被写体のうち基準画像としたい被写体をポインタなどによって指定することによって基準画像を容易に変更するものであってもよい。
【0083】
上述の例において、画像合成装置を汎用のコンピュータで構成した場合には、汎用コンピュータを画像合成装置として機能させるための応用プログラムがインストールされる。この応用プログラムは、様々な種類の記憶媒体に格納することが可能であり、また、通信媒体を介して伝達されることが可能である。ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM、DVD、ROMカートリッジ、バッテリバックアップ付きRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等を含む。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等を含み、インターネットも含まれる。
【0084】
【発明の効果】
本発明によれば、奥行方向への動作を伴う被写体の動きを効果的に表現することができる画像合成装置及び画像合成方法を提供することができる。
【図面の簡単な説明】
【図1】本発明にかかる画像合成装置の構成を示すブロック図である。
【図2】合成前の画像と合成後の画像を示す図である。
【図3】本発明にかかる画像合成装置による合成処理を示す図である。
【図4】本発明にかかる画像合成装置の構成を示すブロック図である。
【図5】本発明にかかる画像合成装置による合成処理を示す図である。
【図6】本発明にかかる画像合成装置の構成を示すブロック図である。
【図7】本発明にかかる画像合成装置による合成処理を示す図である。
【図8】本発明にかかる画像合成装置の構成を示すブロック図である。
【図9】本発明にかかる画像合成装置の構成を示すブロック図である。
【図10】本発明にかかる画像合成装置の構成を示すブロック図である。
【図11】本発明にかかる画像合成装置による合成処理を示すフローチャートである。
【符号の説明】
1 撮影用カメラ 100 画像合成装置
2 画像メモリ 3 画像抽出部 4 画像合成部
73 基準画像決定装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image synthesizing apparatus and an image synthesizing method for synthesizing images. For example, the present invention relates to image synthesis used in television program production, movie production, and the like.
[0002]
[Prior art]
Conventionally, in sports broadcast broadcasting or the like, slow motion playback has been frequently used in order to express the movements of the players as subjects in an easy-to-understand manner for the viewer. In addition, a technique called multi-motion is also used in which a player's movement is expressed like a stroboscopic photograph and the still images are sequentially overwritten on a background image to be combined.
[0003]
[Problems to be solved by the invention]
In sports broadcasts, slow motion playback that slowly expresses the movement of fast players is easy to understand and effective for viewers. On the other hand, due to the slow movement, there was a drawback that it was difficult to grasp the trajectory and form transition that the player moved.
[0004]
Multi-motion has the advantage that the background of the movement is easy to understand because of the afterimage effect because the images of stationary players are superimposed one after another and synthesized. However, since images are sequentially superimposed according to time, when a baseball or golf swing is displayed, there is no significant movement in the position of the subject, so even if there is a scene of interest such as a hitting point, it is overwritten. There was a drawback that this scene of interest disappeared. In addition, the multi-motion display has a drawback in visual expression that it is flat and cannot give a stereoscopic effect to the viewer.
[0005]
The present invention has been made to solve such a problem, and provides an image composition device and an image composition method capable of effectively expressing the movement of a subject accompanied by a motion in the depth direction. Objective.
[0006]
[Means for Solving the Problems]
An image composition apparatus according to the present invention is an image composition apparatus that performs image composition of a subject with movement in a depth direction, and reads out image data from an image memory that stores image data and the image memory. Image extracting means for extracting image data, image combining means for performing image composition based on image data stored in the image memory and / or an extracted image extracted by the image extracting means, and reference image determining means for determining a reference image The image synthesizing unit performs an overlay process in which the extracted image is sequentially superimposed on the image before the reference image determined by the reference image determining unit, and is added to the image after the reference image. On the other hand, a lower superposition process is performed in which the extracted images are sequentially superimposed on the lower side. With such a configuration, the reference image is displayed at the top, and if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can.
[0007]
In a preferred embodiment, the lower overlay process combines the first composite image generated by the upper overlay process and an image after the reference image, and the first composite image is combined with the composite image. This is realized by overwriting the composite image from which the subject is extracted.
[0008]
Further, the lower superimposing process is a second image generated by removing a portion of the image obtained by extracting the subject of the first composite image generated by the upper overlapping process from the image obtained by extracting the subject of the image after the reference image. This composite image may be realized by combining the first composite image with the first composite image.
[0009]
Furthermore, the lower superimposition process is an extraction in which the subject of the image after the reference image is extracted by the image extraction means so as not to extract the subject extraction range of the first composite image generated by the upper superimposition process. This may be realized by combining an image with the first combined image.
[0010]
The reference image determination unit may determine the reference image based on information for specifying the reference image input by the input unit.
[0011]
The reference image determining means may determine a reference image based on the sound information detected by the sound detecting means. With such a configuration, the reference image can be automatically determined, and the composition process can be easily performed.
[0012]
Further, the reference image determining means may determine the reference image based on the position information of all or a part of the subject detected by the position detecting means. With such a configuration, the reference image can be automatically determined, and the composition process can be easily performed. Further, according to such means, it is possible to automatically select an image that specifies a state in which all or a part of the subject is closest to the photographing position as the reference image.
[0013]
Further, the reference image determining means may determine the reference image based on the position information of all or part of the subject detected by the depth detecting means. With such a configuration, the reference image can be automatically determined, and the composition process can be easily performed. Further, according to such means, it is possible to automatically select an image that specifies a state in which all or a part of the subject is closest to the photographing position as the reference image.
[0014]
In particular, it is desirable that the reference image determination means selects an image that specifies a state in which all or a part of the subject is closest to the shooting position as the reference image. With such a configuration, since the displayed image is visually three-dimensional, a powerful expression effect can be obtained.
[0015]
Another image synthesizer according to the present invention is an image synthesizer that synthesizes an image of a subject that moves in a depth direction, and reads out image data from an image memory that stores image data and the image memory. Image extracting means for extracting the image, image composition means for performing image composition based on the image data stored in the image memory and / or the extracted image extracted by the image extracting means, and a reference image for determining a reference image Determining means, and the image synthesizing means performs a lower superposition process in which the extracted images are sequentially overlaid on an image before the reference image determined by the reference image determining means, and The image is subjected to an overlay process in which the extracted images are sequentially superimposed on the upper side. With such a configuration, the reference image is displayed at the top, and if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can. This process is particularly effective when the scene of interest is in the back.
[0016]
On the other hand, an image composition method according to the present invention is an image composition method for performing image composition of a subject with a movement in a depth direction, the step of determining a reference image, and an image before the determined reference image. Thus, the method includes a step of performing an overlay process in which the extracted images are sequentially superimposed on the upper side, and a step of performing a lower overlay process in which the extracted images are sequentially superimposed on the lower side of the image after the reference image. Since the reference image is displayed at the top by such a method, if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can.
[0017]
Another image composition method according to the present invention is an image composition method for performing image composition of a subject with a movement in a depth direction, wherein a step of determining a reference image, and an image before the reference image, The method includes a step of performing a lower superimposing process in which the extracted images are sequentially superimposed on the lower side, and a step of performing an upper superimposing process in which the extracted images are sequentially superimposed on the subsequent image of the determined reference image. Since the reference image is displayed at the top by such a method, if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can. This process is particularly effective when the scene of interest is in the back.
[0018]
An image composition program according to the present invention is an image composition program for performing image composition of a subject with a movement in a depth direction, a step of determining a reference image for a computer, and a step before the determined reference image. A step of performing an overlay process in which an extracted image is sequentially superimposed on an image, and a step of performing a overlay process in which an extracted image is sequentially superimposed on an image subsequent to the reference image are performed. It is. By executing such a program with a computer, the reference image is displayed at the top, so if you select the scene of interest as the reference image, the scene of interest remains without being overwritten, and its progress is effective. Can be confirmed.
[0019]
Another image composition program according to the present invention is an image composition program for performing image composition of a subject with a movement in a depth direction, a step of determining a reference image for a computer, and a step before the reference image. A step of performing a superimposing process in which the extracted image is sequentially superimposed on the lower side of the image and a step of performing an upper superimposing process in which the extracted image is sequentially superimposed on the upper side of the image after the determined reference image are performed. It is something to be made. By executing such a program with a computer, the reference image is displayed at the top, so if you select the scene of interest as the reference image, the scene of interest remains without being overwritten, and its progress is effective. Can be confirmed. This process is particularly effective when the scene of interest is in the back.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Embodiment 1 of the Invention
FIG. 1 shows the configuration of an image composition apparatus according to Embodiment 1 of the present invention. The image composition apparatus 100 is connected to the photographing camera 1 by a cable or a wireless line.
[0021]
The photographing camera 1 photographs a moving subject and generates an image data signal. In this example, it is mainly used for photographing a subject that moves in the depth direction, that is, on a line connecting the subject from the photographing camera 1 and away from the subject. For example, a baseball batter's swing motion, a pitcher's pitching motion, a golf swing motion, a soccer shoot motion, a figure skating rotation motion, a judo throwing motion, and a car cornering motion in a car race. The photographing camera 1 inputs the generated image data signal to the image composition device 100 via a cable. Note that the image data signal from the photographing camera 1 may be temporarily stored in a storage medium such as a magnetic tape, and the image data signal may be read from the storage medium in the image composition device 100.
[0022]
The image composition apparatus 100 is configured on hardware by a dedicated computer having a CPU, ROM, RAM, hard disk, display, keyboard, and the like, for example. The image composition apparatus 100 can also be configured by installing an application program in a so-called general-purpose computer. Further, the image composition device 100 includes a buffer memory, and appropriately stores a composite image 5 with background, a composite image 6 without background, and an extracted image 7.
[0023]
As shown in FIG. 1, the image composition device 100 includes an image memory 2, an image extraction unit 3, and an image composition unit 4.
[0024]
The image memory 2 is a storage unit that accumulates image data signals input from the photographing camera 1. In the image memory 2, image data to be subjected to image synthesis processing according to the present invention is stored in association with time information for each frame. The number of frames of the image data is appropriately selected according to the speed and operation time of the subject performing the image composition process.
[0025]
The image extraction unit 3 inputs image data from the image memory 2, extracts a subject image, and performs a process of separating it from a background image. For example, in the case of an image relating to a baseball batter's swing motion, only the portion of the batter that is the subject is extracted. Extraction of image information by the image extraction unit 3 can be realized by an operator specifying an extracted image on the screen, and can also be automatically generated by the following method.
[0026]
(1) The difference from the background is taken and image processing is performed.
[0027]
(2) The position of the extraction target is detected using a detector to extract a specific portion in the video.
[0028]
(3) Using color information, a portion other than a specific color is extracted.
[0029]
The image extracted by the image extraction unit 3 is stored as an extracted image 7 in the buffer memory.
[0030]
The image composition unit 4 receives the image data stored in the image memory 2 and the extracted image data generated by the image extraction unit 3, and performs image composition processing. For example, the image composition unit 4 performs a process of superimposing the extracted image 7 input from the image extraction unit 3 on the image input from the image memory 2 to generate a composite image 5 with a background. The image composition unit 4 can also perform a process of superimposing a plurality of extracted images input from the image extraction unit 3 to generate a composite image 6 without a background.
[0031]
Here, an example of a method for synthesizing the image B behind the synthesized image A will be described. First, the extracted image of the image B is superimposed on the composite image A with the background. Thereafter, a composite image A without a background is further superimposed on the superimposed composite image. By such composition processing, the image B can be displayed so as to be positioned below the image A.
[0032]
FIG. 2 shows an image before composition and an image after composition in order to explain the image composition processing of the image composition apparatus according to the first embodiment of the present invention. Images 2a to 2f are images before synthesis, and image 20 is an image after synthesis.
[0033]
The images 2a to 2f are simply images obtained by capturing the baseball batter's swing motion at regular intervals. The image 2a is arranged in time series with the image 2a as the first, and the image 2f is the last. The background of each image is indicated by diagonal lines. In the present invention, a reference image is determined, and composition processing for an image temporally before the reference image and the reference image and composition processing for an image temporally after the reference image are changed. It has the characteristics. In the first embodiment of the present invention, the subject is superimposed on the image temporally before the reference image and the reference image, and the subject is superimposed on the image temporally after the reference image. Perform processing. There are various methods for determining the reference image, which will be described in detail in Embodiment 4 and later.
[0034]
In the example illustrated in FIG. 2, an image 2c that is a scene of interest indicating a hitting point is used as a reference image. In selecting the reference image, when preferentially selecting an image to be prevented from being overwritten by another image in this way, the subject or the subject (a part of the subject) in front is closest to the photographing camera 1. There are various cases, such as selecting an image where the
[0035]
In Embodiment 1 of the present invention, the image 2a, the image 2b, and the subject of the reference image 2c before the reference image 2c are overlaid. More specifically, the image of the batter in the image 2b is superimposed on the image of the batter in the image 2a (including the bat, the same applies hereinafter). Further, the image of the batter of the image 2c is overlaid on the composite image. Thereafter, the subject of the image 2d, the image 2e, and the image 2f after the reference image 2c is subjected to a lower overlay process. More specifically, the image of the batter of the image 2d is overlaid on the composite image on which the images 2a to 2c are overlaid. Furthermore, the image of the batter of the image 2e is overlaid on the composite image. Finally, the batter's image of the image 2f is overlaid on the composite image. The composite image generated in this way is an image 20.
[0036]
In the image 20, since the reference image with the target scene is displayed on the top, the target scene remains without being overwritten and the progress can be confirmed. When the target scene is on the shooting camera side, the displayed image is visually three-dimensional, so a powerful expression effect can be obtained.
[0037]
Next, the image composition process will be described in detail with reference to FIG. An example image is the same as that shown in FIG.
[0038]
First, the images 2a, 2b, and 2c are read from the image memory 2, and are synthesized by the image synthesizing unit 4 so that the images 2a, 2b, and 2c are sequentially overlaid, thereby generating an image 21. Since this synthesizing method is a well-known method performed in the conventional multi-motion, the description thereof is omitted. Next, the image extraction unit 3 reads the image 2d from the image memory 2, extracts only the subject image, and generates an extracted image 22. This extracted image 22 is an image without a background.
[0039]
Next, a composite process 23 is performed on the composite image 21 and the image 22 to obtain an image 24. Further, the image extraction unit 3 extracts only the image of the subject from the composite image 21 and generates an extracted image 25. This extracted image 25 is an image without a background. Then, a composite image 27 is generated by combining the composite image 24 and the extracted image 25. Similarly, a composite image 20 shown in FIG. 2 can be obtained by combining the composite image 27 with the images 2e and 2f.
[0040]
Embodiment 2 of the Invention
FIG. 4 shows a configuration of an image composition device according to the second exemplary embodiment of the present invention. The shooting camera 31 is the shooting camera 1 shown in FIG. 1, the image memory 32 is the image memory 2 shown in FIG. 1, the image extraction unit 33 is the image extraction unit 3 shown in FIG. Have functions equivalent to those of the image composition unit 4 shown in FIG.
[0041]
The image composition device 100 according to the second embodiment of the present invention includes an extraction area memory 36 as shown in FIG.
[0042]
The image compositing unit 34 according to the second embodiment of the present invention superimposes the extracted image 37 extracted by the image extracting unit 33 on the image data stored in the image memory 32, so that a composite image 35 with a background is obtained. Generate. Further, the image composition unit 34 appropriately captures and stores information indicating the range of the image extracted by the image extraction unit 33 in the extraction region memory 36.
[0043]
Here, an example of a method for synthesizing the image B behind the synthesized image A will be described. First, the range portion of the extracted image of the composite image A stored in the extraction area memory 36 is removed from the extracted image 37 of the image B. Then, the composite image A is superimposed on this image. By such composition processing, the image B can be displayed so as to be positioned below the image A.
[0044]
Next, an image composition process according to the second embodiment of the present invention will be specifically described with reference to FIG. An example image is the same as that shown in FIG.
[0045]
First, the images 2a, 2b, and 2c are read from the image memory 32, and the image composition unit 34 composes the images 2a, 2b, and 2c so that the images 2a, 2b, and 2c are sequentially overlaid, thereby generating an image 41. Next, the image extraction unit 33 extracts only the image of the subject from the image 41, generates an extracted image 44, and stores it in the extraction area memory 36. This extracted image 44 is an image without a background.
[0046]
Further, the image 2 d is read from the image memory 32, and only the image of the subject is extracted by the image extraction unit 33, and an extracted image 43 is generated and stored in the extraction area memory 36. This extracted image 43 is an image without a background.
[0047]
Next, the extracted image 43 and the extracted image 44 are read from the extraction region memory 36, and the image composition unit 34 performs a process of removing the extracted image 44 from the extracted image 43. By this processing, an image 46 is obtained. Subsequently, the synthesized image 42 is obtained by synthesizing the image 46 and the image 41. Similarly, the composite image 20 shown in FIG. 2 can be obtained by combining the composite image 42 with the images 2e and 2f.
[0048]
Embodiment 3 of the Invention
FIG. 6 shows the configuration of an image composition apparatus according to the third embodiment of the present invention. The shooting camera 51 is the shooting camera 1 shown in FIG. 1, the image memory 52 is the image memory 2 shown in FIG. 1, the image extraction unit 53 is the image extraction unit 3 shown in FIG. Has the same function as the image composition unit 4 shown in FIG.
[0049]
The image composition device 100 according to the third embodiment of the present invention includes an extraction area memory 56 as shown in FIG.
[0050]
The image compositing unit 54 according to the third embodiment of the present invention superimposes the extracted image 57 extracted by the image extracting unit 53 on the image data stored in the image memory 52, so that a composite image 55 with a background is obtained. Generate. Further, the image composition unit 54 appropriately captures and stores information indicating the range of the image extracted by the image extraction unit 53 in the extraction region memory 56.
[0051]
Here, an example of a method for synthesizing the image B behind the synthesized image A will be described. First, when the extraction image of the image B is generated by the image extraction unit 53, the extraction range of the composite image A stored in the extraction region memory 56 is processed so as not to be extracted. Then, the composite image A is superimposed on this image. By such composition processing, the image B can be displayed so as to be positioned below the image A.
[0052]
Next, an image composition process according to the third embodiment of the present invention will be specifically described with reference to FIG. An example image is the same as that shown in FIG.
[0053]
First, the images 2a, 2b, and 2c are read from the image memory 52, and are synthesized by the image synthesis unit 54 so that the images 2a, 2b, and 2c are overlaid in order. Next, the image extraction unit 53 extracts only the image of the subject from the image 61, generates an extracted image 62, and stores information on the extraction range in the extraction region memory 56.
[0054]
Further, the image 2d is read from the image memory 52, and only the image of the subject is extracted by the image extraction unit 53. At this time, based on the extraction range information of the extraction image 62 stored in the extraction region memory 56, the image in this range is Process not to extract. In this way, the extracted image 65 is generated. The extracted image 65 is an image without a background.
[0055]
Next, the combined image 67 is obtained by combining 66 the extracted image 65 and the combined image 61 by the image combining unit 54. Similarly, the composite image 20 shown in FIG. 2 can be obtained by combining the composite image 67 with the images 2e and 2f.
[0056]
Embodiment 4 of the Invention
The fourth embodiment of the present invention relates to a process for determining a reference image. As shown in FIG. 8, in the fourth embodiment of the present invention, a reference image determination device 73 is connected to the image composition device 72. The reference image determination device 73 may be configured to be incorporated in the image composition device 72. That is, the reference image determination device 73 can be realized as a function of the image composition device 72.
[0057]
Here, the photographing camera 71 corresponds to the photographing camera 1 shown in FIG. 1, and the image composition device 72 corresponds to the image composition device 100 shown in FIG.
[0058]
A keyboard 74, a microphone 75, and a camera 76 can be connected to the reference image determination device 73. The reference image determination device 73 according to the fourth embodiment of the present invention is described as being able to determine the reference image by various aspects, but is not limited to this, and the reference image is determined by one or any combination of the aspects. It is good also as what can determine an image.
[0059]
When the reference image determination device 73 is configured separately from the image composition device 72, the reference image determination device 73 includes a control circuit such as a CPU, a ROM, and a RAM, a memory, a display, and the like. In the memory, an algorithm for determining a reference image and a software program for performing processing are installed.
[0060]
The keyboard 74 is used as an input means for the operator to input the determination of the reference image while directly checking the image on the screen. As this input means, in addition to the keyboard 74, for example, a pointing device such as a mouse or a touch pad is included. At this time, the reference image determination device 73 extracts information for specifying the reference image based on the input signal from the input means such as the keyboard 74 and outputs the information to the image composition device 72.
[0061]
The microphone 75 is used as a sound detection unit that detects sound generated with the movement of the subject. For example, in the case of a swing action of a baseball batter, a hitting sound generated when a ball collides with a bat is detected. At this time, the reference image determination device 73 inputs the sound information detected by the microphone 75, and first extracts a sound to be specified, for example, a hitting sound from the sound information. This sound extraction can be realized, for example, by setting sound intensity and frequency data to be specified in advance and comparing the input sound information with the data. When a sound to be specified is extracted from the sound information, time information when the sound is detected is generated. Based on this time information, the time when the sound is detected from the image memory of the image synthesizer 72 or an image taken before or after a certain time is determined as the reference image. An algorithm for specifying the reference image based on the time information is configured to be preset by an operator.
[0062]
The camera 76 is a camera provided at a position different from the shooting camera 81 and is a camera for deriving time information of the reference image by shooting the motion of the subject. For example, in the case of a baseball batter's swing motion, a camera attached to the ceiling of the dome stadium is applicable. Since this camera can photograph the batter from above, the position of the bat can be clearly photographed. Then, time information when the bat passes the hitting point region is detected. Based on this time information, a reference image is determined. An algorithm for specifying the reference image based on the time information is configured to be preset by an operator.
[0063]
Embodiment 5 of the Invention
In the fifth embodiment of the present invention, as shown in FIG. 9, a position detection sensor 83 is connected to the image composition device 82. Here, the photographing camera 81 corresponds to the photographing camera 1 shown in FIG. 1, and the image composition device 82 corresponds to the image composition device 100 shown in FIG.
[0064]
The position detection sensor 83 acquires position information of the moving subject. The image composition device 82 acquires the position information of the subject from the position detection sensor 83, and determines the order in which the extracted images are superimposed so that the subject position and the composite image do not contradict each other. The position detection sensor 83 is an optical sensor, for example, and is installed at a predetermined position. For example, when shooting a golf swing motion, the golf club is installed at a position where it hits the ball. Based on the detection signal of the position detection sensor 83, it is possible to obtain time information when the golf club passes the position where it hits the ball. Based on this time information, a reference image is determined. An algorithm for specifying the reference image based on the time information is configured to be preset by an operator.
[0065]
Embodiment 6 of the Invention
In the sixth embodiment of the present invention, as shown in FIG. 10, a depth detection device 93 is connected to the image composition device 92. The depth detection device 93 may be provided in the image composition device 92. Here, the photographing camera 91 corresponds to the photographing camera 1 shown in FIG. 1, and the image composition device 92 corresponds to the image composition device 100 shown in FIG.
[0066]
The depth detection device 93 acquires position information in the depth direction of a specific portion of the moving subject, that is, the line direction connecting the photographing camera 91 and the subject. For example, in the case of a swing motion of a baseball batter, the position information of the tip portion of the bat. This position information can be detected using, for example, a Color Digiclops (Point Gray Co., Ltd.) three-dimensional image capturing device.
[0067]
Based on the position information in the depth direction detected by the depth detection device 93, the image composition device 92 detects time information at which the specific location and the photographing camera 91 are closest to each other, and the specific location is located at this position. An image obtained by photographing the state is set as a reference image. Then, the images are synthesized by the method as described in the above embodiments of the invention so that the reference image is displayed at the top.
[0068]
Note that when not all of the subject moves in the depth direction but all of the subject moves in the depth direction, the position information of all the subjects in the depth direction is detected, and based on this position information, the reference An image may be determined. Specifically, an image obtained by photographing a state where all of the subjects are closest to the photographing camera 91 is set as a reference image. Then, the images are synthesized by the method as described in the above embodiments of the invention so that the reference image is displayed at the top.
[0069]
In this way, an image obtained by photographing a state where a specific part or the entire subject is located closest to the photographing camera is used as a reference image, and the image is synthesized so that the reference image is displayed at the top. The object can be displayed in three dimensions.
[0070]
The photographing camera 91 and the depth detection device 93 may be realized by a single camera.
[0071]
Embodiment 7 of the Invention
In the image composition device according to the seventh embodiment of the present invention, a depth detection device 93 as shown in FIG. 10 is connected to the image composition device 92 as in the sixth embodiment. The depth detection device 93 may be provided in the image composition device 92. In the seventh embodiment of the present invention, in particular, the motion of the subject detected by the depth detection device 93 is further analyzed, and the position of the specific portion at the start and end of the operation is compared with the position of the specific portion at the reference time. Thus, the composition process is changed.
[0072]
FIG. 11 shows a processing flow of the image composition apparatus according to the seventh embodiment of the present invention. First, the subject is photographed by the photographing camera 91 (S101). Next, the image composition device inputs image data from the photographing camera 91 and stores it in the image memory (S102). A reference image is determined based on the image data stored in the image memory (S103). The determination of the reference image may be automatically determined using the depth detection device 93 as described in the sixth embodiment of the invention, or may be determined by the method described in the fourth and fifth embodiments of the invention. Good.
[0073]
Next, whether the position of the specific part at the start of the operation and the end of the operation is deeper than the position of the specific part at the reference time when the reference image is captured, that is, whether the position is away from the shooting camera 91. A determination is made based on the output signal of the depth detection device 93 (S104).
[0074]
As a result of the determination, if it is determined that the position of the specific part at the start and end of the operation is behind the position of the specific part at the time of reference when the reference image is captured, the reference image is overlaid. Then, after the reference image, a lower overlay process is performed (S105).
[0075]
As a result of the determination, if it is determined that the position of the specific location at the start and end of the operation is not behind the position of the specific location at the time of reference when the reference image is captured, the reference image is processed upside down. Then, after the reference image, the superposition process is performed (S106).
[0076]
For example, in the case of a baseball batter's swing motion, when shooting from the front as shown in FIG. 2, if a specific location is a bat, step S105 is performed. On the other hand, if the image is taken from behind the batter, step S106 is performed.
[0077]
In this example, the case where the depth detection device 93 automatically determines is described. However, the operator can set either the process in step S105 or the process in step S106 on the keyboard or the like. May be.
[0078]
Other embodiments.
Note that the above-described image synthesizing apparatus is not necessarily configured by a single computer, and may be configured by a plurality of computers. Further, the image synthesizing device, the photographing camera, and further the reference image determining device may be configured by a single device. For example, an image composition device or a reference image determination device may be incorporated in a home or business camera that captures a moving image. Further, an image composition device may be incorporated in a home digital video playback device or game machine. It is advisable to install this image composition device together with a photographing camera in a so-called batting center, golf driving range, game center or the like.
[0079]
Also, an image composition device is provided on the Internet server, image data is transmitted from a client computer via the Internet, the image composition processing according to the present invention is performed by this image composition device, and the composite image is transmitted to the client computer. It may be. At this time, the reference image may be designated by the client computer.
[0080]
Although some examples of determining the reference image have been described, information related to the reference image may be determined, not necessarily the reference image itself. For example, the reference image can be indirectly determined by determining the reference time.
[0081]
In the above example, the background image is incorporated on the finally obtained image, but it is not always necessary to incorporate it. In addition, other images may be incorporated instead of the background image at the time of shooting.
[0082]
Even if the composite image created by the image composition device according to the present invention is once displayed, the reference image can be easily changed by designating a subject to be a reference image among the subjects on the screen by a pointer or the like. Good.
[0083]
In the above example, when the image composition device is configured by a general-purpose computer, an application program for causing the general-purpose computer to function as the image composition device is installed. This application program can be stored in various types of storage media, and can be transmitted via a communication medium. Here, the storage medium includes, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a battery-backed RAM memory cartridge, a flash memory cartridge, and a nonvolatile RAM cartridge. The communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the Internet.
[0084]
【The invention's effect】
According to the present invention, it is possible to provide an image composition device and an image composition method capable of effectively expressing the movement of a subject accompanied by an operation in the depth direction.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 2 is a diagram showing an image before composition and an image after composition.
FIG. 3 is a diagram illustrating a composition process by the image composition apparatus according to the present invention.
FIG. 4 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 5 is a diagram showing a composition process by the image composition apparatus according to the present invention.
FIG. 6 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 7 is a diagram showing a composition process by the image composition apparatus according to the present invention.
FIG. 8 is a block diagram showing a configuration of an image composition device according to the present invention.
FIG. 9 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 10 is a block diagram showing a configuration of an image composition apparatus according to the present invention.
FIG. 11 is a flowchart showing a composition process by the image composition apparatus according to the present invention.
[Explanation of symbols]
1 Camera for Shooting 100 Image Synthesizer
2 Image memory 3 Image extraction unit 4 Image composition unit
73 Reference Image Determination Device

Claims (14)

奥行方向への動きを伴う被写体の画像合成を行なう画像合成装置であって、
画像データを記憶する画像メモリと、
前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、
前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、
基準画像を決定する基準画像決定手段とを備え、
前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次上方に抽出画像が重ねられる上重ね処理を行い、前記基準画像の後の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行なう画像合成装置。
An image composition device that performs image composition of a subject with movement in a depth direction,
An image memory for storing image data;
Image extraction means for reading out image data from the image memory and extracting an image of a subject;
Image composition means for performing image composition based on the image data stored in the image memory and / or the extracted image extracted by the image extraction means;
A reference image determining means for determining a reference image;
The image synthesizing unit performs an overlay process in which the extracted image is sequentially overlaid on the image before the reference image determined by the reference image determining unit, and sequentially on the image after the reference image. An image synthesizing apparatus that performs a bottom overlay process in which an extracted image is superimposed below.
前記下重ね処理は、上重ね処理によって生成された第1の合成画像と前記基準画像の後の画像を合成するとともに、この合成画像に対して、第1の合成画像の被写体を抽出した合成画像を上書きにすることにより実現することを特徴とする請求項1記載の画像合成装置。The lower overlay process combines the first composite image generated by the upper overlay process and the image after the reference image, and the composite image obtained by extracting the subject of the first composite image from the composite image The image composition apparatus according to claim 1, wherein the image composition apparatus is realized by overwriting. 前記下重ね処理は、前記基準画像の後の画像の被写体を抽出した画像から上重ね処理によって生成された第1の合成画像の被写体を抽出した画像の部分を取り除くことにより生成した第2の合成画像を前記第1の合成画像に合成することにより実現することを特徴とする請求項1記載の画像合成装置。The lower superimposition process is a second synthesis generated by removing a portion of the image obtained by extracting the subject of the first composite image generated by the upper superposition process from the image obtained by extracting the subject of the image after the reference image. The image synthesizing apparatus according to claim 1, wherein the image synthesizing apparatus is realized by synthesizing an image with the first synthesized image. 前記下重ね処理は、上重ね処理によって生成された第1の合成画像の被写体の抽出範囲を抽出しないように、前記画像抽出手段によって基準画像の後の画像の被写体を抽出した抽出画像を前記第1の合成画像に合成することにより実現することを特徴とする請求項1記載の画像合成装置。In the lower superimposition process, the extracted image obtained by extracting the subject of the image after the reference image by the image extracting unit is not extracted so as not to extract the subject extraction range of the first composite image generated by the upper superposition process. The image synthesizing apparatus according to claim 1, wherein the image synthesizing apparatus is realized by synthesizing with one synthesized image. 前記基準画像決定手段は、入力手段によって入力された基準画像を特定するための情報に基づいて基準画像を決定することを特徴とする請求項1、2、3又は4記載の画像合成装置。5. The image synthesizing apparatus according to claim 1, wherein the reference image determining unit determines the reference image based on information for specifying the reference image input by the input unit. 前記基準画像決定手段は、音声検出手段によって検出された音声情報に基づいて基準画像を決定することを特徴とする請求項1、2、3又は4記載の画像合成装置。5. The image synthesizing apparatus according to claim 1, wherein the reference image determining means determines a reference image based on the sound information detected by the sound detecting means. 前記基準画像決定手段は、位置検出手段によって検出された被写体の全部又は一部の位置情報に基づいて基準画像を決定することを特徴とする請求項1、2、3又は4記載の画像合成装置。5. The image synthesizing apparatus according to claim 1, wherein the reference image determining means determines the reference image based on position information of all or part of the subject detected by the position detecting means. . 前記基準画像決定手段は、奥行検出手段によって検出された被写体の全部又は一部の位置情報に基づいて基準画像を決定することを特徴とする請求項1、2、3又は4記載の画像合成装置。5. The image synthesizing apparatus according to claim 1, wherein the reference image determining means determines the reference image based on position information of all or part of the subject detected by the depth detecting means. . 前記基準画像決定手段は、被写体の全部又は一部が最も撮影位置に近い状態を特定する画像を基準画像として選択することを特徴とする請求項1、2、3又は4記載の画像合成装置。5. The image synthesizing apparatus according to claim 1, wherein the reference image determining unit selects, as a reference image, an image that specifies a state in which all or a part of a subject is closest to the photographing position. 奥行方向への動きを伴う被写体の画像合成を行なう画像合成装置であって、
画像データを記憶する画像メモリと、
前記画像メモリより画像データを読み出し、被写体の画像を抽出する画像抽出手段と、
前記画像メモリに記憶された画像データ及び/又は前記画像抽出手段により抽出された抽出画像に基づき画像合成を行なう画像合成手段と、
基準画像を決定する基準画像決定手段とを備え、
前記画像合成手段は、基準画像決定手段によって決定された基準画像の前の画像に対しては順次下方に抽出画像が重ねられる下重ね処理を行い、前記基準画像の後の画像に対しては、順次上方に抽出画像が重ねられる上重ね処理を行なう画像合成装置。
An image composition device that performs image composition of a subject with movement in a depth direction,
An image memory for storing image data;
Image extraction means for reading out image data from the image memory and extracting an image of a subject;
Image composition means for performing image composition based on the image data stored in the image memory and / or the extracted image extracted by the image extraction means;
A reference image determining means for determining a reference image;
The image synthesizing unit performs a lower superposition process in which the extracted image is sequentially superimposed on an image before the reference image determined by the reference image determining unit, and for an image after the reference image, An image composition apparatus for performing an overlay process in which extracted images are sequentially superimposed on the upper side.
奥行方向への動きを伴う被写体の画像合成を行なう画像合成方法であって、
基準画像を決定するステップと、
決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、
前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを有する画像合成方法。
An image composition method for compositing an image of a subject with a movement in a depth direction,
Determining a reference image;
Performing an overlay process in which the extracted image is sequentially superimposed on the image before the determined reference image;
An image synthesizing method including a step of performing a lower superimposition process in which an extracted image is sequentially superimposed on an image subsequent to the reference image.
奥行方向への動きを伴う被写体の画像合成を行なう画像合成方法であって、
基準画像を決定するステップと、
前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、
決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップとを有する画像合成方法。
An image composition method for compositing an image of a subject with a movement in a depth direction,
Determining a reference image;
Performing an overlay process in which the extracted images are sequentially superimposed on the previous image of the reference image;
And a step of performing an overlay process in which the extracted image is sequentially superimposed on the subsequent image of the determined reference image.
奥行方向への動きを伴う被写体の画像合成を行なう画像合成プログラムであって、この画像合成プログラムは、コンピュータに対して、
基準画像を決定するステップと、
決定された基準画像の前の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップと、
前記基準画像の後の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップを実行させる画像合成プログラム。
An image synthesis program for synthesizing an image of a subject with a movement in the depth direction.
Determining a reference image;
Performing an overlay process in which the extracted image is sequentially superimposed on the image before the determined reference image;
An image composition program for executing a step of performing a lower superimposition process in which an extracted image is sequentially superimposed on an image subsequent to the reference image.
奥行方向への動きを伴う被写体の画像合成を行なう画像合成プログラムであって、この画像合成プログラムは、コンピュータに対して、
基準画像を決定するステップと、
前記基準画像の前の画像に対して、順次下方に抽出画像が重ねられる下重ね処理を行なうステップと、
決定された基準画像の後の画像に対して、順次上方に抽出画像が重ねられる上重ね処理を行なうステップを実行させる画像合成プログラム。
An image synthesis program for synthesizing an image of a subject with a movement in the depth direction.
Determining a reference image;
Performing an overlay process in which the extracted images are sequentially superimposed on the previous image of the reference image;
An image synthesis program for executing a step of performing an overlay process in which an extracted image is sequentially overlaid on a subsequent image of a determined reference image.
JP2002104908A 2002-04-08 2002-04-08 Image composition apparatus and image composition method Expired - Lifetime JP3929811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002104908A JP3929811B2 (en) 2002-04-08 2002-04-08 Image composition apparatus and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002104908A JP3929811B2 (en) 2002-04-08 2002-04-08 Image composition apparatus and image composition method

Publications (2)

Publication Number Publication Date
JP2003304444A JP2003304444A (en) 2003-10-24
JP3929811B2 true JP3929811B2 (en) 2007-06-13

Family

ID=29389866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002104908A Expired - Lifetime JP3929811B2 (en) 2002-04-08 2002-04-08 Image composition apparatus and image composition method

Country Status (1)

Country Link
JP (1) JP3929811B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI246031B (en) * 2004-09-17 2005-12-21 Ulead Systems Inc System and method for synthesizing multi-exposed image
JP2006203443A (en) * 2005-01-19 2006-08-03 Inc Corp Image synthesizer and synthesization program
JP4971813B2 (en) * 2007-01-31 2012-07-11 日本放送協会 Video generation apparatus and video generation program
JP4591576B2 (en) 2008-08-18 2010-12-01 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4623201B2 (en) 2008-10-27 2011-02-02 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5526727B2 (en) * 2009-11-20 2014-06-18 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5515671B2 (en) * 2009-11-20 2014-06-11 ソニー株式会社 Image processing apparatus, control method thereof, and program
JP5293587B2 (en) * 2009-12-16 2013-09-18 ソニー株式会社 Display control apparatus, display control method, and program
JP2016163089A (en) * 2015-02-27 2016-09-05 株式会社Jvcケンウッド Image connection device, image connection method, and image connection program
CN104735385B (en) 2015-03-31 2018-10-12 小米科技有限责任公司 Control method for playing back and device, electronic equipment

Also Published As

Publication number Publication date
JP2003304444A (en) 2003-10-24

Similar Documents

Publication Publication Date Title
US8885979B2 (en) Apparatus and associated methodology for analyzing subject motion in images
US8358346B2 (en) Video processing device, video processing method, and program
JP4557035B2 (en) Information processing apparatus, information processing method, program, and recording medium
US20190287302A1 (en) System and method of controlling a virtual camera
US20110102678A1 (en) Key Generation Through Spatial Detection of Dynamic Objects
US10382704B2 (en) Image processing device that generates a composite image
US20110157423A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5201860B2 (en) Dart form check system
JP3929811B2 (en) Image composition apparatus and image composition method
JP2023156453A (en) Program, information processing device, and method for processing information
KR101291765B1 (en) Ball trace providing system for realtime broadcasting
CN110270078B (en) Football game special effect display system and method and computer device
US20230353717A1 (en) Image processing system, image processing method, and storage medium
JPH06105231A (en) Picture synthesis device
JP4906588B2 (en) Specific operation determination device, reference data generation device, specific operation determination program, and reference data generation program
CN107506108B (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP2020202458A (en) Information processor, control method of information processor, and program
TW201607592A (en) Determination method and device
JP2003141505A (en) Image synthesizing device and program
KR102652647B1 (en) Server, method and computer program for generating time slice video by detecting highlight scene event
JP2019176260A (en) Display program, display method, and display device
EP4460017A1 (en) Information processing device, image processing method, and program
EP4369304A1 (en) Information processing device, information processing method, and program
WO2023100703A1 (en) Image production system, image production method, and program
TWI559760B (en) Extraction method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070307

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3929811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140316

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term