JP2008067169A - 立体映像合成装置、形状データ生成方法およびそのプログラム - Google Patents
立体映像合成装置、形状データ生成方法およびそのプログラム Download PDFInfo
- Publication number
- JP2008067169A JP2008067169A JP2006244198A JP2006244198A JP2008067169A JP 2008067169 A JP2008067169 A JP 2008067169A JP 2006244198 A JP2006244198 A JP 2006244198A JP 2006244198 A JP2006244198 A JP 2006244198A JP 2008067169 A JP2008067169 A JP 2008067169A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- shape data
- shape
- stereoscopic video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】ビデオカメラなどで撮影した実写映像の立体映像を立体映像表示装置にて提示しつつ、該立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提示可能な立体映像データと形状データとを出力できる立体映像合成装置
【解決手段】左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置において、形状算出部33は、左画像と右画像とから被写体の形状データを算出する。形状出力部34は、形状算出部33が配置した形状データを、力覚・触覚提示装置に出力する。
【選択図】図3
【解決手段】左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置において、形状算出部33は、左画像と右画像とから被写体の形状データを算出する。形状出力部34は、形状算出部33が配置した形状データを、力覚・触覚提示装置に出力する。
【選択図】図3
Description
本発明は、特に立体映像の合成とともに、力覚・触覚提示装置に形状データを出力する立体映像合成装置、形状データ生成方法およびそのプログラムに関する。
従来の立体映像表示装置は、あらかじめ左右の目に対応する2視点から見た映像を用意しておき、バリア方式(例えば、特許文献1、特許文献2参照)や偏光グラスシャッター方式の三次元ディスプレイ上で表示することで、ユーザが立体的に知覚することができる。
また、ペンタイプの操作部を持ち、ペンを操作することで力覚や触覚を体験することができるフォースフィードバック装置や、腕に装着し、腕全体の力覚や手の触感を体験することができるハプティック装置などの力覚・触覚提示装置もある。
特開平8−248355号公報
特表2003−521181号公報
また、ペンタイプの操作部を持ち、ペンを操作することで力覚や触覚を体験することができるフォースフィードバック装置や、腕に装着し、腕全体の力覚や手の触感を体験することができるハプティック装置などの力覚・触覚提示装置もある。
しかしながら、従来の立体映像表示装置にあっては、立体映像を提示するのみであり、立体感があり、物体が浮き出て見えたとしても、それに触れることはできないという問題がある。また、CAD(Computer Aided Design)データなどの形状データに基づき、CG(Computer Graphics)を表示しながら、力覚・触覚提示装置で力覚および触覚を提示することはできたが、予め映像と一致した形状データを用意しなければならず、映像を生成するのに形状データが必要なCGには適用できても、ビデオカメラなどで撮影した実写映像には適用できないという問題があった。
本発明は、このような事情に鑑みてなされたもので、その目的は、ビデオカメラなどで撮影した実写映像の立体映像を立体映像表示装置にて提示しつつ、該立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提示可能な立体映像データと形状データとを出力できる立体映像合成装置を提供することにある。
この発明は上述した課題を解決するためになされたもので、本発明の立体映像合成装置は、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置において、前記左画像と前記右画像とから被写体の形状データを算出する形状算出部と、前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部とを備えることを特徴とする。
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した被写体の画像の各画素について、該被写体の画像の外郭からの距離に応じて画像に対して鉛直方向の座標を与えて該被写体の形状データを生成し、自装置が合成する立体映像の表示空間における前記特定の被写体の位置を、前記抽出した画像の視差に基づき算出し、前記生成した形状データを該算出した位置に配置した形状データを算出することを特徴とする。
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した画像の視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする。
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記形状算出部は、前記左画像と前記右画像との視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする。
また、本発明の形状データ生成方法は、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置における形状データ生成方法において、前記立体映像合成装置が、前記左画像と前記右画像とから被写体の形状データを算出する第1の過程と、前記立体映像合成装置が、前記第1の過程にて算出した形状データを、力覚・触覚提示装置に出力する第2の過程とを備えることを特徴とする。
また、本発明のプログラムは、コンピュータを、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置として機能させるためのプログラムにおいて、前記左画像と前記右画像とから被写体の形状データを算出する形状算出部、前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部としても機能させる。
この発明によれば、立体映像合成装置は、左右2つの視点からビデオカメラなどで撮影した実写映像を本装置に入力させることで、立体映像表示装置に表示させた立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提供させる形状データを生成することができる。
本発明の一実施形態の概要を説明する。立体映像合成装置300は、図1に示すように、左映像撮影装置100と右映像撮影装置200が撮影した左目の視点からの映像と右目の視点からの映像とを立体映像合成して、立体映像表示装置400にて表示する際に、撮影した映像から形状データを算出して、力覚・触覚提示装置500に出力する。これにより、ユーザは立体映像表示装置400にて表示された立体映像を見ると同時に、表示されている立体映像の動きと一致した形状に対する力覚・触覚を力覚・触覚提示装置500により得ることができる。
以下、図面を参照して、本発明の実施の形態について説明する。図2は、この発明の一実施形態による立体映像合成装置300の構成を示す概略ブロック図である。左映像撮影装置100は、左目の視点からの映像を撮影するビデオカメラである。右映像撮影装置200は、左映像撮影装置100の右側に平行に設置され、右目の視点からの映像を撮影するビデオカメラである。立体映像合成装置300は、左映像撮影装置100と右映像撮影装置200とから左目用および右目用の映像を受付けて、立体映像を合成して立体映像表示装置400に出力するとともに、立体映像の動きと一致している形状データを算出して、力覚・触覚提示装置500に出力する。
図3は、本実施形態による立体映像合成装置300の構成を示す概略ブロック図である。
31は、左映像撮影装置100から入力された映像を受付けて、該映像から1フレームずつ抽出した左画像を出力する左映像データ入力部である。
32は、右映像撮影装置200から入力された映像を受付けて、該映像から1フレームずつ抽出した右画像を出力する右映像データ入力部である。
33は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像から被写体のみを抽出した左被写体画像および右被写体画像を生成し、この2つの画像に基づき被写体の形状データを算出することで、立体映像合成部35にて生成する立体映像データと同期した形状データを算出する形状算出部である。形状算出部33における被写体画像の生成方法と、被写体の形状データの算出方法とについての詳細については後述する。
31は、左映像撮影装置100から入力された映像を受付けて、該映像から1フレームずつ抽出した左画像を出力する左映像データ入力部である。
32は、右映像撮影装置200から入力された映像を受付けて、該映像から1フレームずつ抽出した右画像を出力する右映像データ入力部である。
33は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像から被写体のみを抽出した左被写体画像および右被写体画像を生成し、この2つの画像に基づき被写体の形状データを算出することで、立体映像合成部35にて生成する立体映像データと同期した形状データを算出する形状算出部である。形状算出部33における被写体画像の生成方法と、被写体の形状データの算出方法とについての詳細については後述する。
34は、形状算出部33により算出された形状データを力覚・触覚提示装置500に出力する形状出力部である。
立体映像合成部35は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像を合成して、立体映像表示装置400に合わせた形式の立体映像データを生成する。
36は、立体映像合成部35が生成した立体映像データを、立体映像表示装置400に出力する立体映像出力部である。
立体映像合成部35は、左映像データ入力部31と右映像データ入力部32とから受けた左画像および右画像を合成して、立体映像表示装置400に合わせた形式の立体映像データを生成する。
36は、立体映像合成部35が生成した立体映像データを、立体映像表示装置400に出力する立体映像出力部である。
図4は、形状算出部33における被写体画像の生成方法を説明するフローチャートである。図4のフローチャートは、左画像から被写体を抽出して左被写体画像を生成する際の処理であるが、形状算出部33は、右画像についても左画像の場合と同様にして被写体を抽出して右被写体画像を生成する。
形状算出部33は、左映像撮影装置10にて背景のみを撮影し、左映像データ入力部31が受け付けて抽出した左背景画像を、予め記憶しておく(Sa1)。形状算出部33は、左映像データ入力部31から左画像を受けると、ステップSa1にて記憶した左背景画像を取得し、左画像を構成するi=0からImax−1までの全ての画素iについてステップSa3からステップSa6を繰り返す(Sa2)。
形状算出部33は、左映像撮影装置10にて背景のみを撮影し、左映像データ入力部31が受け付けて抽出した左背景画像を、予め記憶しておく(Sa1)。形状算出部33は、左映像データ入力部31から左画像を受けると、ステップSa1にて記憶した左背景画像を取得し、左画像を構成するi=0からImax−1までの全ての画素iについてステップSa3からステップSa6を繰り返す(Sa2)。
まず、形状算出部33は、左画像の画素iの赤、緑、青成分の値と、左背景画像における画素iに対応する画素の赤、緑、青成分の値とを取得し(Sa3)、これら2つの画素の赤、緑、青成分の値が一致するか否かを判定する(Sa4)。ステップSa4にて一致すると判定したときは、そのままステップSa6に遷移し、一致しないと判定したときは、形状算出部33は、左画像における該画素iを被写体の画像の画素として抽出した後に(Sa5)、ステップSa6に遷移する。ステップSa6では、形状算出部33は、iの値を1加算した後に、左画像を構成する全ての画素iについてステップSa3〜Sa5の処理を行ったかをiがImaxより小さいか否かで判定し、iがImaxより小さいときは、ステップSa3に遷移して、前述の処理を繰り返し、iがImaxより小さくないときは、処理を終了する。これにより抽出された画素からなる画像が左被写体画像である。すなわち、被写体画像のうち、被写体の領域の画素は色が設定されているが、被写体の領域外の画素は色が設定されていない。
図5は、形状算出部33における左被写体画像もしくは右被写体画像に基づく被写体の形状データ生成方法のうち、被写体の画像に対して垂直な方向(奥行き方向)の算出方法を説明するフローチャートである。図6は、フローチャートで用いる状態Sのとりうる値を示した図であり、状態Sには被写体領域外と被写体領域とがあり、被写体領域には奥行き付与済みと奥行き未付与とがある。色が設定されている画素は被写体領域であり、設定されていない画素は被写体領域外である。本方法にて左被写体画像もしくは右被写体画像のうちの片方の被写体領域の各画素について画像に対して垂直な方向(奥行き方向)の位置を算出する。各画素の画像の横軸方向および縦軸方向の位置については、該被写体画像における被写体領域の重心位置を、左被写体画像における被写体領域の重心位置と右被写体画像における被写体領域の重心位置との平均の位置へ並行移動することで求める。
予め本処理を行う前に、形状算出部33は、図8にて後述する方法を用いて、付与する奥行きの初期値D0を算出しておく(Sb1)。処理を開始すると、形状算出部33は、後のステップSb10にて各画素の奥行きとして設定する変数Dに初期値D0を設定する(Sb2)。次に、形状算出部33は、該被写体画像を構成するi=0からImax−1までの全ての画素について、本ステップSb3とステップSb11に挟まれたステップSb4〜Sb10の処理を行う(Sb3)。ステップSb4では、形状算出部33は、該被写体画像における画素iの状態Sを取得する(Sb4)。状態Sを取得するにあたって、画素iが被写体領域外か被写体領域かは、該画素iが色を設定されているか否かで判定することができる。奥行き付与済みか奥行き未付与かは、該画素iの奥行きが付与されているか否かで判定するが、最後にステップSb14を経てから付与された画素については奥行き未付与とする。すなわち、ステップSb3〜Sb11の0からImaxのループは、ステップSb14を経て異なる奥行きの値を付与するように何度も繰り返されるが、同じ値の奥行きを付与するループの間に奥行きを付与された画素は奥行き未付与とみなす。
次に、形状算出部33は、ステップSb4にて取得した画素iの状態Sが被写体領域か否かを判定する(Sb5)。このステップSb5の判定は該画素に色が設定されているか否かにより判定することができる。色が設定されていれば被写体領域であり、設定されていなければ被写体領域外である。このステップSb5にて被写体領域でないと判定すると、ステップSb11に遷移して、次の画素についての処理に移るが、色が設定されており被写体領域であると判定するとステップSb6に遷移する。
ステップSb6では、形状算出部33は、該画素に奥行きが未付与か否かを判定する(Sb6)。該画素には既に奥行きが付与されており未付与でないと判定するとステップSb11に遷移して、次の画素についての処理に移るが、該画素には未だ奥行きが付与されておらず未付与であると判定すると、形状算出部33は、画素iを囲む8点の画素の状態Sn(n=1〜8)を取得する(Sb7)。形状算出部33は、8点の画素の状態Snの中に被写体領域外のものがあるか否かを判定する(Sb8)。形状算出部33は、該8点の画素に一つでも被写体領域外の画素があると判定するとステップSb10に遷移して、画素iの奥行きの値として奥行きDの値を付与し(Sb10)、ステップSb11に遷移して、次の画素についての処理に移る。また、ステップSb8の判定にて、状態Snの中に被写体領域外のものがないと判定すると、ステップSb9に遷移して、形状算出部33は、状態Snの中に奥行きを付与済みのものがあるか否かを判定する(Sb9)。
付与済みのものが無いと判定すると、ステップSb11に遷移して、次の画素についての処理に移る。また、ステップSb9の判定にて奥行き付与済みのものがあると判定すると、ステップSb10に遷移して、形状算出部33は、画素iの奥行きの値として奥行きDの値を付与し(Sb10)、ステップSb11に遷移する。ステップSb11では、形状算出部33は、iの値に1加算し、iがImaxより小さい間はステップSb4に戻り、全画素についてステップSb4〜Sb10の処理を行う。iがImax以上になると、ステップSb12に遷移して、形状算出部33は、該被写体画像の被写体領域の画素に奥行き未付与のものがあるか否かを判定する(Sb12)。未付与のものがないと判定すると形状算出部33は該処理を終了するが、未付与のものがあると判定するとステップSb14に遷移して、予め設定しておいた加算値ΔD(Sb13)を変数Dに加算し、ステップSb3に遷移して前述の処理を繰り返す。このようにして、形状算出部33は、被写体領域の全ての画素について、被写体領域の外郭からの距離に応じて奥行きの位置を算出することができる。
なお、上述のステップSb13にて変数Dに加算した加算値ΔDは、定数であってもよいし、何回目の加算であるかによって変わる値であってもよい。
なお、上述のステップSb13にて変数Dに加算した加算値ΔDは、定数であってもよいし、何回目の加算であるかによって変わる値であってもよい。
図7は、図5の方法にて被写体領域A1の奥行きを算出する経過を説明する図である。図7(a)に示す被写体領域A1がある場合、形状算出部33は、まず図7(b)に示す最外郭領域A2に奥行きD0を付与する。次に、形状算出部33は、図7(c)に示す2番目外郭領域A3に奥行きD0+ΔDを付与する。次に、形状算出部33は、図7(d)に示す3番目外郭領域A4に奥行きD0+2・ΔDを付与する。これで、全ての被写体領域の画素について奥行きを付与したので、図5()の処理を終了する。
図8は、図5のステップS1の初期値D0の算出方法を説明する図である。
座標XLは、図4にて説明した形状算出部33が算出した左被写体画像G1から抽出した被写体領域M1の重心位置のうち横軸方向の座標であり、左被写体画像G1の左端を原点としている。重心位置は、被写体領域M1の全ての画素の座標を平均することで求める。座標XRは、図4にて説明した形状算出部33が算出した右被写体画像G2から抽出した被写体領域M2の重心位置のうち横軸方向の座標であり、右被写体画像G2の左端を原点としている。画像に対して垂直な方向については、立体映像表示装置400が表示している立体映像を視聴するユーザの視点を原点とし、形状算出部33は、画像に対して垂直な方向の座標Zすなわち付与奥行きの初期値D0を(1)式にて算出する。
D0=1/(XL−XR) ・・・・(1)
図8は、図5のステップS1の初期値D0の算出方法を説明する図である。
座標XLは、図4にて説明した形状算出部33が算出した左被写体画像G1から抽出した被写体領域M1の重心位置のうち横軸方向の座標であり、左被写体画像G1の左端を原点としている。重心位置は、被写体領域M1の全ての画素の座標を平均することで求める。座標XRは、図4にて説明した形状算出部33が算出した右被写体画像G2から抽出した被写体領域M2の重心位置のうち横軸方向の座標であり、右被写体画像G2の左端を原点としている。画像に対して垂直な方向については、立体映像表示装置400が表示している立体映像を視聴するユーザの視点を原点とし、形状算出部33は、画像に対して垂直な方向の座標Zすなわち付与奥行きの初期値D0を(1)式にて算出する。
D0=1/(XL−XR) ・・・・(1)
例えば、形状算出部33が算出した左画像における被写体領域M1の重心位置のX座標XL=80、Y座標YL=42であり、右画像における被写体領域M2の重心位置のX座標XR=50、Y座標YR=40であるときは、形状算出部33は、立体映像の表示空間におけるZ座標すなわち付与奥行きの初期値D0を(2)式で算出する。
D0=1/(XL−XR)=1/(80−50)=0.033 ・・・(2)
ここで、Z座標の値が、X座標、Y座標の値に比べて非常に小さな値となっているが、これは、(2)式により求められるZ座標の値が、X座標、Y座標とは異なる縮尺となっているためであり、所定の定数CをZ座標に乗じることで、これを調整する。また、Z軸方向の位置を強調するように、所定の定数Cの大きさを調整してもよい。
D0=1/(XL−XR)=1/(80−50)=0.033 ・・・(2)
ここで、Z座標の値が、X座標、Y座標の値に比べて非常に小さな値となっているが、これは、(2)式により求められるZ座標の値が、X座標、Y座標とは異なる縮尺となっているためであり、所定の定数CをZ座標に乗じることで、これを調整する。また、Z軸方向の位置を強調するように、所定の定数Cの大きさを調整してもよい。
さらに、被写体領域M1の最外郭領域にありX座標X=78、Y座標Y=40の画素Iの立体映像の表示空間における位置は次のようにして算出する。奥行きは、最外郭領域なのでD0=0.333である。被写体領域M1の重心位置と被写体領域M2の重心位置との平均(Xm、Ym)は、Xm=(XL+XR)/2=(80+50)/2=65、Ym=(YL+YR)/2=(42+40)/2=41である。(XL、YL)から(Xm、Ym)への移動は、X軸方向にXm−XL=65−80=−15、Y軸方向にYm−YL=41−42=−1である。(X=78,Y=40)に対して、(XL、YL)から(Xm、Ym)までの平行移動をすると、X座標が78=−15=63、Y座標が40−1=39となる。これらにより、画素Iの立体映像の表示空間における位置は、(63,39,0.333)となる。
これにより、本実施形態の立体映像合成装置300は、実写の立体映像の動きと一致している形状データを算出して出力し、実写の立体映像を立体映像表示装置400で表示した際に、誰もが直感的に要求する触感への要望に対して、形状データを受けた力覚・触覚提示装置500によってそれを実現することができる。従来の実写の立体映像は単に立体物として見るのみであったが、触感が加わることによってより確実な立体物の把握が可能であるとともに新たなメディア、インターフェースの可能性が広がる。
また、本発明の立体映像合成装置300を用いたシステムは、構成が単純なため設置条件を選ばず容易に効果を発揮できるため、教育やマニュアル提示などの分野で特に効果的に利用することができる。
また、本発明の立体映像合成装置300を用いたシステムは、構成が単純なため設置条件を選ばず容易に効果を発揮できるため、教育やマニュアル提示などの分野で特に効果的に利用することができる。
なお、本実施形態では、形状算出部33における被写体画像の生成方法として、予め用意した左背景画像および右背景画像と、左画像および右画像とを比較して、色が異なる画素を抽出しているが、背景画像に替えて、予め設定しておいた所定の色と異なる画素を抽出するクロマキー処理を用いてもよい。これにより、背景画像を予め撮影する必要や左映像撮影装置100および右映像撮影装置200と背景との位置関係を一定にする必要はなくなるが、撮影する際に背景を所定の色にする必要がある。
また、本実施形態では、被写体の形状データの算出方法として、被写体領域の外郭からの距離に応じて奥行きを設定しているが、左被写体画像と右被写体画像との視差に基づき奥行きを算出するステレオ計測(特開平8−254416、特開平11−94527、特開2001−241928など)により形状データを算出してもよい。このとき、形状算出部33における被写体画像の生成方法として、上述のクロマキー処理を用いても良い。これにより、被写体領域の外郭からの距離に応じて奥行きを設定するよりも、形状データを算出するための演算量は多くなるが、実際の形状に近い形状データを算出することができる。
また、本実施形態では、形状算出部33は、左画像および右画像から被写体を抽出した左被写体画像および右被写体画像を生成し、この生成した左被写体画像および右被写体画像に基づき、形状データを算出しているが、左画像および右画像から被写体を抽出せずに、左画像と右画像との視差に基づきステレオ計測の処理を行い各画素の奥行きを算出することで形状データを算出してもよい。これにより、演算量は多くなるが、背景画像を予め撮影する必要や左映像撮影装置100および右映像撮影装置200と背景との位置関係を一定にする必要、撮影する際に背景を所定の色にする必要がなくなり、実際の形状に近い形状データを算出することができる。
また、この立体映像合成装置300には、周辺機器として入力装置、表示装置等(いずれも図示せず)が接続されるものとする。ここで、入力装置とはキーボード、マウス等の入力デバイスのことをいう。表示装置とはCRT(Cathode Ray Tube)や液晶表示装置等のことをいう。
また、図3における左映像データ入力部31、右映像データ入力部32、形状算出部33、形状出力部34、立体映像合成部35、立体映像出力部36の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより左映像データ入力部31、右映像データ入力部32、形状算出部33、形状出力部34、立体映像合成部35、立体映像出力部36の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明の立体映像合成装置は、構成が単純であり設置条件を選ばないため、教育やマニュアル提示などに用いて好適であるが、これに限られるものではない。
100…左映像撮影装置
200…右映像撮影装置
300…立体映像合成装置
400…立体映像表示装置
500…力覚・触覚提示装置
31…左映像データ入力部
32…右映像データ入力部
33…形状算出部
34…形状データ出力部
35…立体映像合成部
36…立体映像出力部
200…右映像撮影装置
300…立体映像合成装置
400…立体映像表示装置
500…力覚・触覚提示装置
31…左映像データ入力部
32…右映像データ入力部
33…形状算出部
34…形状データ出力部
35…立体映像合成部
36…立体映像出力部
Claims (6)
- 左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置において、
前記左画像と前記右画像とから被写体の形状データを算出する形状算出部と、
前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部と
を備えることを特徴とする立体映像合成装置。 - 前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した被写体の画像の各画素について、該被写体の画像の外郭からの距離に応じて画像に対して鉛直方向の座標を与えて該被写体の形状データを生成し、自装置が合成する立体映像の表示空間における前記特定の被写体の位置を、前記抽出した画像の視差に基づき算出し、前記生成した形状データを該算出した位置に配置した形状データを算出することを特徴とする請求項1に記載の立体映像合成装置。
- 前記形状算出部は、前記左画像および前記右画像それぞれから特定の被写体の画像を抽出し、前記抽出した画像の視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする請求項1に記載の立体映像合成装置。
- 前記形状算出部は、前記左画像と前記右画像との視差に基づくステレオ計測により、被写体の形状データを算出することを特徴とする請求項1に記載の立体映像合成装置。
- 左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置における形状データ生成方法において、
前記立体映像合成装置が、前記左画像と前記右画像とから被写体の形状データを算出する第1の過程と、
前記立体映像合成装置が、前記第1の過程にて算出した形状データを、力覚・触覚提示装置に出力する第2の過程と
を備えることを特徴とする形状データ生成方法。 - コンピュータを、左目の視点から見た左画像と右目の視点から見た右画像とから立体映像を合成する立体映像合成装置として機能させるためのプログラムにおいて、
前記左画像と前記右画像とから被写体の形状データを算出する形状算出部、
前記形状算出部が算出した形状データを、力覚・触覚提示装置に出力する形状出力部
としても機能させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006244198A JP2008067169A (ja) | 2006-09-08 | 2006-09-08 | 立体映像合成装置、形状データ生成方法およびそのプログラム |
PCT/JP2007/056012 WO2008029529A1 (fr) | 2006-09-08 | 2007-03-23 | Dispositif de synthèse d'images vidéostéréoscopiques, procédé de génération de données de forme et son programme |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006244198A JP2008067169A (ja) | 2006-09-08 | 2006-09-08 | 立体映像合成装置、形状データ生成方法およびそのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008067169A true JP2008067169A (ja) | 2008-03-21 |
Family
ID=39156974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006244198A Pending JP2008067169A (ja) | 2006-09-08 | 2006-09-08 | 立体映像合成装置、形状データ生成方法およびそのプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008067169A (ja) |
WO (1) | WO2008029529A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022639A (ja) * | 2010-07-16 | 2012-02-02 | Ntt Docomo Inc | 表示装置、映像表示システムおよび映像表示方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11150741A (ja) * | 1997-11-18 | 1999-06-02 | Asahi Optical Co Ltd | ステレオ写真撮影による3次元画像表示方法および装置 |
-
2006
- 2006-09-08 JP JP2006244198A patent/JP2008067169A/ja active Pending
-
2007
- 2007-03-23 WO PCT/JP2007/056012 patent/WO2008029529A1/ja active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022639A (ja) * | 2010-07-16 | 2012-02-02 | Ntt Docomo Inc | 表示装置、映像表示システムおよび映像表示方法 |
US8866739B2 (en) | 2010-07-16 | 2014-10-21 | Ntt Docomo, Inc. | Display device, image display system, and image display method |
Also Published As
Publication number | Publication date |
---|---|
WO2008029529A1 (fr) | 2008-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6918455B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
TWI547901B (zh) | 模擬立體圖像顯示方法及顯示設備 | |
JP2019125929A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2018049591A (ja) | 画像処理装置、画像生成方法及びプログラム | |
JP2006325165A (ja) | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 | |
JP2019054488A (ja) | 提供装置および提供方法、プログラム | |
WO2013108285A1 (ja) | 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法 | |
CN109791704B (zh) | 用于自由运行fvv应用的基于多层uv映射的纹理渲染方法、系统和装置 | |
JP2013235562A (ja) | ビデオにおける眼位のためのシステムおよび方法 | |
JP2020004325A (ja) | 画像処理装置、画像処理方法およびプログラム | |
WO2018051747A1 (ja) | 画像処理装置、画像生成方法及びプログラム | |
JP5809607B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN105791390A (zh) | 数据传输方法、装置及系统 | |
JP2015231114A (ja) | 映像表示装置 | |
Li et al. | Enhancing 3d applications using stereoscopic 3d and motion parallax | |
US20190138803A1 (en) | Image processing apparatus, image processing system, and image processing method, and program | |
KR101752691B1 (ko) | 시점 선택이 가능한 3차원 가상 콘텐츠 동영상을 제공하는 장치 및 그 방법 | |
JP2009212582A (ja) | バーチャルスタジオ用フィードバックシステム | |
JP2008067169A (ja) | 立体映像合成装置、形状データ生成方法およびそのプログラム | |
WO2021147749A1 (zh) | 实现3d显示的方法、装置及3d显示系统 | |
KR101212223B1 (ko) | 촬영장치 및 깊이정보를 포함하는 영상의 생성방법 | |
JP5898036B2 (ja) | 映像コミュニケーションシステム及び映像コミュニケーション方法 | |
JP4777193B2 (ja) | 立体映像合成装置、形状データ生成方法およびそのプログラム | |
JP2008065684A (ja) | 立体映像合成装置、形状データ生成方法およびそのプログラム | |
TWI502960B (zh) | 二維轉三維轉換裝置及其方法 |