Nothing Special   »   [go: up one dir, main page]

JP2008065684A - 立体映像合成装置、形状データ生成方法およびそのプログラム - Google Patents

立体映像合成装置、形状データ生成方法およびそのプログラム Download PDF

Info

Publication number
JP2008065684A
JP2008065684A JP2006244199A JP2006244199A JP2008065684A JP 2008065684 A JP2008065684 A JP 2008065684A JP 2006244199 A JP2006244199 A JP 2006244199A JP 2006244199 A JP2006244199 A JP 2006244199A JP 2008065684 A JP2008065684 A JP 2008065684A
Authority
JP
Japan
Prior art keywords
image
shape
shape data
stereoscopic video
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006244199A
Other languages
English (en)
Inventor
Shiro Ozawa
史朗 小澤
Hisao Abe
尚生 阿部
Shosuke Naruto
章介 鳴戸
Tsukuru Kamiya
造 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2006244199A priority Critical patent/JP2008065684A/ja
Priority to PCT/JP2007/056014 priority patent/WO2008029530A1/ja
Publication of JP2008065684A publication Critical patent/JP2008065684A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ビデオカメラなどで撮影した実写映像の立体映像を立体映像表示装置にて提示しつつ、該立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提示可能な立体映像データと形状データとを出力できる立体映像合成装置
【解決手段】被写体を左目の視点から撮像した左画像と右目の視点から撮像した右画像とから立体映像を合成する立体映像合成装置において、形状算出部405は、入力された被写体の距離画像から、被写体の形状データを算出する。形状映像空間調整部407は、形状算出部405が算出した形状データに対して、自装置が合成する立体映像の表示空間への変換を施す。形状データ出力部409は、形状映像空間調整部407が変換を施した形状データを力覚・触覚提示装置に出力する。
【選択図】図3

Description

本発明は、特に立体映像データとともに形状データを生成する立体映像合成装置、形状データ生成方法およびプログラムに関する。
従来の立体映像表示装置は、あらかじめ左右の目に対応する2視点から見た映像を用意しておき、バリア方式(例えば、特許文献1、特許文献2参照)や偏光グラスシャッター方式の三次元ディスプレイ上で表示することで、ユーザが立体的に知覚することができる。
また、ペンタイプの操作部を持ち、ペンを操作することで力覚や触覚を体験することができるフォースフィードバック装置や、腕に装着し、腕全体の力覚や手の触感を体験することができるハプティック装置などの力覚・触覚提示装置もある。
特開平8−248355号公報 特表2003−521181号公報
しかしながら、従来の立体映像表示装置にあっては、立体映像を提示するのみであり、立体感があり、物体が浮き出て見えたとしても、それに触れることはできないという問題がある。また、CAD(Computer Aided Design)データなどの形状データに基づき、CG(Computer Graphics)を表示しながら、力覚・触覚提示装置で力覚および触覚を提示することはできたが、予め映像と一致した形状データを用意しなければならず、映像を生成するのに形状データが必要なCGには適用できても、ビデオカメラなどで撮影した実写映像には適用できないという問題があった。
本発明は、このような事情に鑑みてなされたもので、その目的は、ビデオカメラなどで撮影した実写映像の立体映像を立体映像表示装置にて提示しつつ、該立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提示可能な立体映像データと形状データとを出力できる立体映像合成装置を提供することにある。
この発明は上述した課題を解決するためになされたもので、本発明の立体映像合成装置は、被写体を左目の視点から撮像した左画像と右目の視点から撮像した右画像とから立体映像を合成する立体映像合成装置において、各画素が距離を表す距離画像を撮影する距離画像撮影装置から入力された前記被写体の距離画像から、前記被写体の形状データを算出する形状算出部と、前記形状算出部が算出した形状データに対して、自装置が合成する立体映像の表示空間への変換を施す形状映像空間調整部と、前記形状映像空間調整部が変換を施した形状データを感覚提示装置に出力する形状データ出力部とを備えることを特徴とする。
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、前記左画像と前記右画像とから各々の色に基づき3つ以上の被写体を抽出し、前記3つ以上の被写体各々の前記立体映像の表示空間における位置を算出し、前記距離画像から各々の距離に基づき前記3つ以上の被写体を抽出し、前記3つ以上の被写体各々の前記距離画像に基づく空間における位置を算出し、前記算出したこれらの位置に基づき、前記距離画像に基づく空間から前記表示空間への変換を求める変換生成部を備え、前記形状映像空間調整部は、前記変換生成部が求めた変換を、前記形状データに施すことを特徴とする。
また、本発明の立体映像合成装置は、上述の立体映像合成装置であって、ユーザ操作により指定された3つ以上の前記立体映像の表示空間の点と、該点それぞれにユーザ操作により対応付けられた前記距離画像の点とに基づき、前記距離画像に基づく空間から前記表示空間への変換を求める変換生成部を備え、前記形状映像空間調整部は、前記変換生成部が求めた変換を、前記形状データに施すことを特徴とする。
また、本発明の形状データ生成方法は、被写体を左目の視点から撮像した左画像と右目の視点から撮像した右画像とから立体映像を合成する立体映像合成装置における形状データ生成方法であって、前記立体映像合成装置が、各画素が距離を表す距離画像を撮影する距離画像撮影装置から入力された前記被写体の距離画像から、前記被写体の形状データを算出する第1の過程と、前記立体映像合成装置が、前記第1の過程にて算出した形状データに対して、自装置が合成する立体映像の表示空間への変換を施す第2の過程と、前記立体映像合成装置が、前記第2の過程にて変換を施した形状データを感覚提示装置に出力する第3の過程とを備えることを特徴とする。
また、本発明のプログラムは、コンピュータを、被写体を左目の視点から撮像した左画像と右目の視点から撮像した右画像とから立体映像を合成する立体映像合成装置として機能させるためのプログラムにおいて、各画素が距離を表す距離画像を撮影する距離画像撮影装置から入力された前記被写体の距離画像から、前記被写体の形状データを算出する形状算出部、前記形状算出部が算出した形状データに対して、自装置が合成する立体映像の表示空間への変換を施す形状映像空間調整部、前記形状映像空間調整部が変換を施した形状データを感覚提示装置に出力する形状データ出力部として機能させる。
この発明によれば、被写体を左右2つの視点からビデオカメラなどで撮影した実写映像と該被写体を距離画像撮影装置で撮影した距離画像からなる映像とを本装置に入力させることで、立体映像表示装置に表示させた立体映像と一致した力覚・触覚を力覚・触覚提示装置にて提供させる形状データを生成することができる。
本実施形態の立体映像合成装置400は、図1に示すように、左映像撮影装置100が撮影した左目の視点から見た映像と右映像撮影装置200が撮影した右目の視点から見た映像とを立体映像合成して、立体映像表示装置500にて表示するとともに、距離画像撮影装置300が撮影した距離画像から被写体の形状データを算出し、この被写体の形状データを距離画像に基づく3次元空間から立体映像の表示空間へ変換した形状データを算出して、力覚・触覚提示装置600に出力する。これにより、ユーザは立体映像表示装置500にて表示された立体映像を見ると同時に、表示されている立体映像中の被写体について力覚・触覚提示装置600により力覚・触覚を得ることができる。
以下、図面を参照して、本発明の実施の形態について説明する。図2は、この発明の一実施形態による立体映像合成装置400の構成を示す概略ブロック図である。左映像撮影装置100は、ユーザの左目の視点から見た映像に相当する映像を撮影するビデオカメラである。右映像撮影装置200は、左映像撮影装置100の右側に平行に設置され、ユーザの右目の視点から見た映像に相当する映像を撮影するビデオカメラである。距離画像撮影装置300は、左映像撮影装置100および右映像撮影装置200の近傍に平行に設置され、本装置が照射した光が、照射されてから、測定対象物にて反射し、本装置によって受光されるまでの時間を計測して距離を求めるTOF(Time of flight)方式により、各画素が本装置からの距離を表している映像をリアルタイムに生成する。立体映像合成装置400は、左映像撮影装置100と右映像撮影装置200とから左目の視点から見た映像および右目の視点から見た映像を受付けて、立体映像を合成して立体映像表示装置500に出力するとともに、距離画像撮影装置300から距離画像を受付けて、被写体の形状データを算出して、この算出した形状データを変換して立体映像の表示空間にマッピングした後に力覚・触覚提示装置600に出力する。
なお、本実施形態では、力覚・触覚提示装置600が感覚提示装置として機能する。
図3は、本実施形態による立体映像合成装置400の構成を示す概略ブロック図である。
401は、左映像撮影装置100から入力された映像を受付けて、該映像から1フレームずつ抽出した左画像を出力する左映像データ入力部である。402は、右映像撮影装置200から入力された映像を受付けて、該映像から1フレームずつ抽出した右画像を出力する右映像データ入力部である。403は、距離画像撮影装置300から入力された映像を受付けて、該映像から1フレームずつ抽出した距離画像を出力する距離画像データ入力部である。
404は、左映像データ入力部401と右映像データ入力部402とから受けた左画像および右画像を合成して、立体映像表示装置500に合わせた形式の立体映像データを生成する立体映像合成部である。405は、距離画像データ入力部から受けた距離画像に基づき、被写体の形状データを生成する形状抽算出部である。形状抽算出部405の詳細は、図5を用いて後述する。
406は、距離画像に基づく空間から立体映像の表示空間へのアフィン変換を表す行列を求める変換生成部である。左映像撮影装置100と右映像撮影装置200と距離画像撮影装置300との位置関係が変わらなければ、このアフィン変換は、変わらない。そこで、本実施形態では、事前に、異なる色を有する3つのマーカを左映像撮影装置100と右映像撮影装置200と距離画像撮影装置300とにて撮影し、該撮影した映像に基づき変換生成部406にてアフィン変換を表す行列を生成しておき、この生成した行列を以後の形状映像空間調整部407における変換に用いる。
図4は、この事前に行うアフィン変換生成の概略を説明するフローチャートである。画像変換生成部406は、左画像と右画像とから3つのマーカを各々の色に基づき抽出し(S1:詳細は図6を用いて後述)、これら3つのマーカ各々の立体映像の表示空間における位置を左画像と右画像の視差に基づき算出する(S2:詳細は図7を用いて後述)。さらに、変換生成部406は、前述の左画像および右画像と同時に撮影した距離画像から各々の距離に基づき、前述の3つのマーカを抽出し、これらの3つのマーカ各々の距離画像に基づく空間における位置を算出する(S3:詳細は図8を用いて後述)。これら3つのマーカの距離画像に基づく空間における位置と、立体映像の表示空間における位置とに基づき、アフィン変換である前述の距離画像に基づく空間から立体映像の表示空間への変換を求める(S4)。
なお、任意のアフィン変換は、各軸回りの回転、各軸方向の拡大縮小、平行移動の組合せで表せるため、アフィン変換を表す行列は、3次元空間では、それぞれ3つずつで合計9つの未知数からなる。このため、同一直線上にない3つの点の変換前と変換後の座標がわかれば、これらを代入した9つの一次式が立てられるので、アフィン変換を表す行列を一意に求めることができる。前述のステップS4では、変換生成部406は、3つの被写体の距離画像に基づく空間と立体映像の表示空間における位置(座標)を3つの点の変換前と変換後の座標として用いて、アフィン変換を表す行列を求める。
形状映像空間調整部407は、変換生成部406が求めたアフィン変換を表す行列を用いて、形状抽算出部405が生成した被写体の形状データを立体映像の表示空間に変換する。すなわち、アフィン変換を表す行列に、形状データの各点のベクトルを掛けることで、アフィン変換を施す。408は、立体映像合成部404が生成した立体映像データを、立体映像表示装置500に出力する立体映像出力部である。409は、形状映像空間調整部407により変換が施された形状データを力覚・触覚提示装置600に出力する形状出力部である。
図5は、形状抽算出部405において、距離画像データ入力部403から受けた距離画像に基づき、被写体の形状データを生成する処理を説明するフローチャートである。まず、被写体を抽出するために、距離の抽出閾値Dmを、予めユーザ操作により設定し、形状抽算出部405は、この抽出閾値Dmを記憶しておく(Sa1)。
次に、形状抽算出部405は、距離画像データ入力部403から受けた距離画像を構成するi=0からImax−1までのImax個全ての画素について、ステップSa3〜Sa6の処理を行う(Sa2)。ステップSa3では、形状抽算出部405は、i番目(最初は0番目)の画素の距離Diを取得する。次に、形状抽算出部405は、ステップSa3にて取得した距離Diが、被写体として抽出すべき距離であるか否か、すなわち、ステップSa1にて記憶部に格納した抽出閾値Dmより小さいか否かを判定する(Sa4)。ステップSa4にて、距離Diは抽出閾値Dmより小さいと判定されると、ステップSa5に遷移して、形状抽算出部405は、このときのi番目の画素について、距離画像中における位置とその距離Diを記憶した後、ステップSa6に遷移する。
一方、ステップSa4にて、距離Diは抽出閾値Dmより小さくない(同じもしくは大きい)と判定されると、直接ステップSa6に遷移する。ステップSa6では、形状抽算出部405は、iの値を1増やし、iの値がImaxより小さいときは、ステップSa3に戻って、前述の処理を繰り返す。このようにして、iの値がImaxとなるまで、すなわち、該距離画像の全ての画素について、形状抽算出部405は、ステップSa3からSa6を繰り返す。
ステップSa6にて、iの値がImaxとなると、ステップSa7に遷移し、形状抽算出部405は、ステップSa6にて位置を記憶した画素のうち、距離画像中の位置が縦もしくは横に隣接しあうものをまとめたグループを生成する。ここで、任意の2画素が隣接しあうか否かの判定は、該2画素の横軸方向の位置が同じで縦軸方向の位置が1画素ずれているか、あるいは、横軸方向の位置が1画素ずれていて縦軸方向の位置が同じであるかのいずれかの条件を満たしている場合は隣接しあうとすることで可能である。次に、形状抽算出部405は、ステップSa7にて生成した各グループについて、画素の位置(横軸方向、縦軸方向)と距離に基づき、隣接する3点ずつからなる3角形によりポリゴン化した形状データを生成する(Sa8)。
図6は、変換生成部406において、左画像および右画像におけるマーカの位置を算出する処理を説明するフローチャートである。変換生成部406では、左画像と右画像それぞれについて、図6に示すフローチャートの処理を、抽出閾値を変更して3回実施することで、3つのマーカの位置を算出する。つまり、図6の処理を、左右で2つの画像に対し、3つのマーカについて行うことによって、計6回実施する。また、本実施形態では、各画素の色を表現するための色値を、赤、緑、青成分の値で表す。
まず、3つのマーカを検出するために、予めマーカ各々について色の赤、緑、青成分の抽出閾値として上限値(Rmax、Gmax、Bmax)および下限値(Rmin、Gmin、Bmin)をユーザ操作により設定し、変換生成部406は、これらの値を記憶部に格納する(Sb1)。
次に、変換生成部406は、左映像データ入力部401または右映像データ入力部402から受けた画像を構成するj=0からJmax−1までのJmax個全ての画素について、ステップSb3〜Sb6の処理を行う(Sb2)。ステップSb3では、変換生成部406は、j番目(最初は0番目)の画素の赤、緑、青成分値(Rj、Gj、Bj)を取得する。次に、変換生成部406は、ステップSb3にて取得した赤、緑、青成分値(Rj、Gj、Bj)が、マーカの色であるか否か、すなわち、ステップSb1にて記憶部に格納した上限値(Rmax、Gmax、Bmax)および下限値(Rmin、Gmin、Bmin)の範囲内、すなわち抽出閾値の範囲内にあるか否かを判定する(Sb4)。この判定では、以下の(1)〜(3)の式を全て満たしている場合に、抽出閾値の範囲内にあると判定する。
Rmin<Rj<Rmax ・・・・(1)
Gmin<Gj<Gmax ・・・・(2)
Bmin<Bj<Bmax ・・・・(3)
ステップSb4にて、抽出閾値の範囲内にあると判定されると、ステップSb5に遷移して、変換生成部406は、このときのj番目の画素について、画像中における位置を記憶した後、ステップSb6に遷移する。
一方、ステップSb4にて、抽出閾値の範囲内にないと判定されると、直接ステップSb6に遷移する。ステップSb6では、変換生成部406は、jの値を1増やし、jの値がJmaxより小さいときは、ステップSb3に遷移して、前述の処理を繰り返す。このようにして、jの値がJmaxとなるまで、すなわち、該画像の全ての画素について、変換生成部406は、ステップSb3からSb6を繰り返す。
ステップSb6にて、jの値がJmaxとなると、ステップSb7に遷移し、変換生成部406は、ステップSb6にて位置を記憶した画素のうち、画像中の位置が縦もしくは横に隣接しあうものをまとめたグループを生成する。ここで、任意の2画素が隣接しあうか否かの判定は、該2画素の横軸方向の位置が同じで縦軸方向の位置が1画素ずれているか、横軸方向の位置が1画素ずれていて縦軸方向の位置が同じであるかのいずれかの条件を満たしている場合は隣接しあうとすることで可能である。次に、変換生成部406は、ステップSb7にて生成したグループのうち、面積が最大のもの、すなわち、画素数が最大のものをマーカであると判定して抽出し、抽出したマーカの重心の座標を、マーカを構成する画素の座標を平均することで算出して出力する(Sb8)。
例えば、ステップSb6にて変換生成部406が位置を記憶した画素のX,Y座標が、(10,10)、(10,11)、(11,11)、(25,60)、(24,61)、(25,61)、(26,61)、(25,62)の8画素であったとすると、ステップSb7では、変換生成部406は、(10,10)、(10,11)、(11,11)の3つの画素からなるグループ1と、(25,60)、(24,61)、(25,61)、(26,61)、(25,62)の5つの画素からなるグループ2とを生成する。次にステップSb8では、変換生成部406、3画素のグループ1と5画素のグループ2との画素数を比較し、画素数の多いグループ2をマーカであると判定して抽出し、抽出したマーカの重心の位置を、(25,60)、(24,61)、(25,61)、(26,61)、(25,62)の平均を求めることで算出する。すなわち、重心の位置は、((25+24+25+26+25)/5,(60+61+61+61+62)/5)=(25,61)となる。
図7は、変換生成部406にて立体映像の表示空間におけるマーカのZ軸方向すなわち画像に対して垂直な方向(奥行き方向)の位置を算出する方法を説明する図である。なお、本図では、説明を簡易にするために1つのマーカについてのみ説明するが、変換生成部406は3つのマーカ各々について、図7の処理を行い、各マーカの位置を算出する。座標XLは、図6の処理にて変換生成部406が算出した左画像G1におけるマーカ画像M1の重心位置のうち横軸方向の座標であり、左画像G1の左端を原点としている。座標XRは、図6の処理にて変換生成部406が算出した右画像G2におけるマーカ画像M2の重心位置のうち横軸方向の座標であり、右画像G2の左端を原点としている。画像に対して垂直な方向(Z軸)は、立体映像表示装置500にて表示している立体映像を見ているユーザの視点を原点としており、変換生成部406は、画像に対して垂直な方向の座標Zを(4)式にて算出する。
Z=1/(XL−XR) ・・・・(4)
また、変換生成部406は、図6の処理にて算出した左画像および右画像におけるマーカ画像の重心位置の平均をとることで、立体映像の表示空間におけるマーカのX軸方向すなわち画像の横方向の座標およびY軸方向すなわち画像の縦方向の座標を算出する。
例えば、図6の処理にて算出した左画像におけるマーカ画像の重心位置のX座標XL=80、Y座標YL=42であり、右画像におけるマーカ画像の重心位置のX座標XR=50、Y座標YR=40であるときは、変換生成部406は、立体映像の表示空間におけるX座標を(5)式、Y座標を(6)式、Z座標を(7)式で算出し、(X,Y,Z)=(65,41,0.033)となる。
X=(XL+XR)/2=(80+50)/2=65 ・・・(5)
Y=(YL+YR)/2=(42+40)/2=41 ・・・(6)
Z=1/(XL−XR)=1/(80−50)=0.033 ・・・(7)
ここで、Z座標の値が、X座標、Y座標の値に比べて非常に小さな値となっているが、これは、(4)式により求められるZ座標の値が、X座標、Y座標とは異なる縮尺となっているためであり、所定の定数CをZ座標に乗じることで、これを調整する。また、Z軸方向の位置を強調するように、所定の定数Cの大きさを調整してもよい。
図8は、変換生成部406において、3つのマーカ各々の距離画像に基づく空間における位置を算出する処理を説明するフローチャートである。なお、本図では、説明を簡易にするために1つのマーカについてのみ説明するが、変換生成部406は3つのマーカ各々について、図8の処理を行い、3つのマーカの距離画像に基づく空間における位置を算出する。つまり、図8の処理を3回実施する。
まず、3つのマーカを検出するために、予めマーカ各々について距離の抽出閾値である下限値Dminおよび上限値Dmaxをユーザ操作により設定し、変換生成部406は、この下限値Dmin、上限値Dmaxを記憶部に記憶しておく(Sc1)。
次に、変換生成部406は、距離画像データ入力部403から受けた距離画像を構成するk=0からKmax−1までのKmax個全ての画素について、ステップSc3〜Sc6の処理を行う(Sc2)。ステップSc3では、変換生成部406は、k番目(最初は0番目)の画素の距離Dkを取得する。次に、変換生成部406は、ステップSc3にて取得した距離Dkが、マーカとして抽出すべき距離であるか否か、すなわち、ステップSc1にて記憶部に格納した下限値Dminと上限値Dmaxの間にあるか否かを判定する(Sc4)。ステップSc4にて、距離Dkは下限値Dminと上限値Dmaxの間にあると判定されると、ステップSc5に遷移して、変換生成部406は、このときのk番目の画素について、距離画像中における位置とその距離Dkを記憶した後、ステップSc6に遷移する。
一方、ステップSc4にて、距離Dkは下限値Dminと上限値Dmaxの間にないと判定されると、直接ステップSc6に遷移する。ステップSc6では、変換生成部406は、kの値を1増やし、kの値がKmaxより小さいときは、ステップSc3に戻って、前述の処理を繰り返す。このようにして、kの値がKmaxとなるまで、すなわち、該距離画像の全ての画素について、変換生成部406は、ステップSc3からSc6を繰り返す。
ステップSc6にて、kの値がKmaxとなると、ステップSc7に遷移し、変換生成部406は、ステップSc6にて位置を記憶した画素のうち、距離画像中の位置が縦もしくは横に隣接しあうものをまとめたグループを生成する。ここで、任意の2画素が隣接しあうか否かの判定は、該2画素の横軸方向の位置が同じで縦軸方向の位置が1画素ずれているか、あるいは、横軸方向の位置が1画素ずれていて縦軸方向の位置が同じであるかのいずれかの条件を満たしている場合は隣接しあうとすることで可能である。次に、変換生成部406は、ステップSc7にて生成したグループのうち、面積が最大のもの、すなわち、画素数が最大のものをマーカであると判定して抽出し、抽出したマーカの重心の座標を、マーカを構成する画素の座標を平均することで算出して出力する(Sc8)。
このように、変換生成部406にて生成したアフィン変換を用いて、形状映像空間調整部407が、形状データを距離画像に基づく空間から立体映像の表示空間に変換するので、本実施形態の立体映像合成装置400は、実写の立体映像と動きおよび座標系が一致した形状データを出力し、実写映像を立体映像表示装置500で表示した際に、誰もが直感的に要求する触感への要望に対して、形状データを受けた力覚・触覚提示装置600によってそれを実現することができる。従来の実写の立体映像は単に立体物として見るのみであったが、触感が加わることによってより確実な立体物の把握が可能であるとともに新たなメディア、インターフェースの可能性が広がる。
また、本実施形態の立体映像合成装置400は、複数の被写体について、立体映像データおよび形状データを出力することができるため、遠隔コミュニケーションや空間記録などの分野で特に効果的な利用が可能である。
なお、立体映像合成装置400の記憶部は、ハードディスク装置や光磁気ディスク装置、フラッシュメモリ等の不揮発性のメモリや、CR−ROM等の読み出しのみが可能な記憶媒体、RAM(Random Access Memory)のような揮発性のメモリ、あるいはこれらの組み合わせにより構成されるものとする。
また、この立体映像合成装置400には、周辺機器として入力装置、表示装置等(いずれも図示せず)が接続されるものとする。ここで、入力装置とはキーボード、マウス等の入力デバイスのことをいう。表示装置とはCRT(Cathode Ray Tube)や液晶表示装置等のことをいう。
また、図3における左映像データ入力部401、右映像データ入力部402、距離画像データ入力部403、立体映像合成部404、形状抽算出部405、変換生成部406、形状映像空間調整部407、立体映像出力部408、形状出力部409の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより左映像データ入力部401、右映像データ入力部402、距離画像データ入力部403、立体映像合成部404、形状抽算出部405、変換生成部406、形状映像空間調整部407、立体映像出力部408、形状出力部409の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
なお、本実施形態において、変換生成部406は、3つのマーカを撮影した画像から、アフィン変換を生成するとして説明したが、3つを超える数のマーカを撮影した画像からアフィン変換を生成してもよいし、1つのマーカを場所を変えて3回以上撮影し、これらの画像からアフィン変換を生成してもよい。また、事前にマーカを撮影するのではなく、被写体とともにマーカを撮影し、リアルタイムにアフィン変換を生成してもよい。
また、本実施形態においては、変換生成部406は、3つのマーカを左画像および右画像では色を基準にして抽出し、距離画像では距離を基準にして抽出しているが、左画像、右画像、距離画像を立体映像合成装置400の変換生成部406が表示させ、ユーザがマウスなどの入力デバイスを用いて左画像および右画像に対して指定した立体映像の表示空間の点と、該点と対応付けてユーザがマウスなどの入力デバイスを用いて距離画像に対して指定した点を変換生成部406が受付けてマーカとし、変換生成部406は該マーカに基づきアフィン変換を生成してもよい。このときも、アフィン変換の生成には3つ以上のマーカが必要である。これにより、マーカを用いることなく、任意のシーンを撮影した画像に基づき、距離画像に基づく空間から立体映像の表示空間へのアフィン変換を求めることができる。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明の立体映像合成装置は、遠隔コミュニケーションや空間記録などに用いて好適であるが、これに限られるものではない。
この発明の一実施形態の概要を説明する図である。 同実施形態における立体映像合成装置400を用いたシステムの構成を示す概略ブロック図である。 同実施形態における立体映像合成装置400の構成を示す概略ブロック図である。 同実施形態における変換生成部406の動作を説明するフローチャートである。 同実施形態における形状抽算出部405において、被写体の形状データを生成する処理を説明するフローチャートである。 同実施形態における変換生成部406において、左画像および右画像におけるマーカの位置を算出する処理を説明するフローチャートである。 同実施形態における変換生成部406にて立体映像の表示空間におけるマーカのZ軸方向の位置に関する算出方法を説明する図である 同実施形態における変換生成部406において、3つのマーカ各々の距離画像に基づく空間における位置を算出する処理を説明するフローチャートである。
符号の説明
100…左映像撮影装置
200…右映像撮影装置
300…距離画像撮影装置
400…立体映像合成装置
500…立体映像表示装置
600…力覚・触覚提示装置
401…左映像データ入力部
402…右映像データ入力部
403…距離画像データ入力部
404…立体映像合成部
405…形状抽算出部
406…変換生成部
407…形状映像空間調整部
408…立体映像出力部
409…形状出力部

Claims (5)

  1. 被写体を左目の視点から撮像した左画像と右目の視点から撮像した右画像とから立体映像を合成する立体映像合成装置において、
    各画素が距離を表す距離画像を撮影する距離画像撮影装置から入力された前記被写体の距離画像から、前記被写体の形状データを算出する形状算出部と、
    前記形状算出部が算出した形状データに対して、自装置が合成する立体映像の表示空間への変換を施す形状映像空間調整部と、
    前記形状映像空間調整部が変換を施した形状データを感覚提示装置に出力する形状データ出力部と
    を備えることを特徴とする立体映像合成装置。
  2. 前記左画像と前記右画像とから各々の色に基づき3つ以上の被写体を抽出し、前記3つ以上の被写体各々の前記立体映像の表示空間における位置を算出し、前記距離画像から各々の距離に基づき前記3つ以上の被写体を抽出し、前記3つ以上の被写体各々の前記距離画像に基づく空間における位置を算出し、前記算出したこれらの位置に基づき、前記距離画像に基づく空間から前記表示空間への変換を求める変換生成部を備え、
    前記形状映像空間調整部は、前記変換生成部が求めた変換を、前記形状データに施すこと
    を特徴とする請求項1に記載の立体映像合成装置。
  3. ユーザ操作により指定された3つ以上の前記立体映像の表示空間の点と、該点それぞれにユーザ操作により対応付けられた前記距離画像の点とに基づき、前記距離画像に基づく空間から前記表示空間への変換を求める変換生成部を備え、
    前記形状映像空間調整部は、前記変換生成部が求めた変換を、前記形状データに施すこと
    を特徴とする請求項1に記載の立体映像合成装置。
  4. 被写体を左目の視点から撮像した左画像と右目の視点から撮像した右画像とから立体映像を合成する立体映像合成装置における形状データ生成方法であって、
    前記立体映像合成装置が、各画素が距離を表す距離画像を撮影する距離画像撮影装置から入力された前記被写体の距離画像から、前記被写体の形状データを算出する第1の過程と、
    前記立体映像合成装置が、前記第1の過程にて算出した形状データに対して、自装置が合成する立体映像の表示空間への変換を施す第2の過程と、
    前記立体映像合成装置が、前記第2の過程にて変換を施した形状データを感覚提示装置に出力する第3の過程と
    を備えることを特徴とする形状データ生成方法。
  5. コンピュータを、被写体を左目の視点から撮像した左画像と右目の視点から撮像した右画像とから立体映像を合成する立体映像合成装置として機能させるためのプログラムにおいて、
    各画素が距離を表す距離画像を撮影する距離画像撮影装置から入力された前記被写体の距離画像から、前記被写体の形状データを算出する形状算出部、
    前記形状算出部が算出した形状データに対して、自装置が合成する立体映像の表示空間への変換を施す形状映像空間調整部、
    前記形状映像空間調整部が変換を施した形状データを感覚提示装置に出力する形状データ出力部
    として機能させるプログラム。
JP2006244199A 2006-09-08 2006-09-08 立体映像合成装置、形状データ生成方法およびそのプログラム Pending JP2008065684A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006244199A JP2008065684A (ja) 2006-09-08 2006-09-08 立体映像合成装置、形状データ生成方法およびそのプログラム
PCT/JP2007/056014 WO2008029530A1 (fr) 2006-09-08 2007-03-23 Dispositif de synthèse de vision stéréoscopique, procédé de création de données de forme, et programme destiné à ce procédé

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006244199A JP2008065684A (ja) 2006-09-08 2006-09-08 立体映像合成装置、形状データ生成方法およびそのプログラム

Publications (1)

Publication Number Publication Date
JP2008065684A true JP2008065684A (ja) 2008-03-21

Family

ID=39156975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006244199A Pending JP2008065684A (ja) 2006-09-08 2006-09-08 立体映像合成装置、形状データ生成方法およびそのプログラム

Country Status (2)

Country Link
JP (1) JP2008065684A (ja)
WO (1) WO2008029530A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101765020B (zh) * 2008-12-23 2013-10-23 康佳集团股份有限公司 一种可感应立体图像的电视机

Also Published As

Publication number Publication date
WO2008029530A1 (fr) 2008-03-13

Similar Documents

Publication Publication Date Title
KR102230416B1 (ko) 화상 처리 장치, 화상 생성 방법 및 컴퓨터 프로그램
US20200226819A1 (en) Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity
WO2013175700A1 (ja) 情報処理装置および情報処理方法
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
JP2006325165A (ja) テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法
JP2008140271A (ja) 対話装置及びその方法
Jia et al. 3D image reconstruction and human body tracking using stereo vision and Kinect technology
KR102049456B1 (ko) 광 필드 영상을 생성하는 방법 및 장치
WO2010038693A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
KR102382247B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
WO2021196973A1 (zh) 虚拟内容的显示方法、装置、电子设备及存储介质
US20190138803A1 (en) Image processing apparatus, image processing system, and image processing method, and program
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
EP3493541B1 (en) Selecting an omnidirectional image for display
JP2008065684A (ja) 立体映像合成装置、形状データ生成方法およびそのプログラム
WO2022237047A1 (zh) 表面网格扫描及显示方法、系统及装置
KR101212223B1 (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
JP2017215706A (ja) 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。
JP4777193B2 (ja) 立体映像合成装置、形状データ生成方法およびそのプログラム
WO2021166751A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
Yuan et al. 18.2: Depth sensing and augmented reality technologies for mobile 3D platforms
JP2011048545A (ja) 画像合成装置及びプログラム
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
JP2008067169A (ja) 立体映像合成装置、形状データ生成方法およびそのプログラム
JP2003141510A (ja) ポインティング対象画像出力方法及びその装置