JP2000215311A - 仮想視点画像生成方法およびその装置 - Google Patents
仮想視点画像生成方法およびその装置Info
- Publication number
- JP2000215311A JP2000215311A JP11012562A JP1256299A JP2000215311A JP 2000215311 A JP2000215311 A JP 2000215311A JP 11012562 A JP11012562 A JP 11012562A JP 1256299 A JP1256299 A JP 1256299A JP 2000215311 A JP2000215311 A JP 2000215311A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- virtual viewpoint
- depth map
- depth
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
ら見た画像を生成する仮想視点画像生成方法において,
生成可能な仮想視点の位置の制限を緩和し,比較的容易
な処理で滑らかな仮想視点画像を生成できるようにす
る。 【解決手段】 複数の異なる視点の画像から2枚以上の
奥行きマップを生成し(101-106),これらの奥行きマッ
プをもとに仮想視点から見た仮想視点奥行きマップを生
成する(107) 。ある一つの視点から見えない領域の奥行
き値を他の視点からの情報で補間し,奥行き値の決定さ
れない画素については,周囲の画素の奥行き値を用いて
線形補間し,さらに平滑化処理する(108-109) 。仮想視
点奥行きマップをもとに,多視点画像(実画像)の画素
を並べ変えて仮想視点画像を再構成する(110) 。
Description
複数の画像と,その視点位置から見た被写体の奥行き情
報を入力とし,実際にはカメラの置かれていない任意の
視点位置から見た画像を出力する仮想視点画像生成方法
およびその装置に関する。
置とは異なる視点の画像を再構成する方法として,例え
ば「多視点映像から任意視点映像の生成」(信学技報,
IE96-121:91-98, 1997.)に記載されている方法がある。
この方法は,多視点画像から物体の奥行きマップを推定
し,このマップを仮想的な視点の奥行きマップに変換し
た後,与えられた多視点画像を利用して仮想視点画像を
生成する。
メラシステムのカメラ配置と仮想視点画像生成の概念を
説明するための図である。図17において,81は基準
カメラ,82〜85は参照カメラ,86は仮想視点位置
(生成する仮想視点画像の視点位置と視線方向)を示し
たものである。この方法では,基準カメラ81で撮影し
た基準画像中のある点に対し,参照カメラ82,83,
84,85で撮影した各参照画像のエピポーララインに
沿ってマッチングウインドウを1画素ずつ移動させなが
らマッチングの尺度であるSSD(sum of squared-diff
erence) を計算する。マッチングウインドウをdだけ移
動させたとき,4つの方向からSSDの値が計算され
る。このうち,小さい方の2つの値を加算する。このよ
うな処理を探索範囲内にわたって行い,その最小値のと
ころのdを視差として求める。視差dと奥行きzは,カ
メラの焦点距離fとカメラ間距離bと次式の関係があ
る。
た奥行きマップを生成する。次にこの奥行きマップを仮
想視点位置86から見た奥行きマップに変換する。基準
カメラ81から観測できる領域は,同時にテクスチャマ
ッピングを行う。視点の移動に伴い新たに生じた領域
は,奥行き値を線形補間し,参照画像のテクスチャをマ
ッピングして,仮想視点画像を生成する。
画像の各画素について対応点を推定しなければならない
ため,基準カメラ81と参照カメラ82〜85の間隔,
すなわち基線長が制限される。仮想視点画像は,多視点
画像からテクスチャマッピングにより生成されるので,
自然な仮想視点画像が得られる仮想視点位置は,図17
の点線で示した範囲内に限られる。ゆえに,仮想視点を
置くことのできる範囲が制限されるという問題がある。
Generation for Three-Dimentional Scenes from Vide
o Sequence」(IEEE Trans. Image Processing, vol.6 p
p.584-598, Apr.1997)に記載されているような方法があ
る。これは,ビデオカメラで撮影した一連の映像シーク
エンスをもとに,三次元空間における物体の位置および
輝度の情報を取得し,これを再構成しようとする画像の
視点に合わせて三次元空間に幾何変換し,さらに二次元
平面に射影する方法である。
学的に示した図である。図18において,87は被写
体,88はビデオカメラ,89はビデオカメラで撮影す
るときの水平な軌道である。この方法では,ビデオカメ
ラ88を手に持ち,軌道89に沿ってビデオカメラ88
を移動しながら被写体87を撮像した映像シークエンス
を用いて,三次元空間における物体の位置および輝度の
情報を取得する。
た映像シークエンスに含まれる個々の映像フレームの位
置関係を示している。図19において,91〜95はビ
デオカメラ88で撮影した映像フレームである。図19
に示すように,個々のフレームが視差像となるので,こ
れらの画像間で対応点を抽出することにより,被写体の
三次元空間における位置および輝度の情報が求められ
る。
撮影した映像シークエンスから視差像を取得するため,
静止物体については適用できるが,動物体については適
用できないという問題がある。また,この方法は,被写
体の三次元空間における位置情報をもとに三次元形状モ
デルを生成して,これにテクスチャマッピングする手法
であるため,位置情報の誤差により,生成される仮想視
点画像の不自然さが目立つという問題がある。さらに,
この方法は,三次元形状モデルを生成するため,処理す
るデータ量が多く,リアルタイム処理に向かないという
問題がある。
を解決するためのものである。本発明の目的は,生成可
能な仮想視点画像の視点位置の範囲が狭いという制限を
緩和し,比較的簡易な処理で動画像を含む自然で滑らか
な仮想視点画像を生成できる仮想視点画像生成方法およ
び装置を提供することにある。
するための代表的な手段の概要を以下に簡単に説明す
る。
するための仮想視点画像生成方法において,それぞれ異
なる位置を視点とする複数の画像データを入力し,前記
多視点画像データをもとに,多視点画像データの各画素
について多視点画像データの視点位置から被写体までの
奥行き値を保持する奥行きマップを生成し,前記多視点
奥行きマップの任意の1枚の奥行きマップをもとに,実
際にはカメラが置かれていない視点から見た仮想視点奥
行きマップを生成し,前記多視点奥行きマップの任意の
1枚の視点位置から見ると物体の影になって隠されてい
るオクルージョン領域の奥行きデータを,そのオクルー
ジョン領域が隠されないような他の視点位置から見た別
の多視点奥行きマップのデータで補間し,前記の方法を
用いても補間できない仮想視点奥行きマップのオクルー
ジョン領域の奥行きデータを,周囲の奥行きデータを用
いて補間処理し,前記補間処理された仮想視点奥行きマ
ップの奥行きの値の分布が滑らかでない部分を平滑化処
理し,前記平滑化処理された仮想視点奥行きマップが持
つ被写体の奥行きデータに基づいて,多視点画像データ
の画素を並べ変えてその濃淡値を描画することにより,
実際にはカメラが置かれていない視点から見た画像を生
成することを特徴とするものである。
仮想視点画像生成装置として,それぞれ異なる位置を視
点とする複数の画像データを入力する多視点画像データ
入力手段と,前記多視点画像データをもとに,多視点画
像データの各画素についてカメラから被写体までの奥行
き値を保持する奥行きマップを生成する多視点奥行きマ
ップ生成手段と,前記多視点奥行きマップをもとに,実
際にはカメラが置かれていない視点から見た奥行きマッ
プを生成する仮想視点奥行きマップ生成手段と,前記仮
想視点奥行きマップに対する補間処理等を行う仮想視点
奥行きマップ補正処理手段と,前記仮想視点奥行きマッ
プが持つ被写体の奥行きデータに基づいて,多視点画像
データの画素を並べ変えてその濃淡値を描画することに
より実際にはカメラが置かれていない視点から見た画像
を生成する仮想視点画像生成手段とを有し,前記仮想視
点奥行きマップ補正処理手段は,前記多視点奥行きマッ
プの任意の1枚の視点位置から見ると物体の影になって
隠されているオクルージョン領域の奥行きデータを,そ
のオクルージョン領域が隠されないような他の視点位置
から見た別の多視点奥行きマップのデータで補間し,前
記他の視点位置から見た多視点奥行きマップのデータで
補間する手段を用いても補間できないオクルージョン領
域の奥行きデータを,周囲の奥行きデータを用いて補間
処理する仮想視点奥行きマップ補間処理手段と,仮想視
点奥行きマップの奥行きの値の分布が滑らかでない部分
を平滑化処理する仮想視点奥行きマップ平滑化処理手段
とを有することを特徴とする。
において,多視点奥行きマップ生成手段は,多視点画像
データ間の対応点を抽出してステレオ法により奥行きを
推定するものであることを特徴とする。
において,多視点奥行きマップ生成手段は,レーザ光や
画像パターンを照射することにより奥行きを推定するも
のであることを特徴とする。
において,多視点画像データ入力手段は,カメラと鏡等
を組み合わせることにより,1台のカメラで複数の視点
位置における多視点画像データを取得できるようなもの
であることを特徴とする。
から見た奥行きマップを同時に取得し,これらを統合し
て仮想視点位置から見た奥行きマップを生成することを
特徴とする。
を抽出して多視点画像間を補間する方法とは,本発明
は,対応点抽出する多視点画像のカメラ位置の外側に仮
想視点位置を置いても滑らかな仮想視点画像を生成でき
るという点で異なる。また,ビデオカメラを移動しなが
ら視差像を撮像する方法とは,本発明は,動物体にも適
用可能であり,明らかな三次元形状モデルを生成しない
という点で異なる。
発明では,複数の奥行きマップを統合して1枚の仮想視
点の奥行きマップを生成するため,奥行きマップの生成
に関与しない画像間については対応点を推定する必要が
ない。したがって,すべての多視点画像間の対応点が抽
出されなくても,仮想視点画像を生成することができ
る。このため,多視点画像のカメラ間隔が離れている場
合においても,滑らかな仮想視点画像を生成することが
できる。
ージョン領域の奥行きデータを他の視点から見た奥行き
データで補間して仮想視点奥行きマップを生成する手法
であるため,1枚の奥行きマップから仮想視点奥行きマ
ップを生成する手法と比較して,密な仮想視点奥行きマ
ップを生成することができる。
た奥行きマップを生成し,この仮想視点奥行きマップに
多視点画像データをマッピングする手法であるため,三
次元形状モデルにテクスチャマッピングを施す手法と比
較して,より精度の低い奥行きマップからも,より滑ら
かな仮想視点画像を生成することができる。
しないため,仮想視点画像生成処理にかかるデータ量を
低く抑えることができる。
発明の第1の実施の形態による仮想視点画像生成装置の
全体的な構成の概要を示す図である。図中,10は被写
体,21〜24,31〜34はカメラ,100は仮想視
点画像生成部,40は画像表示装置を表す。
カメラ21〜24により取得された多眼画像と多眼カメ
ラ31〜34により取得された多眼画像から,それぞれ
1枚ずつ合計2枚を取得する。これらの奥行きマップと
カメラ21〜24,31〜34により取得された多眼画
像を仮想視点画像生成部100に入力し,仮想視点画像
生成部100で生成された仮想視点画像を画像表示装置
40に表示する。
マップを取得する場合について示しているが,任意の台
数のカメラから1枚の奥行きマップを取得してもよい。
また,図1では,2ヶ所の視点位置から見た奥行きマッ
プを取得する場合について説明したが,3ヶ所以上の視
点位置から見た奥行きマップを取得してもよい。
置における処理動作を,図2を用いて説明する。図2
は,図1に示す仮想視点画像生成装置の処理の流れを説
明するためのブロック図である。図中,カメラ装置2
0,30は多視点画像を撮影するための上下左右のマト
リックス状に配置された多眼のカメラ装置である。多視
点画像入力部101は,カメラ装置20,30によって
撮影された多視点画像を入力する。奥行き検出部102
は,カメラ装置20,30のそれぞれの視点位置から見
た被写体の奥行きデータを検出する。
る仮想視点画像の視点位置を指定する手段である。奥行
きマップ入力部104は,奥行き検出部102によって
検出された奥行きデータを奥行きマップとして入力す
る。仮想視点位置入力部105は,視点位置指定部10
3によって指定された視点位置を入力する。カメラパラ
メータデータ入力部106は,多眼のカメラ装置20,
30の位置や焦点距離等のカメラパラメータを入力す
る。仮想視点奥行きマップ生成部107は,奥行きマッ
プ入力部104の奥行きマップと仮想視点位置入力部1
05の仮想視点位置データとカメラパラメータデータ入
力部106のカメラパラメータデータをもとに仮想視点
奥行きマップを生成する。
点奥行きマップ生成部107で生成された仮想視点奥行
きマップで欠落した部分を補間処理する。奥行きマップ
平滑化処理部109は,奥行きマップ補間処理部108
で補間処理された奥行きマップを平滑化処理する。仮想
視点画像再構成部110は,多視点画像入力部101の
多視点画像をもとに奥行きマップ平滑化処理部109で
処理された仮想視点奥行きマップと仮想視点位置入力部
105の仮想視点位置データとカメラパラメータデータ
入力部106のカメラパラメータデータに基づいて,仮
想視点画像を再構成する。画像表示部111は,仮想視
点画像再構成部110によって構成された仮想視点画像
を表示する。表示スクリーン41は,仮想視点画像を表
示させるための装置である。
メラ画像の対応点を抽出してステレオ法により奥行きを
推定する装置を用いる。奥行き検出部102の動作を,
図3を用いて詳細に説明する。図3は,多眼カメラシス
テムのカメラ配置と投影の概念を説明するための図であ
る。
一定の距離Lに4つの参照カメラ52〜55を置く。す
べてのカメラの光軸は平行にする。また,すべてのカメ
ラは同じ仕様のものを用い,仕様の違いはカメラの構成
に応じて補正し,図3に示すような幾何学構成に補正す
る。図3の配置では,三次元空間の点P=(X,Y,
Z)はX−Y平面から焦点距離fの距離にある基準画像
上の点p0 =(u0 ,v 0 )に投影される。ここで,u
0 =fX/Z,v0 =fY/Z,である。点Pはまた,
参照カメラCi (i=1,2,3,4)の画像上の点p
i =(ui ,vi)にも投影される。ここで, ui =f(X−Di,x )/Z vi =f(Y−Di,y )/Z ただし,基線長ベクトルDi =(Di,x ,Di,y )はそ
れぞれD1 =(L,0),D2 =(−L,0),D3 =
(0,L),D4 =(0,−L)である。すべての参照
カメラ52〜55と基準カメラ51の基線長が等しい構
成の下では,点Pの真の視差di は,すべてのiに対し
て, di =fL/Z=|pi −p0 | であることから,視差を推定することによって奥行きが
取得できる。視差から奥行きを求めるためには最低2台
のカメラがあれば可能であるが,図3に示すようなカメ
ラ構成を用いることにより,オクルージョンのために真
の視差の推定が困難で奥行きを決定できないような場合
を回避することができる。
の動作をより詳細に説明する。奥行きマップは,ある視
点位置から撮影された画像中の各画素について,カメラ
から被写体までの距離の値を保持するものである。いわ
ば,通常の画像は画像面上の各画素に輝度と色度とが対
応しているものであるのに対し,奥行きマップは,画像
面上の各画素に奥行き値が対応しているものである。
奥行きマップ入力部104に保持されている奥行きマッ
プと仮想視点位置入力部105の仮想視点位置データと
カメラパラメータデータ入力部106のカメラパラメー
タデータに基づいて,仮想視点から見た奥行きマップを
生成する。奥行きマップ入力部104に保持されている
奥行きマップは,多視点画像を撮影した各視点位置から
見た画像の各画素についての被写体の奥行き情報を持つ
ものとする。
点位置データとカメラパラメータデータ入力部106の
カメラパラメータデータとにより,仮想視点位置に最も
近い視点位置から見た奥行きマップを,奥行きマップ入
力部104に保持されている奥行きマップの中から2枚
以上選択する。
のカメラ座標系と投影画像面の座標系とを示す。選択さ
れた奥行きマップのうち任意の1枚を撮像したカメラ座
標系を(X1 ,Y1 ,Z1 )T ,仮想視点位置のカメラ
座標系を(X2 ,Y2 ,Z2)T とする。前記奥行きマ
ップ上の任意の点pi =(u1 ,v1 )に投影された三
次元空間の点P=(X1 ,Y1 ,Z1 )T のZ1 が求め
られているとき,実視点の座標系から見た点PのX,Y
座標はそれぞれ X1 =Z1 u1 /f (式1) Y1 =Z′v1 /f (式2) で与えられる。ここで,fはカメラの焦点距離である。
と(X2 ,Y2 ,Z2 )T とが,回転行列R21=
[rij]∈R3x3 と並進行列T21=(Δx,Δy,Δ
z)T を用いて, (X2 ,Y2 ,Z2 )T =R21(X1 ,Y1 ,Z1 )T +T21 (式3) の関係で表わせるとする。(式3)より得られた奥行き
値Z2 は,仮想視点座標系(X2 ,Y2 ,Z2 )T で見
た点Pの奥行き値である。点P=(X2 ,Y2 ,Z2 )
T は,仮想視点奥行きマップ上の点p2 =(u2 ,
v2 )に投影される。(u2 ,v2 )は,(式3)によ
り得られたX2 ,Y2 を用いて,次式により求められ
る。
(u2 ,v2 )の奥行き値をZ2 と決定できる。
点(u1 ,v1 )について繰り返し行い,選択された奥
行きマップの保持する奥行きの値を,仮想視点から見た
奥行きマップ中の画素の奥行き値に変換する。同様の処
理を,選択されたすべての奥行きマップについて行うこ
とにより,奥行き値の空白の少ない,密な仮想視点奥行
きマップを作る。
行きマップ平滑化処理部109について,図5を用いて
説明する。図5(B)〜(E)は,図5(A)に示す球
を撮影した画像を走査線A−Bで切断し,その走査線上
の奥行きの値を縦軸に表したものである。
視点奥行きマップ生成部107で生成された(B)に示
す仮想視点奥行きマップ中の,オクルージョンにより視
差が推定できなかったために奥行き値を持たない画素6
1の奥行き値を,奥行き値が既知であるような周囲の画
素62の奥行き値を用いて,局所的な領域内では奥行き
は急激に変化しないという仮定の下,線形補間処理を行
う。結果として,すべての画素の奥行き値を持つ(C)
に示す仮想視点奥行きマップが生成される。
行きマップ補間処理部108で処理された(C)に示す
仮想視点奥行きマップの奥行き値の平滑化処理を行う。
まず,仮想視点奥行きマップの走査線上で奥行きが急激
に変化している画素63の奥行き値を除去し,周囲の画
素64の奥行き値を用いて,局所的な領域内では奥行き
は急激に変化しないという仮定の下,線形補間処理を行
い,(D)に示すような仮想視点奥行きマップを生成す
る。さらに,被写体の表面を滑らかな曲面で近似するた
めに,仮想視点奥行きマップ全体に対して平滑化処理を
行い,(E)に示す仮想視点奥行きマップを得る。
フィルタを用いることができる。このような被写体の表
面を滑らかな曲面で近似する平滑化処理には,仮想視点
画像にテクスチャをマッピングしたときの画質の低下を
抑制する効果がある。
て,図6を用いて説明する。仮想視点画像再構成部11
0は,カメラパラメータデータ入力部106のカメラパ
ラメータデータと奥行きマップ平滑化処理部109の仮
想視点奥行きマップのデータをもとに,多視点画像入力
部101が入力した多視点画像のテクスチャをマッピン
グして,仮想視点位置入力部105の仮想視点位置から
見た仮想視点画像を生成する。
変換は,仮想視点奥行きマップ生成部107で用いたも
のの逆変換に当たる。しかし,奥行きマップ補間処理部
108と奥行きマップ平滑化処理部109での処理によ
り,仮想視点奥行きマップの保持する奥行き値が変化し
ているため,もう一度新しい奥行き値を用いて座標変換
を行う必要がある。
(X2 ,Y2 ,Z2 )T ,多視点画像の中の任意の1枚
の座標系を(X3 ,Y3 ,Z3 )T とする。仮想視点奥
行きマップ中の任意の点p2 =(u2 ,v2 )の画素の
奥行きがZ2 であるとき,この画素p2 =(u2 ,
v2 )に投影される被写体の三次元空間中の点P=(X
2,Y2 ,Z2 )T の座標は, X2 =Z2 u2 /f (式6) Y2 =Z2 v2 /f (式7) で与えられる。ここで,fはカメラの焦点距離である。
と(X3 ,Y3 ,Z3 )T とが,回転行列R32=
[rij]∈R3x3 と並進行列T32=(Δx,Δy,Δ
z)T を用いて, (X3 ,Y3 ,Z3 )T =R32(X2 ,Y2 ,Z2 )T +T32 (式8) の関係で表せるとする。(式6),(式7)を(式8)
に代入すると,(X3 ,Y3 ,Z3 )T 系で見た,仮想
視点画像中の点(u2 ,v2 )に投影される被写体の三
次元空間中の点P=(X3 ,Y3 ,Z3 )T が計算され
る。点Pは,実画像上の点p3 =(u3 ,v3 )に投影
される。(u3 ,v3 )は,(式8)により得られたX
3 ,Y3 を用いて次式により計算することができる。
中の点(u3 ,v3 )の画素の輝度値と色度値を仮想視
点画像中の点(u2 ,v2 )に描画する。この処理を多
視点画像中のすべての点について繰り返し行うことで,
仮想視点位置入力部105の視点位置から見た仮想視点
画像が生成される。
の実施の形態について,図7を用いて説明する。図7
は,第2の実施の形態による仮想視点画像生成装置の全
体的な構成の概要を示す図である。図7中,221,2
31は奥行き検出器,220,230はカメラ,10は
被写体,200は仮想視点画像生成部,240は画像表
示装置を表す。
ームや画像パターンを照射することにより,能動的に被
写体の奥行きを取得する装置である。このような奥行き
検出器として,例えばレーザレンジファインダを用いる
ことができる。奥行き検出器221,231により取得
された奥行きマップと,カメラ220,230により取
得された多視点画像を仮想視点画像生成部200に入力
し,仮想視点画像生成部200で生成された仮想視点画
像を,画像表示装置240に表示する。
カメラ220,230を別個の装置として説明したが,
一つの装置で奥行きマップと画像が同時に取得できるよ
うな装置を用いてもよい。このほか,奥行き検出器22
1,231には,カメラ220,230により撮影され
た画像の各画素についての奥行き情報を検出することが
できるいかなる装置でも用いることができる。また,図
7では,2ヶ所の視点位置から見た奥行きマップを取得
する場合について説明したが,3ヶ所以上の視点位置か
ら見た奥行きマップを取得してもよい。
の実施の形態について,図8を用いて説明する。図8
は,本実施の形態で用いるカメラ装置の構成を示す図で
ある。
と偏向ビームスプリッタと鏡とを組み合わせることによ
り,1台のカメラで複数の視点位置から見た多視点画像
データを取得する。図8中,301はカメラ,302は
液晶シャッタ(TN),303は偏向ビームスプリッタ
(PBS),304は鏡,305は多視点画像データの
視点位置で,実際にはカメラが置かれていない位置を示
す。液晶シャッタ302は,電圧を加えた時はP偏向光
だけを通し,電圧を加えない時はS偏向光だけを通す。
偏向ビームスプリッタ303は,P偏向光を透過し,S
偏向光を反射するような素子である。
1の位置から見た画像データを取得する場合について説
明する。液晶シャッタ302に電圧を加え,P偏向光だ
けを通すようにする。そうすると,偏向ビームスプリッ
タ303の透過成分であるP偏向光だけがカメラ301
に入射し,その結果カメラ301の位置から見た画像デ
ータを取得することができる。
05から見た画像データを取得する場合について説明す
る。液晶シャッタ302の電圧を切り,S偏向光だけを
通すようにする。すると,偏向ビームスプリッタ303
の反射成分であるS偏向光だけがカメラ301に入射す
る。カメラ301に入射するS偏向光は鏡304により
反射されたものであるため,視点位置305から見た画
像データを取得することができる。
9を用いて説明する。本実施例では,図9に示すよう
に,三次元位置が既知である2ヶ所の視点から見た奥行
き画像A,Bを用いて,一方の視点から見えないオクル
ージョン領域を他方の視点からの情報で補間して,仮想
視点から見た仮想視点奥行き画像を生成する。ここで2
枚の奥行き画像A,Bは,個々の画素の対応関係がとれ
ている必要はない。
響や奥行きが急激に変化する部分で,奥行きの値が決定
されない点がある。それらの点は,周囲の画素で線形補
間する。さらに,二次微分フィルタを用いて仮想視点奥
行き画像を平滑化処理し,処理後の仮想視点奥行き画像
に,実画像をテクスチャマッピングして仮想視点画像を
生成する。その際,視点位置の近い方の実画像を優先す
る。
とに仮想視点から見た奥行き画像を生成し,これに処理
を加えて実画像をテクスチャマッピングすることで,元
の奥行き画像の精度が悪かったり,ノイズが多い場合で
も,滑らかな仮想視点画像を生成できるところにある。
を示す図である。図10および図11は実画像であり,
この2つの実画像の視点から見た奥行き画像を,図12
および図13に示す。奥行き画像は,1cm間隔でx軸
方向に移動するカメラで撮像した5枚の多視点画像をも
とに,多基線ステレオ法を用いて計算した。これらの奥
行き画像の図において,奥行き値は実際には濃度値の変
化で表されているが,本図では図面表記の都合上,奥行
き値(濃度値)が大きく変化する部分の輪郭を示してい
る。これら2枚の奥行き画像から,本発明の手法を用い
て生成した仮想視点奥行き画像が,図14に示す画像で
ある。図15は,図14に示す仮想視点奥行き画像に,
図10と図11の実画像をテクスチャマッピングして得
られた仮想視点画像である。
との比較を示す図である。図16(A)に示すように,
本発明の手法による仮想視点画像では,奥行きが急激に
変化するような顔の輪郭部分のノイズが軽減され,図1
6(B)に示す従来の手法による仮想視点画像に比べ
て,鮮明な画像が得られている。また,仮想視点奥行き
画像を平滑化処理しているため,テクスチャマッピング
の際の仮想視点画像の解像度の低下も抑えられている。
与えられた視点位置に応じて,複数枚の画像とその奥行
き情報をもとに観察者から見た画像を再構成することに
より,視点位置を移動させた場合にそれに対応した画像
をスムーズに出力することができる。本手法では,奥行
き情報をもとに画像を再構成して仮想視点画像を生成す
るため,もととなる画像を撮像する位置の間隔が離れて
いる場合においても,滑らかな仮想視点画像を生成でき
る利点がある。装置に必要な記憶容量も,考えうる視点
移動に対応した画像をすべて保持する場合に比べて,極
めて少なくてすむ。処理速度については,三次元形状モ
デルにテクスチャをマッピングする手法に比べて,高速
化が可能である。滑らかに補正された仮想視点奥行きマ
ップに基づいて仮想視点画像を生成する手法であるた
め,滑らかな仮想視点画像を生成することが可能であ
る。
装置の全体的な構成の概要を示す図である。
置の処理の流れを説明するためのブロック図である。
を説明するための図である。
を説明するための図である。
処理部の処理を説明するための図である。
するための図である。
装置の全体的な構成の概要を示す図である。
の構成を示す図である。
る。
示す図である。
示す図である。
法による仮想視点画像との比較を示す図である。
Claims (6)
- 【請求項1】 視点位置に応じた画像を生成するための
仮想視点画像生成方法において,それぞれ異なる位置を
視点とする複数の画像データを入力する過程と,前記多
視点画像データをもとに,多視点画像データの各画素に
ついて多視点画像データの視点位置から被写体までの奥
行き値を保持する奥行きマップを生成する過程と,前記
多視点奥行きマップの任意の1枚の奥行きマップをもと
に,三次元空間内での視点位置を座標変換することによ
り,実際にはカメラが置かれていない視点から見た仮想
視点奥行きマップを生成する過程と,前記仮想視点奥行
きマップについて,前記多視点奥行きマップの任意の1
枚の視点位置から見ると物体の影になって隠されている
オクルージョン領域の奥行き値を,そのオクルージョン
領域が隠されないような他の視点位置から見た別の多視
点奥行きマップのデータを採用することで補間処理する
過程と,前記処理された仮想視点奥行きマップ,もしく
はその仮想視点奥行きマップにおいて補間できない部分
があるときにその周囲の既知の奥行き値を用いて補間処
理した仮想視点奥行きマップ,またはさらに前記仮想視
点奥行きマップの奥行き値を平滑化処理した仮想視点奥
行きマップが持つ被写体の奥行きデータに基づいた視点
位置の三次元座標変換により,前記多視点画像データの
画素を並べ変えて,その輝度と色度を描画することによ
り,実際にはカメラが置かれていない視点から見た画像
を生成する過程とを有することを特徴とする仮想視点画
像生成方法。 - 【請求項2】 視点位置に応じた画像を生成するための
仮想視点画像生成装置において,それぞれ異なる位置を
視点とする複数の画像データを入力する多視点画像デー
タ入力手段と,前記多視点画像データをもとに,前記多
視点画像データの各画素についてカメラから被写体まで
の奥行き値を保持する奥行きマップを生成する多視点奥
行きマップ生成手段と,前記多視点奥行きマップの任意
の1枚の奥行きマップをもとに,三次元空間内での視点
位置を座標変換することにより,実際にはカメラが置か
れていない視点から見た仮想視点奥行きマップを生成す
る仮想視点奥行きマップ生成手段と,前記仮想視点奥行
きマップについて,前記多視点奥行きマップの任意の1
枚の視点位置から見ると物体の影になって隠されている
オクルージョン領域の奥行き値を,そのオクルージョン
領域が隠されないような他の視点位置から見た別の多視
点奥行きマップのデータを採用することで補間処理する
仮想視点奥行きマップ補正処理手段と,前記仮想視点奥
行きマップが持つ被写体の奥行き値に基づいて,前記多
視点画像データの画素を並べ変えてその輝度と色度を描
画することにより実際にはカメラが置かれていない視点
から見た画像を生成する仮想視点画像生成手段とを備え
ることを特徴とする仮想視点画像生成装置。 - 【請求項3】 請求項2記載の仮想視点画像生成装置に
おいて,前記仮想視点奥行きマップ補正処理手段は,前
記補間処理によっても補間できないオクルージョン領域
の奥行き値を,その周囲の奥行き値を用いて補間処理す
る手段,または/および前記補間処理された仮想視点奥
行きマップの奥行き値の分布が滑らかでない部分を平滑
化処理する手段を備えることを特徴とする仮想視点画像
生成装置。 - 【請求項4】 請求項2または請求項3記載の仮想視点
画像生成装置において,前記多視点奥行きマップ生成手
段は,前記多視点画像データ間の対応点を抽出してステ
レオ法により三角測量の原理を用いて受動的に奥行きを
推定することによって奥行きマップを生成することを特
徴とする仮想視点画像生成装置。 - 【請求項5】 請求項2または請求項3記載の仮想視点
画像生成装置において,前記多視点奥行きマップ生成手
段は,レーザ光による画像パターンを被写体に照射する
ことにより能動的に奥行きを推定することによって奥行
きマップを生成することを特徴とする仮想視点画像生成
装置。 - 【請求項6】 請求項2,請求項3,請求項4または請
求項5記載の仮想視点画像生成装置において,前記多視
点画像データ入力手段は,複数の視点位置に対応する光
路上に光の一部または全部を反射または透過する複数の
光学的手段が配置され,その光学的手段によって反射ま
たは透過された光が通る光路上の一つに1台のカメラが
配置されたものによって構成され,前記1台のカメラで
複数の視点位置における画像データを取得するものであ
ることを特徴とする仮想視点画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01256299A JP3593466B2 (ja) | 1999-01-21 | 1999-01-21 | 仮想視点画像生成方法およびその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01256299A JP3593466B2 (ja) | 1999-01-21 | 1999-01-21 | 仮想視点画像生成方法およびその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000215311A true JP2000215311A (ja) | 2000-08-04 |
JP3593466B2 JP3593466B2 (ja) | 2004-11-24 |
Family
ID=11808797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01256299A Expired - Fee Related JP3593466B2 (ja) | 1999-01-21 | 1999-01-21 | 仮想視点画像生成方法およびその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3593466B2 (ja) |
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002262156A (ja) * | 2000-12-26 | 2002-09-13 | Matsushita Electric Ind Co Ltd | カメラ装置、カメラシステムおよび画像処理方法 |
JP2003107603A (ja) * | 2001-09-28 | 2003-04-09 | Namco Ltd | 立体視画像生成装置、立体視画像生成情報および情報記憶媒体 |
JP2003256874A (ja) * | 2002-03-04 | 2003-09-12 | Matsushita Electric Ind Co Ltd | 画像合成変換装置 |
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
JP2005149127A (ja) * | 2003-11-14 | 2005-06-09 | Sony Corp | 撮像表示装置及び方法、画像送受信システム |
JP2006039770A (ja) * | 2004-07-23 | 2006-02-09 | Sony Corp | 画像処理装置及び方法、プログラム |
JP2006091011A (ja) * | 2004-09-16 | 2006-04-06 | Sharp Corp | マルチビュー視差表示 |
JP2006285415A (ja) * | 2005-03-31 | 2006-10-19 | Sony Corp | 画像処理方法、その装置およびプログラム |
JP2007026071A (ja) * | 2005-07-15 | 2007-02-01 | Matsushita Electric Ind Co Ltd | 画像合成装置及び画像合成方法 |
JP2007159112A (ja) * | 2005-11-30 | 2007-06-21 | Mitsubishi Electric Research Laboratories Inc | マルチビュービデオを合成する方法及びシステム |
US7538774B2 (en) | 2003-06-20 | 2009-05-26 | Nippon Telegraph And Telephone Corporation | Virtual visual point image generating method and 3-d image display method and device |
JP2009164865A (ja) * | 2008-01-07 | 2009-07-23 | Nippon Telegr & Teleph Corp <Ntt> | 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2009172122A (ja) * | 2008-01-24 | 2009-08-06 | Brother Ind Ltd | ミシン |
JP2009186369A (ja) * | 2008-02-07 | 2009-08-20 | Nippon Telegr & Teleph Corp <Ntt> | 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 |
JP2009212664A (ja) * | 2008-03-03 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2009211335A (ja) * | 2008-03-04 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2009296338A (ja) * | 2008-06-05 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2010503078A (ja) * | 2006-08-30 | 2010-01-28 | ピクトメトリー インターナショナル コーポレーション | モザイク斜め画像、並びにモザイク斜め画像の作成及び使用方法 |
JP2010079505A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置及びプログラム |
JP2010079506A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置、方法、通信システム及びプログラム |
JP2011004396A (ja) * | 2009-06-16 | 2011-01-06 | Samsung Electronics Co Ltd | 2次元映像の3次元映像への変換装置および方法 |
US7957581B2 (en) | 2003-11-27 | 2011-06-07 | Sony Corporation | Image processing apparatus and method |
JP2011522300A (ja) * | 2007-12-27 | 2011-07-28 | サーブ アクティエボラーグ | 仮想画像を表示するための方法 |
WO2011142239A1 (ja) * | 2010-05-13 | 2011-11-17 | ソニー株式会社 | 画像処理装置および画像処理方法 |
KR20110139189A (ko) * | 2009-03-19 | 2011-12-28 | 엘지전자 주식회사 | 3d 비디오 신호 처리 방법 및 이와 같은 기능을 수행하는 디지털 방송 수신기 |
JP2012500564A (ja) * | 2008-08-20 | 2012-01-05 | トムソン ライセンシング | 洗練された奥行きマップ |
WO2011155697A3 (ko) * | 2010-06-08 | 2012-02-02 | 에스케이텔레콤 주식회사 | 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치 |
WO2012063540A1 (ja) * | 2010-11-12 | 2012-05-18 | シャープ株式会社 | 仮想視点画像生成装置 |
JP2012128884A (ja) * | 2012-03-22 | 2012-07-05 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム |
JP2012213207A (ja) * | 2012-06-18 | 2012-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2013005289A (ja) * | 2011-06-17 | 2013-01-07 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2013520890A (ja) * | 2010-02-25 | 2013-06-06 | エクスパート トロイハンド ゲーエムベーハー | 3dディスプレイ装置で3次元映像を視覚化する方法および3dディスプレイ装置 |
WO2013089183A1 (ja) * | 2011-12-15 | 2013-06-20 | シャープ株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置 |
JP2013143702A (ja) * | 2012-01-11 | 2013-07-22 | Sharp Corp | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 |
KR20140000315A (ko) * | 2011-01-31 | 2014-01-02 | 마이크로소프트 코포레이션 | 깊이 맵을 이용하는 모바일 카메라 로컬라이제이션 |
KR101367284B1 (ko) | 2008-01-28 | 2014-02-26 | 삼성전자주식회사 | 시점 변화에 따른 영상 복원 방법 및 장치 |
JP2014056466A (ja) * | 2012-09-13 | 2014-03-27 | Canon Inc | 画像処理装置及び方法 |
WO2014050827A1 (ja) * | 2012-09-25 | 2014-04-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
WO2014050830A1 (ja) * | 2012-09-25 | 2014-04-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
JP2014140158A (ja) * | 2012-12-20 | 2014-07-31 | Ricoh Co Ltd | オクルージョンを意識した明視野像からの3次元シーンの再構成 |
WO2014196374A1 (ja) * | 2013-06-05 | 2014-12-11 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US8913105B2 (en) | 2009-01-07 | 2014-12-16 | Thomson Licensing | Joint depth estimation |
JP2014534656A (ja) * | 2011-09-12 | 2014-12-18 | インテル・コーポレーション | 運動視差を用いた、2d画像からの3d知覚の生成 |
JP2015091136A (ja) * | 2013-11-05 | 2015-05-11 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 映像処理方法及び装置 |
WO2015178217A1 (ja) * | 2014-05-21 | 2015-11-26 | ソニー株式会社 | 画像処理装置および方法 |
CN105184780A (zh) * | 2015-08-26 | 2015-12-23 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
JP2016201788A (ja) * | 2015-04-08 | 2016-12-01 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム |
JP2018186528A (ja) * | 2011-03-18 | 2018-11-22 | ソニー株式会社 | 画像処理装置および画像処理方法 |
EP3442225A1 (en) | 2017-08-10 | 2019-02-13 | Canon Kabushiki Kaisha | Image processing apparatus and method |
KR20200072338A (ko) * | 2018-12-12 | 2020-06-22 | 서울과학기술대학교 산학협력단 | 영상 데이터를 합성하는 장치 및 방법 |
JP2020525902A (ja) * | 2017-06-29 | 2020-08-27 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 画像を生成する装置および方法 |
JP2022550948A (ja) * | 2020-01-16 | 2022-12-06 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106791774A (zh) * | 2017-01-17 | 2017-05-31 | 湖南优象科技有限公司 | 基于深度图的虚拟视点图像生成方法 |
CN107911629B (zh) * | 2017-11-03 | 2019-12-24 | 浙江大华技术股份有限公司 | 一种亮度调节方法及装置 |
-
1999
- 1999-01-21 JP JP01256299A patent/JP3593466B2/ja not_active Expired - Fee Related
Cited By (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002262156A (ja) * | 2000-12-26 | 2002-09-13 | Matsushita Electric Ind Co Ltd | カメラ装置、カメラシステムおよび画像処理方法 |
JP2003107603A (ja) * | 2001-09-28 | 2003-04-09 | Namco Ltd | 立体視画像生成装置、立体視画像生成情報および情報記憶媒体 |
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
US7538798B2 (en) | 2002-03-04 | 2009-05-26 | Panasonic Corporation | Image combination/conversion apparatus |
JP2003256874A (ja) * | 2002-03-04 | 2003-09-12 | Matsushita Electric Ind Co Ltd | 画像合成変換装置 |
US7538774B2 (en) | 2003-06-20 | 2009-05-26 | Nippon Telegraph And Telephone Corporation | Virtual visual point image generating method and 3-d image display method and device |
JP2005149127A (ja) * | 2003-11-14 | 2005-06-09 | Sony Corp | 撮像表示装置及び方法、画像送受信システム |
JP4595313B2 (ja) * | 2003-11-14 | 2010-12-08 | ソニー株式会社 | 撮像表示装置及び方法、画像送受信システム |
KR101091297B1 (ko) | 2003-11-27 | 2011-12-07 | 소니 주식회사 | 화상 처리 장치 및 방법 |
US7957581B2 (en) | 2003-11-27 | 2011-06-07 | Sony Corporation | Image processing apparatus and method |
JP2006039770A (ja) * | 2004-07-23 | 2006-02-09 | Sony Corp | 画像処理装置及び方法、プログラム |
JP4586447B2 (ja) * | 2004-07-23 | 2010-11-24 | ソニー株式会社 | 画像処理装置及び方法、プログラム |
JP2006091011A (ja) * | 2004-09-16 | 2006-04-06 | Sharp Corp | マルチビュー視差表示 |
JP2006285415A (ja) * | 2005-03-31 | 2006-10-19 | Sony Corp | 画像処理方法、その装置およびプログラム |
JP4617965B2 (ja) * | 2005-03-31 | 2011-01-26 | ソニー株式会社 | 画像処理方法、その装置およびプログラム |
JP2007026071A (ja) * | 2005-07-15 | 2007-02-01 | Matsushita Electric Ind Co Ltd | 画像合成装置及び画像合成方法 |
JP4727329B2 (ja) * | 2005-07-15 | 2011-07-20 | パナソニック株式会社 | 画像合成装置及び画像合成方法 |
JP2007159112A (ja) * | 2005-11-30 | 2007-06-21 | Mitsubishi Electric Research Laboratories Inc | マルチビュービデオを合成する方法及びシステム |
US10489953B2 (en) | 2006-08-30 | 2019-11-26 | Pictometry International Corp. | Mosaic oblique images and methods of making and using same |
US11080911B2 (en) | 2006-08-30 | 2021-08-03 | Pictometry International Corp. | Mosaic oblique images and systems and methods of making and using same |
JP2010503078A (ja) * | 2006-08-30 | 2010-01-28 | ピクトメトリー インターナショナル コーポレーション | モザイク斜め画像、並びにモザイク斜め画像の作成及び使用方法 |
US9437029B2 (en) | 2006-08-30 | 2016-09-06 | Pictometry International Corp. | Mosaic oblique images and methods of making and using same |
US9805489B2 (en) | 2006-08-30 | 2017-10-31 | Pictometry International Corp. | Mosaic oblique images and methods of making and using same |
US9959653B2 (en) | 2006-08-30 | 2018-05-01 | Pictometry International Corporation | Mosaic oblique images and methods of making and using same |
US9338423B2 (en) | 2007-12-27 | 2016-05-10 | Saab Ab | Method for displaying a virtual image |
JP2011522300A (ja) * | 2007-12-27 | 2011-07-28 | サーブ アクティエボラーグ | 仮想画像を表示するための方法 |
JP2009164865A (ja) * | 2008-01-07 | 2009-07-23 | Nippon Telegr & Teleph Corp <Ntt> | 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体 |
US8267024B2 (en) | 2008-01-24 | 2012-09-18 | Brother Kogyo Kabushiki Kaisha | Sewing machine and computer-readable medium storing control program executable on sewing machine |
JP2009172122A (ja) * | 2008-01-24 | 2009-08-06 | Brother Ind Ltd | ミシン |
KR101367284B1 (ko) | 2008-01-28 | 2014-02-26 | 삼성전자주식회사 | 시점 변화에 따른 영상 복원 방법 및 장치 |
JP2009186369A (ja) * | 2008-02-07 | 2009-08-20 | Nippon Telegr & Teleph Corp <Ntt> | 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体 |
JP2009212664A (ja) * | 2008-03-03 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2009211335A (ja) * | 2008-03-04 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2009296338A (ja) * | 2008-06-05 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
US9179153B2 (en) | 2008-08-20 | 2015-11-03 | Thomson Licensing | Refined depth map |
JP2012500564A (ja) * | 2008-08-20 | 2012-01-05 | トムソン ライセンシング | 洗練された奥行きマップ |
JP2010079505A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置及びプログラム |
JP2010079506A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置、方法、通信システム及びプログラム |
US8913105B2 (en) | 2009-01-07 | 2014-12-16 | Thomson Licensing | Joint depth estimation |
KR101672283B1 (ko) * | 2009-03-19 | 2016-11-03 | 엘지전자 주식회사 | 3d 비디오 신호 처리 방법 및 이와 같은 기능을 수행하는 디지털 방송 수신기 |
KR20110139189A (ko) * | 2009-03-19 | 2011-12-28 | 엘지전자 주식회사 | 3d 비디오 신호 처리 방법 및 이와 같은 기능을 수행하는 디지털 방송 수신기 |
US9491434B2 (en) | 2009-03-19 | 2016-11-08 | Lg Electronics Inc. | Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method |
US9215446B2 (en) | 2009-03-19 | 2015-12-15 | Lg Electronics Inc. | Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method |
JP2011004396A (ja) * | 2009-06-16 | 2011-01-06 | Samsung Electronics Co Ltd | 2次元映像の3次元映像への変換装置および方法 |
JP2013520890A (ja) * | 2010-02-25 | 2013-06-06 | エクスパート トロイハンド ゲーエムベーハー | 3dディスプレイ装置で3次元映像を視覚化する方法および3dディスプレイ装置 |
CN102934450A (zh) * | 2010-05-13 | 2013-02-13 | 索尼公司 | 图像处理装置和图像处理方法 |
WO2011142239A1 (ja) * | 2010-05-13 | 2011-11-17 | ソニー株式会社 | 画像処理装置および画像処理方法 |
WO2011155697A3 (ko) * | 2010-06-08 | 2012-02-02 | 에스케이텔레콤 주식회사 | 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치 |
WO2012063540A1 (ja) * | 2010-11-12 | 2012-05-18 | シャープ株式会社 | 仮想視点画像生成装置 |
KR20140000315A (ko) * | 2011-01-31 | 2014-01-02 | 마이크로소프트 코포레이션 | 깊이 맵을 이용하는 모바일 카메라 로컬라이제이션 |
KR101896131B1 (ko) | 2011-01-31 | 2018-09-07 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 깊이 맵을 이용하는 모바일 카메라 로컬라이제이션 |
JP2018186528A (ja) * | 2011-03-18 | 2018-11-22 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US10389997B2 (en) | 2011-03-18 | 2019-08-20 | Sony Corporation | Image processing apparatus and image processing method |
JP2013005289A (ja) * | 2011-06-17 | 2013-01-07 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2014534656A (ja) * | 2011-09-12 | 2014-12-18 | インテル・コーポレーション | 運動視差を用いた、2d画像からの3d知覚の生成 |
WO2013089183A1 (ja) * | 2011-12-15 | 2013-06-20 | シャープ株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置 |
JP2013143702A (ja) * | 2012-01-11 | 2013-07-22 | Sharp Corp | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 |
JP2012128884A (ja) * | 2012-03-22 | 2012-07-05 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム |
JP2012213207A (ja) * | 2012-06-18 | 2012-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2014056466A (ja) * | 2012-09-13 | 2014-03-27 | Canon Inc | 画像処理装置及び方法 |
WO2014050827A1 (ja) * | 2012-09-25 | 2014-04-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
JP5934375B2 (ja) * | 2012-09-25 | 2016-06-15 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
WO2014050830A1 (ja) * | 2012-09-25 | 2014-04-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
JP5883153B2 (ja) * | 2012-09-25 | 2016-03-09 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
CN104662897A (zh) * | 2012-09-25 | 2015-05-27 | 日本电信电话株式会社 | 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质 |
JP2014140158A (ja) * | 2012-12-20 | 2014-07-31 | Ricoh Co Ltd | オクルージョンを意識した明視野像からの3次元シーンの再構成 |
US10027947B2 (en) | 2013-06-05 | 2018-07-17 | Sony Corporation | Image processing apparatus and image processing method |
JPWO2014196374A1 (ja) * | 2013-06-05 | 2017-02-23 | ソニー株式会社 | 画像処理装置および画像処理方法 |
WO2014196374A1 (ja) * | 2013-06-05 | 2014-12-11 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US9646399B2 (en) | 2013-11-05 | 2017-05-09 | Samsung Electronics Co., Ltd. | Method and apparatus for image processing |
JP2015091136A (ja) * | 2013-11-05 | 2015-05-11 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 映像処理方法及び装置 |
US10547822B2 (en) | 2014-05-21 | 2020-01-28 | Sony Corporation | Image processing apparatus and method to generate high-definition viewpoint interpolation image |
JPWO2015178217A1 (ja) * | 2014-05-21 | 2017-04-20 | ソニー株式会社 | 画像処理装置および方法 |
WO2015178217A1 (ja) * | 2014-05-21 | 2015-11-26 | ソニー株式会社 | 画像処理装置および方法 |
JP2016201788A (ja) * | 2015-04-08 | 2016-12-01 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラム |
US9936189B2 (en) | 2015-08-26 | 2018-04-03 | Boe Technology Group Co., Ltd. | Method for predicting stereoscopic depth and apparatus thereof |
CN105184780A (zh) * | 2015-08-26 | 2015-12-23 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
CN105184780B (zh) * | 2015-08-26 | 2018-06-05 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
JP2020525902A (ja) * | 2017-06-29 | 2020-08-27 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 画像を生成する装置および方法 |
JP7075950B2 (ja) | 2017-06-29 | 2022-05-26 | コーニンクレッカ フィリップス エヌ ヴェ | 画像を生成する装置および方法 |
US10872462B2 (en) | 2017-08-10 | 2020-12-22 | Canon Kabushiki Kaisha | Image processing apparatus, method, and non-transitory computer-readable medium for rendering a virtual viewpoint image |
EP3442225A1 (en) | 2017-08-10 | 2019-02-13 | Canon Kabushiki Kaisha | Image processing apparatus and method |
KR102129085B1 (ko) * | 2018-12-12 | 2020-07-01 | 서울과학기술대학교 산학협력단 | 영상 데이터를 합성하는 장치 및 방법 |
KR20200072338A (ko) * | 2018-12-12 | 2020-06-22 | 서울과학기술대학교 산학협력단 | 영상 데이터를 합성하는 장치 및 방법 |
JP2022550948A (ja) * | 2020-01-16 | 2022-12-06 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム |
JP7387202B2 (ja) | 2020-01-16 | 2023-11-28 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3593466B2 (ja) | 2004-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000215311A (ja) | 仮想視点画像生成方法およびその装置 | |
US6573912B1 (en) | Internet system for virtual telepresence | |
US20020106120A1 (en) | Method of analyzing in real time the correspondence of image characteristics in corresponding video images | |
US20080246757A1 (en) | 3D Image Generation and Display System | |
JP3524147B2 (ja) | 3次元画像表示装置 | |
JPH11331874A (ja) | 画像処理装置、奥行き画像計測装置、複合現実感提示システム、画像処理方法、奥行き画像計測方法、複合現実感提示方法、およびプログラムの記憶媒体 | |
JPH08331607A (ja) | 三次元表示画像生成方法 | |
JP3561446B2 (ja) | 画像生成方法及びその装置 | |
CN101729920A (zh) | 一种自由视角立体视频显示方法 | |
US8577202B2 (en) | Method for processing a video data set | |
Knorr et al. | Stereoscopic 3D from 2D video with super-resolution capability | |
JP7326442B2 (ja) | 広角画像からの視差推定 | |
JPH09245195A (ja) | 画像処理方法およびその装置 | |
JP2001256482A (ja) | 視差画像生成装置および視差画像生成方法 | |
JPH0981746A (ja) | 二次元表示画像生成方法 | |
Xiao et al. | From Images to Video: View Morphing of Three Images. | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
KR20080034419A (ko) | 3d 영상 생성 및 디스플레이 시스템 | |
JP3122629B2 (ja) | 任意視点画像生成装置 | |
CN104463958A (zh) | 基于视差图融合的三维超分辨率方法 | |
Redert et al. | 3-D scene reconstruction with viewpoint adaptation on stereo displays | |
Shimamura et al. | Construction and presentation of a virtual environment using panoramic stereo images of a real scene and computer graphics models | |
CN107103620A (zh) | 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法 | |
Bajcsy et al. | 3D reconstruction of environments for virtual collaboration | |
Chang et al. | Arbitrary view generation for three-dimensional scenes from uncalibrated video cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040830 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080903 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080903 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090903 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090903 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100903 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |