Nothing Special   »   [go: up one dir, main page]

JP2018504009A - デジタルビデオのレンダリング - Google Patents

デジタルビデオのレンダリング Download PDF

Info

Publication number
JP2018504009A
JP2018504009A JP2017528435A JP2017528435A JP2018504009A JP 2018504009 A JP2018504009 A JP 2018504009A JP 2017528435 A JP2017528435 A JP 2017528435A JP 2017528435 A JP2017528435 A JP 2017528435A JP 2018504009 A JP2018504009 A JP 2018504009A
Authority
JP
Japan
Prior art keywords
graphic object
information
rendering
graphic
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017528435A
Other languages
English (en)
Other versions
JP6553184B2 (ja
Inventor
マルコ ニエメレ
マルコ ニエメレ
キン グロンホルム
キン グロンホルム
アンドリュー バルドウィン
アンドリュー バルドウィン
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2018504009A publication Critical patent/JP2018504009A/ja
Application granted granted Critical
Publication of JP6553184B2 publication Critical patent/JP6553184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

デジタル画像およびビデオコンテンツのレンダリング。第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報と、第2のグラフィックオブジェクトをレンダリングするための、第2のグラフィックオブジェクトの第2の情報とが形成される。第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報が形成され、この 情報は、第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する。第2のグラフィックオブジェクトは、第2のグラフィックオブジェクトの第2の情報および第1のグラフィックオブジェクトの第1の情報を使用して第2のピクセルデータを生成することによりレンダリングされ、第2のグラフィックオブジェクトのレンダリングは、第2のグラフィックオブジェクトのうち、視認方向において第1のグラフィックオブジェクトが重なるような部分に対して実行される。【選択図】図6a

Description

背景
静止画像および動画像のデジタルステレオ視が普及し、3D(3次元)動画を見るための機器はより広く入手可能である。映画館は、動画の各フレームについて左右の眼が異なる画像を視認するようにする特殊眼鏡を用いた動画の視認に基づく3D映画を提供している。同じ手法が、3D対応のプレーヤおよびテレビ受像機により家庭用にもたらされた。実際には、動画は、同一シーンに対して1つは左眼用、1つは右眼用の、2つのビューからなる。これらのビューは、ステレオ視に適したこうしたコンテンツを直接生成する特殊なステレオカメラで動画をキャプチャすることにより生成されたものである。ビューが2つの眼に提示されると、人の視覚系は、シーンの3Dビューを作り出す。視覚面積(映画のスクリーンまたはテレビ)が視野の一部しか占めないため3Dビューの体験が制限されるという欠点が、この技術にはある。
より現実感のある体験のために、全視野のうちのより大きな視覚面積を占めるデバイスが作り出された。眼を覆って、小型の画面・レンズ配列により左右の眼にピクチャを表示するように頭部に装着されることを意図された特殊なステレオ視ゴーグルが入手可能である。そのような技術には、3D視認に一般に使用される相当に大きなTV受像機に比べ、狭い空間でも、さらには移動中でも使用可能であるという利点もある。
故に、3Dビデオの視認のためのデジタル画像/ビデオの記録およびレンダリングを可能にするソリューションに対するニーズがある。
摘要
そこで、上記の問題が緩和される改善された方法と、その方法を実装する技術的設備とが発明された。本発明の様々な側面は、方法、装置、サーバ、レンダラ、データ構造、および格納されたコンピュータプログラムを有するコンピュータ可読媒体を含み、これらは独立クレームの記載事項により特徴付けられる。本発明の様々な実施形態が、従属クレームにおいて開示される。
本記載は、デジタル画像およびビデオコンテンツをレンダリングする方法、装置、およびコンピュータプログラム製品を開示する。第2のグラフィックオブジェクトをレンダリングするための第1のグラフィックオブジェクトの第1の情報と、第2のグラフィックオブジェクトをレンダリングするための第2のグラフィックオブジェクトの第2の情報とが形成または受信される。第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報が形成または受信され、依存関係情報は、第2のグラフィックオブジェクトを、視認方向(viewing direction)における前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する。第2のグラフィックオブジェクトは、第2のグラフィックオブジェクトの第2の情報および第1のグラフィックオブジェクトの第1の情報を使用して第2のピクセルデータを生成することによりレンダリングされ、第2のグラフィックオブジェクトのレンダリングは、第2のグラフィックオブジェクトのうち、視認方向において第1のグラフィックオブジェクトが重なるような部分に対して実行される。
言い換えれば、シーンのコンピュータモデル内にあるいくつかのオブジェクトが、そのオブジェクトが他のオブジェクトを介して見える場合にはピクセルを有するコンピュータ画像にレンダリングされる一方で、他の場合にはレンダリングされない、方法、装置、およびコンピュータプログラム製品が提供される。例えば、家の中のランプのモデルは、窓を介して見ることができるが、壁を介しては見ることができない。さらに、家のモデルが前面(正面)の壁のみを含む場合、家が側方から斜角で視認されたときに、たとえランプが壁の側方から見えたとしても、ランプのレンダリングは妨げられる。
さらに、鏡のような反射オブジェクトは、別のオブジェクトが現在の視認方向で鏡の中に見えるであろうときは、鏡の中にその別のオブジェクトのミラーイメージをレンダリングすることによってレンダリングされてもよい。ミラーイメージオブジェクトは事前計算され得るので、これはレンダリングを単純化する。ただし、別のオブジェクトのミラーイメージは、それが鏡の側方に見えるであろう場合、レンダリングをすれば、反射がないのに反射を誤って示すことになるので、レンダリングされない。他のオブジェクトを介したオブジェクトのレンダリングは、オブジェクトに手前のオブジェクトが重なり、手前のオブジェクトを通してオブジェクトを見ることができる場合にのみそのオブジェクトがレンダリングされるように、制御されてもよい。そのような条件付きのレンダリングにはステンシルバッファが使用されてもよく、ピクセルデータは、そのピクチャバッファピクセルに対しステンシルバッファピクセルが適切に設定されていればピクチャバッファに出力される。
以下では、本発明の様々な実施形態が、添付図面を参照しながらさらに詳しく記載される。
ユーザに対してステレオ画像を形成する構成を示す。 ユーザに対してステレオ画像を形成する構成を示す。 ユーザに対してステレオ画像を形成する構成を示す。 ユーザに対してステレオ画像を形成する構成を示す。 ステレオ視のためのシステムおよび装置を示す。 ステレオ視のためのステレオカメラデバイスを示す。 ステレオ視のための頭部装着型ディスプレイを示す。 カメラを示す。 格納するためのレンダーレイヤの形成および画像データの形成を示す。 格納するためのレンダーレイヤの形成および画像データの形成を示す。 レンダーレイヤを使用した画像のレンダリングを示す。 画像をレンダリングするためのレンダーレイヤを有するデータ構造を示す。 画像をレンダリングするためのレンダーレイヤを有するデータ構造を示す。 部分的に反射性のオブジェクトを備えたシーンを示す。 反射性オブジェクトおよび透過性オブジェクトをレンダリングするための依存性グラフを示す。 反射されたオブジェクトのレンダリングを示す。 反射されたオブジェクトをレンダリングするためのステンシルバッファの使用を示す。 反射性オブジェクトを備えたデジタルシーンを形成およびレンダリングするフローチャートを示す。 反射性オブジェクトを備えたデジタルシーンを形成およびレンダリングするフローチャートを示す。
実施例の説明
以下では、本発明のいくつかの実施形態がステレオ視の文脈で記載される。なお、当然のことながら、本発明はいかなる特定の目的にも限定されない。実際は、種々の実施形態に、例えば映画およびテレビなど、反射面でデジタルシーンを視認する必要がある任意の環境での用途がある。
図1a、1b、1c、および1dは、ユーザに対してステレオ画像を形成する構成を示す。図1aには、人間が両眼E1およびE2を使用して2つの球体A1およびA2を視認している状況が示されている。球体A1のほうが、球体A2よりも視認者に近く、第1の眼E1までの各距離は、LE1,A1およびLE1,A2である。各オブジェクトは、空間中それぞれの(x,y,z)座標にあり、座標は座標系SX、SY、およびSZにより定義される。人間の眼と眼の間の距離d12は、平均約62mm〜64mmと考えられ、人により55mmから74mmの間で異なる。この距離はパララックスと呼ばれ、人の視覚の立体視はこれに基づく。視認方向(光軸)DIR1およびDIR2は、典型的には実質的に平行であり、場合によっては平行から小さく逸れ、眼の視野を画定する。ユーザの頭部は周囲に対する向きを有し(頭部の向き)、これは、もっとも簡単には、眼がまっすぐ前を見ているときの眼の一般的方向により定められる。すなわち、頭部の向きは、ユーザが居るシーンの座標系に対する頭部のヨー、ピッチ、およびロールを表す。
図1aの構成では、球体A1およびA2は、両眼の視野の中にある。眼と眼の間の中央点O12および球体は、同じ線上にある。つまり、中央点からは、球体A2は球体A1の後ろにある。一方、球体はどちらの眼からも同一視線上にないので、それぞれの眼には、A1の後ろに球体A2の一部が見える。
図1bには、図1aで眼があった位置に配置されたカメラC1およびC2により眼が置き換えられた構成が示されている。この構成の距離および方向は、他の点では同じである。当然、図1bの構成の目的は、球体A1およびA2のステレオ画像を撮影できることである。画像キャプチャの結果として生じる2つの画像が、FC1およびFC2である。「左眼」画像FC1は、球体A1の画像SA1の左側に一部見える球体A2の画像SA2を示す。「右眼」画像FC2は、球体A1の画像SA1の右側に一部見える球体A2の画像SA2を示す。左右の画像のこの違いは視差と呼ばれ、この視差が、人の視覚系が深度情報を判断してシーンの3Dビューを作り出す基本的なメカニズムであり、これを使用して3D画像の錯覚をもたらすことができる。
カメラ間の距離が図1aの眼のものと一致する図1bのこの構成では、カメラペアC1およびC2は、自然なパララックスを有し、すなわち、カメラの2つの画像に自然な視差をもたらす特性を有する。たとえステレオカメラペアを構成する2つのカメラ間の距離が、人の眼と眼の間の通常の距離(パララックス)より幾分短いかまたは長く、例えば事実上40mmから100mmの間、あるいは30mmから120mmの間であっても、自然な視差がもたらされることは分かるであろう。
図1cには、3D錯覚の生成が示されている。カメラC1およびC2によりキャプチャされた画像FC1およびFC2が、それぞれディスプレイD1およびD2を使用して眼E1およびE2に対して表示される。画像間の視差は、人の視覚系により処理され、奥行きの認識がもたらされる。つまり、左眼で球体A1の画像SA1の左側に球体A2の画像SA2が見え、同様に右眼で右側にA2の画像が見えると、人の視覚系は、3次元の世界において球体V1の後ろに球体V2があるという認識をもたらす。ここで、当然のことながら、画像FC1およびFC2は、合成されたもの、すなわちコンピュータにより生成されたものとすることもできる。それらが視差情報を伝達すれば、合成画像も、人の視覚系により3次元として見られることになる。つまり、ステレオ画像として使用できるようにコンピュータ生成画像のペアを形成することができる。
図1dは、ステレオ画像を眼に対して表示する原理をどのように使用すれば、3次元と錯覚させる3D動画または仮想現実シーンを生成することができるかを示す。画像FX1およびFX2は、各画像が適切な視差をもつようにステレオカメラを用いてキャプチャされるかまたはモデルから計算されたものである。左右の眼で画像に視差が生じるようにディスプレイD1およびD2を使用して毎秒多数(例えば30)のフレームを両眼に表示することで、人の視覚系が、動きのある3次元画像の認知をもたらす。カメラの向きが変わり、または合成画像が計算されるビューの方向が変更されると、その画像の変化は、視認方向が変化している、つまり視認者の頭が回転しているとの錯覚をもたらす。この視認方向、つまり頭部の向きは、例えば頭部に装着された向き検出器などにより、頭部の現実の向きとして求められてもよく、または、ユーザが実際にはその頭部を動かさずに視認方向を操作すべく使用可能なジョイスティックもしくはマウスなどの制御デバイスにより決定される仮想の向きとして求められてもよい。つまり、「頭部の向き」という用語は、ユーザの頭部の実際の物理的向きおよびその変化を指すために使用されることもあり、または、コンピュータプログラムもしくはコンピュータ入力デバイスにより決定されるユーザの仮想視認方向を指すよう使用されることもある。
図2aは、ステレオ視、つまり3Dビデオおよび3Dオーディオのデジタルキャプチャおよび再生のためのシステムおよび装置を示す。このシステムのタスクは、十分な視覚情報および聴覚情報を特定位置からキャプチャして、当該位置に居る体験またはそこでの存在の迫真的な再現を、別々の位置に物理的に位置する1つ以上のビューアにより、任意選択で将来の後の時点で、実現できるようにするというものである。視認者がその眼および耳を使用してシーン中のオブジェクトの距離および位置を判断できるには、単一のカメラまたはマイクロフォンによりキャプチャできるよりも多くの情報が上記の再現に必要である。図1a〜1dの文脈で説明されたとおり、視差のある画像のペアを生成するために2つのカメラソースが使用される。同様に、人の聴覚系が音の方向を感知できるように少なくとも2つのマイクロフォンが使用される(一般に周知のステレオ音響は、2つのオーディオチャンネルを録音することにより生成される)。人の聴覚系は、音の方向を検知するために、例えばオーディオ信号のタイミングのずれといった感覚信号を検知することができる。
図2aのシステムは、画像ソース、サーバ、およびレンダリングデバイスの3つの主要部分からなってもよい。ビデオキャプチャデバイスSRC1は、ビデオキャプチャデバイス周辺のビューの各領域が少なくとも2つのカメラからキャプチャされるように、視野が重なり合う複数(例えば8つ)のカメラCAM1、CAM2、…、CAMNを有する。デバイスSRC1は、種々の方向から発信されるオーディオのタイミングおよび位相のずれをキャプチャするために複数のマイクロフォンを有してもよい。デバイスは、複数のカメラの向き(視認方向)を検出および記録可能なように、高分解能の方位センサを有してもよい。デバイスSRC1は、コンピュータプロセッサPROC1およびメモリMEM1を有し、またはそれらに機能的に接続され、メモリは、キャプチャデバイスを制御するためのコンピュータプログラムPROGR1コードを有する。デバイスによりキャプチャされた画像のストリームは、例えばビューアなどの別のデバイスで使用するためメモリデバイスMEM2に格納されてもよく、かつ/または通信インターフェースCOMM1を使用してサーバに伝送されてもよい。
当然のことながら、ここでは8つのカメラの立方体構成がシステムの一部として記載されるが、代わりに別のカメラデバイスがシステムの一部として使用されてもよい。
ビデオキャプチャデバイスSRC1が1つまたは複数の画像ストリームを生成する代わりに、またはそれに加えて、合成画像のソースSRC2が1つ以上システム内に存在してもよい。そのような合成画像のソースは、伝送する様々な画像ストリームを、仮想世界のコンピュータモデルを使用して計算してもよい。例えばソースSRC2は、仮想視認位置に位置するN個の仮想カメラに対応するN個のビデオストリームを計算してもよい。そのようなビデオストリームの合成セットが視認に使用されると、視認者は、図1dについて前述したとおり、3次元の仮想世界を見ることができる。デバイスSRC2は、コンピュータプロセッサPROC2およびメモリMEM2を有し、またはそれらに機能的に接続され、メモリは、合成ソースデバイスSRC2を制御するためのコンピュータプログラムPROGR2コードを有する。デバイスによりキャプチャされた画像ストリームは、例えばビューアなどの別のデバイスで使用するためメモリデバイスMEM5(例えばメモリカードCARD1)に格納されてもよく、または通信インターフェースCOMM2を使用してサーバもしくはビューアに伝送されてもよい。
キャプチャデバイスSRC1に加えて、ストレージ、処理およびデータストリーム供給ネットワークがあってもよい。例えば、キャプチャデバイスSRC1または計算デバイスSRC2からの出力を格納するサーバSERVまたは複数のサーバがあってもよい。デバイスは、コンピュータプロセッサPROC3およびメモリMEM3を有し、またはそれらに機能的に接続され、メモリは、サーバを制御するためのコンピュータプログラムPROGR3コードを有する。サーバは、通信インターフェースCOMM3を介して、有線または無線ネットワーク接続あるいは両方により、ソースSRC1および/またはSRC2、ならびにビューアデバイスVIEWER1およびVIEWER2に接続されてもよい。
キャプチャまたは生成されたビデオコンテンツの視認用に、1つ以上のビューアデバイスVIEWER1およびVIEWER2があってもよい。これらのデバイスは、レンダリングモジュールおよびディスプレイモジュールを有してもよく、またはこれらの機能性が単一のデバイスに組み合わされてもよい。デバイスは、コンピュータプロセッサPROC4およびメモリMEM4を有し、またはそれらに機能的に接続されてもよく、メモリは、視認用デバイスを制御するためのコンピュータプログラムPROGR4コードを有する。ビューア(再生)デバイスは、ビデオデータストリームをサーバから受信しビデオデータストリームを復号するデータストリーム受信機からなってもよい。データストリームは、通信インターフェースCOMM4を介してネットワーク接続上で、またはメモリカードCARD2のようなメモリデバイスMEM6から、受信されてもよい。ビューアデバイスは、図1cおよび1dに関して記載された視認に適したフォーマットへとデータを処理するグラフィック処理ユニットを有してもよい。ビューアVIEWER1は、レンダリングされたステレオビデオシーケンスを視認するための高解像度ステレオ画像頭部装着型ディスプレイを有する。頭部装着型デバイスは、方位センサDET1と、ステレオオーディオヘッドフォンとを有してもよい。ビューアVIEWER2は、(ステレオビデオの表示のため)3D技術対応のディスプレイを有し、レンダリングデバイスには、頭部向き検出器DET2が接続されていてもよい。デバイス(SRC1、SRC2、SERVER、RENDERER、VIEWER1、VIEWER2)の任意のものが、コンピュータまたはポータブルコンピューティングデバイスであってもよく、あるいはそれに接続されてもよい。そのようなレンダリングデバイスは、この文面に記載される様々な例による方法を実行するためのコンピュータプログラムコードを有してもよい。
図2bは、ステレオ視のためのカメラデバイスを示す。カメラは、左右の眼の画像を生成するためのカメラペアに構成された、またはそのようなペアに配列可能な、3つ以上のカメラを有する。カメラ間の距離は、人の眼と眼の間の通常の距離に対応してもよい。カメラは、その視野において大きな重なり合いを有するように配列されてもよい。例えば、180度以上の広角レンズが使用されてもよく、3、4、5、6、7、8、9、10、12、16、または20のカメラがあってもよい。カメラは、全視認天球(whole sphere of view)にわたり規則的または不規則に間隔を置いてもよく、あるいは、全天球(whole sphere)のうち一部のみをカバーしてもよい。例えば、三角形に配列され三角形の一辺に向かう異なる視認方向を有する3つのカメラがあり、3つのカメラすべてが視認方向の途中で重なり合うエリアをカバーしてもよい。別の例として、広角レンズを有し仮想の立方体の角に規則的に配列された8つのカメラが、全天球または実質的に全天球がすべての方向において少なくとも3つまたは4つのカメラによりカバーされるように、全天球をカバーする。図2bの例では、3つのステレオカメラペアが示されている。
他の種類のカメラレイアウトを有するカメラデバイスが使用されてもよい。例えば、すべてのカメラが1つの半球にあるカメラデバイスが使用されてもよい。カメラの数は、例えば、3、4、6、8、12、またはそれ以上であってもよい。カメラは、2つ以上のカメラの画像データからステレオ画像を形成可能な中央視野と、1つのカメラがシーンをカバーし通常の非ステレオ画像のみを形成可能な周辺(末端)視野とを生成するよう配置されてもよい。システムにおいて使用され得る種々のカメラデバイスの例が、本記載でさらに後述される。
図2cは、ステレオ視のための頭部装着型ディスプレイを示す。頭部装着型ディスプレイは、左眼画像および右眼画像を表示するための2つの画面部または2つの画面DISP1およびDISP2を含む。ディスプレイが眼に近いので、画像を容易に視認できるようにするため、および眼の視野をできる限りカバーするよう画像を広げるために、レンズが使用される。デバイスは、ユーザが頭部の向きを変えても適所にとどまるようにユーザの頭部に取り付けられる。デバイスは、頭部の動きおよび頭部の方向を判断するための向き検出モジュールORDET1を有してもよい。なお、ここで、この種のデバイスでは、頭部の動きの追跡は行われてもよいが、ディスプレイが視野の大きな面積をカバーするので眼の動きの検出は必要ない。頭部の向きは、ユーザの頭部の現実の物理的な向きに関係してもよく、ユーザの頭部の現実の向きを判断するセンサにより追跡されてもよい。あるいは、またはさらに、頭部の向きは、コンピュータプログラムまたはジョイスティックなどのコンピュータ入力デバイスにより制御されるユーザの視認方向の仮想の向きに関係してもよい。つまりユーザは、判断された頭部の向きを入力デバイスを用いて変更できてもよく、またはコンピュータプログラムが視認方向を変更してもよい(例えばゲーム中、ゲームプログラムが代わりに、または現実の頭部の向きに加えて、判断される頭部の向きを制御してもよい)。
図2dは、カメラCAM1を示す。カメラは、センサ素子に当たる光の強度を感知する複数のセンサ素子を備えたカメラ検出器CAMDET1を有する。カメラは、レンズOBJ1(または複数のレンズのレンズ配列)を有し、レンズは、センサ素子に当たる光がレンズを通過してセンサ素子へと向かうように配置される。カメラ検出器CAMDET1は、複数のセンサ素子の中点である公称中心点CP1を有し、これは例えば、矩形センサの場合は対角線の交点である。レンズも公称中心点PP1を有し、これは例えばレンズの対称軸上にある。カメラの向きの方向は、カメラセンサの中心点CP1とレンズの中心点PP1とを通る線により定義される。カメラの方向は、この線に沿って、カメラセンサからレンズへの方向を指すベクトルである。カメラの光軸は、この線CP1−PP1であると理解される。
上述のシステムは、以下のように機能してもよい。まず、時刻同期されたビデオ、オーディオ、および向きデータがキャプチャデバイスにより記録される。これは、上述のとおり、複数の同時発生ビデオおよびオーディオストリームからなることができる。次にこれらは、再生デバイスに後で配信するのに適したフォーマットに処理および変換するために、即時にまたは後からストレージおよび処理ネットワークに伝送される。変換は、品質を改善し、かつ/または所望レベルの品質を保持しながらデータの量を削減するために、オーディオおよびビデオデータに対する後処理ステップを含むことができる。最後に各再生デバイスは、ネットワークからデータのストリームを受信し、それを、頭部装着型ディスプレイおよびヘッドフォンを用いてユーザにより体験可能な元の位置のステレオ視再現へとレンダリングする。
後述のように視認用のステレオ画像を生成する新規な方法により、ユーザは、その頭部の向きを複数の方向に変えることができてもよく、再生デバイスは、例えば元の記録位置から見えたであろう、その特定の向きに対応するシーンの高頻度(例えば60フレーム毎秒)ステレオビデオおよびオーディオビューを生成することができる。カメラデータから視認用のステレオ画像を生成する他の方法も使用され得る。
図3aは、格納または伝送のためのレンダーレイヤの形成および画像データの形成を示す。シーンは、複数のピクセルセットを生成することによりファイル内に格納または伝送するために記録され、この複数のピクセルセットとはつまり、レンダーレイヤであり、レイヤ内の各データ点は、共通原点からのベクトルと色データとを少なくとも含む。各データセットは、周知の2D画像またはビデオシーケンス圧縮技術を使用して圧縮されてもよい。
図3aのいくつかの点P1、…、PNおよびPX1、PX2が形成されてもよく、各点は、色と空間中の位置とを有する。点PX1およびPX2は、ピクセルP1、P2、およびP3の後ろに隠れている。次にこれらの点がレンダーレイヤに変換され、視点VIEWPNTから視認すると直接見える点から第1のレンダーレイヤRENDER LAYER1が生成され、第1のレンダーレイヤの後ろに隠れている点から1つ以上のレンダーレイヤRENDER LAYER2が少なくとも部分的に生成される。各点の位置ベクトルは、種々の形で格納または圧縮され得る。位置ベクトルは、点毎に、3つの独立パラメータ、すなわち、角度のペアならびに基準ベクトル(視点および視認方向により定義されるベクトル)からの距離、または直交軸方向における3つの距離、のいずれかとして簡易に表現可能である。あるいは、レンダーレイヤピクセルRP1、RP2、RP3およびRPX1、RPX2を有し既知の整数幅および高さをもつ2次元の通常レイアウト(画像)として解釈される一連の点へと、点のインデックスに基づき原点からの空間中の各位置の位置ベクトルをより密に符号化するため、パラメータ化されたマッピング関数を使用可能である。これは、図3aのレンダーレイヤRENDER LAYER1およびRENDER LAYER2に対応する。これは例えば、xおよびy座標を直接、ヨーおよびピッチ座標にマッピングして、完全な天球が矩形構造へと符号化されることを可能にしてもよい。各(ヨー,ピッチ)ピクセルのピクセル色値は、既存の点値からの補間により形成されてもよい。あるいは、半球以上を円形画像にマッピングするために、等立体マッピング(equisolid mapping)[radius=2*focalLength*sin(angleFromAxis/2)]など、円形マッピング関数(circular mapping function)が使用されてもよい。
あるいは、円形マッピング関数が、球座標を2dデカルト座標にマッピングするために使用されてもよい。このようなマッピング関数は、すべてのxおよびy値ペアが球座標に再びマッピングされ得る円形画像を生成する。この関数は、光軸からの角度(θ)を、画像円の中心(r)からの点の距離にマッピングする。各点につき、光軸の周りの角度(φ)は、球座標およびマッピングされた画像円において同じままである。xおよびy座標とマッピングされた画像円におけるrおよびφとの関係は、以下のとおりである。
x=x0+r*cos(φ),y=y0+r*sin(φ)、ただし点(x0,y0)は画像円の中心である。
そのようなマッピング関数の一例は、魚眼レンズで一般に使用される等立体である。等立体マッピングは、レンズの焦点距離(f)に依存し、次の通りである:r=2*f*sin(θ/2)。したがって、光軸の中心にある点(θは0)について、rはゼロとなり、したがって、マッピングされた点も画像円の中心である。光軸に垂直なベクトル上の点(θは90度)について、rは、1.41*fとなり、画像円における点は、次の通り計算可能である:x=x0+1.41*f*cos(φ),y=y0+1.41*f*sin(φ)。xおよびyを一定乗数で調整(scale)して、座標を目標解像度におけるピクセルに変換することができる。他のマッピング関数は、立体(stereographic)(r=2*f*tan(θ/2))、等距離(equidistant)(r=f*θ)、および正射影(orthographic)(r=f*sin(θ))とされ得る。
各レイヤは、図3aのRENDER LAYER1など、完全に(つまり、隙間のない連続的な形で)カメラの周囲の空間をカバーしてもよく、または、図3aのRENDER LAYER2など、空間を疎にカバーして、カバーされない部分は、マッピングパラメータを使用して完全に省略されるか、もしくはより大きなサイズで高圧縮可能なゼロ値として符号化されるかのいずれかとされてもよい。視覚化され得るすべてのオブジェクトが、レイヤのうちの1つに記録される。各レイヤには、レイヤの2次元画像データをレンダー空間にマッピングするために必要なマッピングパラメータが供給される。最終的に、すべてのレイヤは、それらの復号に必要なマッピングメタデータとともに供給される単一のデータ構造に詰められてもよい。あるいは、別々のレイヤは、別々のファイルもしくはストリーム、または別々のデータ構造で提供されてもよい。
さらに、レイヤの符号化は、シーンの良好な再現を依然として与えながら、レンダリングの複雑性の調整、または配信されるデータ量の削減を可能にしてもよい。このための1つの手法は、2D画像にすべてのレイヤを詰めることであり、次第に遠くなる各サブレイヤは、1つの軸に沿って、例えば増加するy軸に沿って(下へ)、より遠くに位置する。より少ないレンダリングが必要なときは、下位のデータは単に配信されないか、または復号/処理されず、最上位のレイヤのみ、場合によってはさらに、限られたサブレイヤのサブセットを用いて、レンダリングが行われる。
本発明は、完全合成シーンをレンダリングする大データ処理容量を用いない限り以前は不可能であった、物理的に現実的な挙動レベルでの複雑な3D環境の記録、配信、および再現を可能にし得る。これは、レンダーレイヤ構造を使用することにより特定の画像解像度のために配信が必要なデータ量を大きく削減することで、異なる視点からの複数の画像に基づくこれまでの再現技術を改善し得る。
図3bには、2つのカメラCAMRおよびCAMLを使用した2つのレンダーレイヤRENDER LAYER1およびRENDER LAYER2の形成が示されている。オブジェクトREAROBJは別のオブジェクトFRONTOBJの後ろに隠れているので、異なるカメラはオブジェクトREAROBJの異なる部分を「見る」。左カメラCAMLは、オブジェクトREAROBJのより多くの画像情報を左からキャプチャでき、右カメラCAMRは、右からそれができる。レンダーレイヤが生成されるとき、例えば点VIEWPNTを視点として保持することにより、FRONTOBJオブジェクトが、オブジェクトREAROBJのうち画像情報がある部分ならびに画像情報がない部分を隠す。結果として、第1のレンダーレイヤRENDER LAYER1は、第1のオブジェクトFRONTOBJを表現するピクセルAREA1と、第2のオブジェクトREAROBJの可視部分を表現するピクセルAREA2とを有する。第2のレンダーレイヤは、第2のオブジェクトREAROBJの隠れた部分の画像情報に対応するピクセルAREA3を有する。AREA3外のピクセルは、空であっても、ダミーのピクセルであってもよい。レンダーレイヤの深度情報は、前述のとおり生成され得る。
図4は、レンダーレイヤを使用した画像のレンダリングを示す。ステレオイメージまたはステレオビデオシーケンスをレンダリングするために、前述のように左右の眼のための画像フレームが形成される。画像フレームをレンダリングするために、すべてのレイヤRENDER LAYER1、RENDER LAYER2からのコンテンツが、1つの新たなレンダリングカメラ空間に射影され、適切なシーンをレンダリングするために深度によりソートされる。例えば、従来のグラフィック処理ユニットでは、各レンダーレイヤ点RP1、RP2、…、RPNおよびRPX1、RPX2、…は、「パーティクル」として扱われ、頂点シェーダプログラムを使用して変換され、レンダリング視点に関連する深度値を含む単一ピクセル「ポイントスプライト」を用いて3Dレンダー空間へと変換され得る。射影された重なり合うパーティクルの深度値が比較され、適切なブレンディング関数を用いて正しい順序で描画される。これは、点RP1、RP2、RP3、RPX1、RPX2に対応する破線矩形により示される。そのようにして、ピクセルを、実空間におけるそれぞれのソース画像点の位置に対応する箇所に位置付けることが可能である。不透明なコンテンツは、レンダリングカメラに最も近い点が示されるようにレンダリングされる。不透明でないコンテンツは、その後ろに見えるコンテンツの適切なブレンディングによりレンダリングされてもよい。
ここで、レンダーレイヤのピクセルは、レンダー空間において異なるサイズのオブジェクトを表現することもあることに留意されたい。視点から遠く離れたピクセル(深度値が大きい)は、より視点に近いピクセルよりも大きなオブジェクトを表現し得る。これは、レンダーレイヤピクセルが、そもそも特定の空間的「円錐」と、その「円錐」中の画像コンテンツとを表現し得るからである。円錐の底部がどれだけ遠いかに応じて、ピクセルは、空間中の異なるサイズの点を表現する。レンダーレイヤは、レンダー視点から視認するとピクセルグリッドが実質的に上下に整列するような形で、レンダリングのために整列され得る。
レンダーレイヤをレンダー空間に変換するためには、それらを回転させる必要があるかもしれない。x軸周りの角度γ(ピッチ角としても知られる)の座標の回転変換Rの例は、次の回転行列により定義される。
Figure 2018504009
同様の形で、他の軸の周りの回転R(ヨーに関する)およびR(ロールに関する)を形成することができる。一般回転として、R=Rにより3つの回転の行列乗算を形成できる。次に、この回転行列を、次式により第1の座標系における任意のベクトルの乗算に使用して、目的の座標系におけるベクトルを得ることができる。
Figure 2018504009
回転の例として、ユーザがその頭部の向きを変えると(ピッチ、ヨー、およびロール値により表現される回転がある)、ユーザの頭部の向きが求められ、頭部の新たな向きが得られてもよい。これは例えば、頭部装着型ディスプレイに頭部動き検出器があるように発生してもよい。頭部の新たな向きが求められると、レンダリングされた画像が頭部の新たな向きに整合するよう、ビューの向きおよび仮想の眼の位置が再計算されてもよい。
別の例として、頭部装着型カメラの向きの補正について説明する。ここで使用される技術は、キャプチャデバイスではなくユーザが視認方向を制御できるように、キャプチャデバイスの向きを記録し、その向き情報を使用して、再生中、キャプチャデバイスの回転を事実上相殺しながら、ユーザに提示されるビューの向きを補正するものである。視認者がむしろキャプチャデバイスのもともとの動きを体験したければ、補正は無効化されてもよい。視認者がもとの動きを弱めたバージョンを体験したければ、もとの動きには従うが、それがよりゆっくりと行われ、または通常の向きからの逸脱がより小さくなるように、フィルタを用いて補正が動的に適用されてもよい。
フレームの表示のために、レイヤは、不透明のレイヤから始まって半透明のエリアを含むレイヤで終わる複数のレンダリングパスでレンダリングされてもよい。最後に、必要に応じて空ピクセルの値を補間するために、別個の後処理レンダリングパスが実行されることが可能である。
レンダリング中、グラフィック処理(OpenGLなど)の深度テストが有効化され、オクルージョンされたフラグメントを廃棄し、深度バッファが書き込みのため有効化される。アルファブレンディングは、レンダリングされたレイヤが半透明のエリアを含む場合、レンダリング中に有効化され、そうでなければ無効化される。シーンジオメトリは、結ばれていない多数の頂点(GL_POINT)を含み、これはそれぞれ、格納されたレンダーレイヤデータ内の1つのピクセルに対応する。レイヤ格納フォーマットに応じて、頂点は異なる数の属性をもつことができる。頂点属性は、例えば、実際のレイヤ画像データをポイントする位置(x,y,z)、色、またはテクスチャ座標である。
次に、OpenGLの頂点およびフラグメント処理を例として説明する。他のレンダリング技術も同様の形で使用され得る。
レイヤ格納フォーマットが異なると、頂点およびフラグメント処理がわずかに異なることもある。非圧縮リストフォーマットで格納されたレイヤを処理するステップは、以下のとおりであってもよい(頂点毎)。
1.最初に、すべての頂点が、視認角度(view angle)、色、および共通原点(レンダー視点)に対する深度を含む属性とともに、頂点処理段階に割り当てられ、渡される。処理されるレイヤが半透明のコンテンツを有する場合、頂点は、その深度値に従ってソートされなければならない。
2.頂点の(ヨー,ピッチ,深度)表現が、3dデカルトベクトル(x,y,z)へと変換される。
3.カメラおよびワールド変換が、頂点に、対応する行列を乗算することにより適用される。
4.頂点色属性が、フラグメント処理段階に渡される。
5.最終頂点座標が出力変数(gl_Position)に書き込まれる。
6.フラグメント処理段階において、頂点処理から受け取られた色データが直接、出力変数(gl_FragColor)に書き込まれる。
圧縮画像フォーマットで格納されたレイヤ、すなわち、ピクセル色データおよび深度値を有するピクセルを備えたレンダーレイヤを処理するステップは、以下のとおりであってもよい(頂点毎)。
1.最初に、すべての頂点が、同じ深度値を有するシーン中に均等に割り当てられる。
2.頂点が視認者の現在の視野の中になければ、それを現在の視野の中に配置するために変換関数が適用される。この変換の1つの目的は、すべての利用可能な頂点を現在見えるエリアに、初めに集めることである。そうしなければ、その頂点により表現されるピクセルデータは、フラグメント処理段階でのレンダリング中にクリッピングされることになる。この場合にクリッピングを回避すると、レンダリング品質が改善する。視野外の頂点が視野の中に均等に分布されるような形で位置変換を行うことができる。例えば、視野が水平方向で0度から90度であれば、もともと水平方向で91度の方向に位置している頂点は、この場合、1度の水平位置に変換されることになる。同じく、91度から180度の水平位置の頂点は、水平方向1〜90度の範囲に変換されることになる。同じ形で垂直位置を計算可能である。変換された頂点が既に視野の中にある他の頂点とちょうど同じ位置にくることを回避するために、頂点の新たな位置値に小さな一定の端数(例えばこの例示の場合では0.25ピクセル)を加算できる。
3.変換された頂点位置から頂点色データのテクスチャ座標が計算され、それがフラグメント処理段階に渡される。
4.テクスチャからテクスチャルックアップを使用して頂点の深度値がフェッチされる。
5.頂点の視認角度が、マッピング関数を使用して計算される。
6.頂点の(ヨー,ピッチ,深度)表現が、デカルト3dベクトル(x,y,z)へと変換される。
7.カメラおよびワールド変換が、頂点に、対応する行列を乗算することにより適用される。
8.ピクセル解像度は、最終的な頂点位置における小さな丸め誤差を生じさせるが、これは、(サブピクセル)丸め誤差を計算してそれをフラグメント処理段階に渡すことにより考慮に入れることができる。
9.最終頂点座標がシェーダ出力変数(gl_Position)に書き込まれる。
10.フラグメント処理段階では、受け取られたテクスチャ座標を使用しかつより適切な色値を周囲点を使用して補間するためにサブピクセル丸め誤差値を考慮して色テクスチャから色データが取得される(これは、非圧縮リストフォーマットでは不可能である)。次に、色値が出力変数(gl_FragColor)に書き込まれる。
第1のレンダーレイヤからの第1のピクセルと、第2のレンダーレイヤからの第2のピクセルとを、それらの空間における位置をサブピクセル量調整して互いに上下に揃える(registered)ような形で、ソースピクセルがレンダリング中に整列されてもよい。レンダーレイヤの格納フォーマットに応じて、頂点(ピクセル)は、まずある種の仮想グリッドに整列されてもよく(「圧縮」画像フォーマットのステップ1および2)、されなくてもよい。頂点は最終的に、正しい深度をフェッチし座標を変換&マッピングした後でカメラおよびワールド変換が適用されるステップ(ステップ7)において整列/配置されてもよい。当然のことながら、整列は、別の段階で発生することもでき、またはそれ自体の別個のステップとして発生してもよい。
図5aは、画像をレンダリングするためのレンダーレイヤを有するデータ構造を示す。圧縮されていないリストタイプのフォーマットでは、様々なシーン点が、色(3つの値、例えば赤、緑、青)、透明度(例えばアルファチャンネル)、位置(3つの値、例えばヨー、ピッチ、深度座標)、および場合によっては他の属性の値をそれぞれ有する点データ構造により表現される。
図5bでは、画像データフォーマットで、第1のレンダーレイヤにおけるシーン点の色値が1つの符号化画像により表現され、画像は、レンダーレイヤピクセルRP1、RP2、RP3としてシーン点の色値を有し、または画像は、例えばテクスチャマッピングによりシーン点の色値を計算するために使用可能な色値を有する。同様に、第1のレンダーレイヤの他の属性が、例えばレンダーレイヤピクセルの深度値RPD1、RPD2、RPD3を有する深度値画像などの画像として表現されてもよい。第2のレンダーレイヤにおけるシーン点の色値が1つの符号化画像により表現され、画像は、レンダーレイヤピクセルRPX1、RPX2としてシーン点の色値を有し、または画像は、例えばテクスチャマッピングによりシーン点の色値を計算するために使用可能な色値を有する。深度値RPDX1、RPDX2が、対応する深度画像にある。
別々のレンダーレイヤが、それ自体の画像データ構造を有してもよく、またはレンダーレイヤは、1つ以上の画像に互いに組み合わされてもよい。例えば画像は、第1のレンダーレイヤデータのためのセグメント、第2のレンダーレイヤデータのための別のセグメントなどを有してもよい。画像は、従来の画像圧縮技術を使用して圧縮されてもよい。
さらに、レイヤの符号化は、シーンの良好な再現を依然として与えながら、レンダリングの複雑性の調整、または配信されるデータ量の削減を可能にしてもよい。このための1つの手法は、2D画像にすべてのレイヤを詰めることであり、次第に遠くなる各サブレイヤは、1つの軸に沿って、例えば増加するy軸に沿って(下へ)、より遠くに位置する。より少ないレンダリングが必要なときは、下位のデータは単に配信されないか、または復号/処理されず、最上位のレイヤのみ、場合によってはさらに、限られたサブレイヤのサブセットを用いて、レンダリングが行われる。
対話型3次元シーンを生成するために、一般的な3Dグラフィック処理ハードウェアおよび技術を使用して、リアルタイムで、単純な静的合成環境または動的合成環境がレンダリングされてもよい。さらに、幾何学的に複雑な動的3Dシーンまたはモデルが記録または生成され、既知の「2Dプラス深度」技術を使用して自由視認方向(free viewing direction)でリアルタイムで視認されることが可能である。しかしながら、ここで、これらの技術は、反射性または透過性の表面およびオブジェクトを写実的に再現するには適していないかもしれないということが分かった。つまり、既知の技術は、いくつかのピクセルに向かう自由視認角度でビューを再現できるように、当該ピクセルの色値および3d位置を格納することに依拠している。これは、仮想カメラをあちこちに動かし、3D空間においてピクセルを幾何学的に正しくレンダリングすることを可能にする。ここで分かったのが、このような形で写実的な環境を再現することに関する問題は、格納されたピクセルが反射性または透過性である場合、視認角度が変化すると格納された色値が現実を反映せず、実世界においては表面の多くが多かれ少なかれ反射性または透過性である、ということである。実世界で反射性または透過性の表面を見ていて、頭部を動かしもしくは向きを変えると、表面の色は、視認角度、およびそのオブジェクトの後ろに何があるか、もしくは反射がどこからきているかに応じて変化する。ここで分かったのは、この的確な再現は、空間中のすべてのピクセル毎に単一の色値を格納してそれらの色を視認方向にかかわらずレンダリングすることではなし得ないということである。
図6aは、部分的に反射性のオブジェクトを備えたシーンを示す。この文脈では、高複雑性の3Dシーンを密に符号化して効率的に再現する新規な技術が提示される。これは、複数の2Dレイヤ(前述のとおり)、ならびに例えばレイヤ上のピクセルまたはフラグメントの透明度および反射性の記述子を使用することで実現されてもよい。
前述のとおり、図6aのもののようなシーンが、複数のセットまたはレイヤを生成することにより記録されてもよく、レイヤ内の各データ点は、共通原点からのベクトルと色データとを含む。ベクトルおよび色に加えて、データ点(ピクセルまたはフラグメント)はさらに、主レイヤツリー透明度(main layer tree transparency)、被反射レイヤツリー透明度(reflected layer tree transparency)、および被反射レイヤツリー下位ツリー識別子(reflected layer tree sub−tree identifier)のいずれかを備えてもよい。これらデータセット(色、透明度、反射性、下位ツリー識別子)のそれぞれは、周知の2D画像またはビデオシーケンス圧縮技術を使用して独立して圧縮されてもよい。
図6aには、いくつかのグラフィックオブジェクトXP1、XP2、PP3、PP4、PP5、OBJ1、およびOBJ2が示されている。これらグラフィックオブジェクトは、実世界のオブジェクトまたは合成シーンのオブジェクトに直接対応してもよい。グラフィックオブジェクトは、前述のとおり、実世界のオブジェクトをモデル化することにより形成されたものでもよい。グラフィックオブジェクトはさらに、レンダーレイヤに対応してもよい。グラフィックオブジェクトはさらに、或る視認方向において互いに背後にあるオブジェクトを写実的にレンダリングすることを促進するために、1つ以上のレンダーレイヤ上に存在することもできる。そのような形で、レンダーレイヤが図6aのグラフィックオブジェクトを含むと考えられてもよい。さらに、グラフィックオブジェクトは、個別のピクセルであっても、またはピクセルのグループであってもよい。例えば、グラフィックオブジェクトXP1およびXP2は、図6aの窓およびドアの個別のピクセルまたはピクセルのグループであってもよい。記載したとおり、グラフィックオブジェクトは、レンダーレイヤまたはその一部、グラフィックオブジェクトのモデルまたはその一部、および/またはピクセルまたはピクセルのグループであってもよい。以下では、簡潔性のために、グラフィックオブジェクトは実世界の個々のグラフィックオブジェクトに対応するものとして記載されており、当然のことながら、その他任意の形態のグラフィックオブジェクトも使用され得る。
図6aでは、視認方向VIEW_DIRにおいて、ビュー内に2つの反射性オブジェクトXP1およびXP2と、1つの透過性オブジェクトXP1とがある。反射性および視認方向が理由で、オブジェクトOBJ1が表面XP1(ガラス窓)に反射し、オブジェクトOBJ2が表面XP2(金属製のドア)に反射している。したがって、これらのグラフィックオブジェクトは鏡面を有する、つまり、窓およびドアは平面オブジェクトであり、表面と一致する平面はこれらオブジェクトの鏡面であると理解されてもよい。さらに、図示されてはいないが、家の中のオブジェクトが窓を介して見えてもよい。窓はさらに、色を有し、例えば緑がかっていてもよい。言い換えれば、ここで記載するレンダリング方法では、窓XP1のような第1のグラフィックオブジェクトの情報(そのフラグメントの1つ以上)と、第2のグラフィックオブジェクトの情報(窓に反射する木OBJ1のフラグメント)とがあってもよく、オブジェクトのうちの1つ(例えば窓)を構成するグラフィックフラグメントは、別のグラフィックオブジェクトのフラグメント(木および家の中の任意のオブジェクトの画像)がそれを介して見える特殊フラグメントである。
レンダリングするために、すべてのレイヤからのコンテンツが、1つの新たなレンダリングカメラ空間に射影され、適切なシーンをレンダリングするために深度によりソートされる。例えば、従来のグラフィック処理ユニットでは、各点は、「パーティクル」(フラグメントの一種)として扱われ、頂点シェーダプログラムを使用して変換され、レンダリングカメラに対する深度値を含む単一ピクセル「ポイントスプライト」を用いて3D空間へと変換されてもよい。射影された重なり合うパーティクルの深度値が比較され、適切なブレンディング関数を用いて正しい順序で描画される。不透明なコンテンツは、レンダリングカメラに最も近い点のみが示されるようにレンダリングされる。透明でも反射性でもないすべてのオブジェクトにはこれで十分である。
レンダーレイヤおよび一般に任意のグラフィックオブジェクトに対して、グラフィックオブジェクトをレンダリング空間に入れるためにマッピング情報が使用される。すなわち、レンダーレイヤのXおよびY座標がどのようにして3次元のレンダリング空間に変換されるかの情報が与えられる(図4参照)。例えば、図4の文脈で記載したとおり、種々のマッピング関数が使用され得る。さらに、クリッピング情報が、マッピングの範囲に関して情報が与えられるようにマッピング情報の一部として使用されてもよい。このように、グラフィックオブジェクトはクリッピングにより限定でき、クリッピングエリア外の情報は何ら必要とされないので、例えば、全天球が符号化される必要はないこともある。3D環境における変化を時間に基づき再生できるように、それぞれの瞬間が、レイヤおよびマッピングパラメータの新たなセットを用いて符号化されてもよい。各フレームにおいて、新たなレイヤデータおよびマッピング情報が利用に供される。あるいは、時間に基づく再生は、一時停止でき、単一のフレームを使用して種々の位置からレンダリングすることができる。
図6bは、反射性オブジェクトおよび透過性オブジェクトをレンダリングするための依存性グラフを示す。透過性コンテンツは、それを介して見えるコンテンツのブレンディングによりレンダリングされる必要がある。色の付いた窓などの単純な半透明オブジェクトに対しては、依存性グラフの主レベルにおける透明度値がブレンディングに使用される。透明オブジェクトを介して見える任意のオブジェクトは、透明オブジェクトの透明度下位ツリーにある。レイヤの最上位ツリーの代わりに(例えば透明でない鏡など反射のみをレンダリングする場合)またはそれに加えて(例えば窓など反射プラス透明度)、被反射レイヤツリー透明度値が、反射下位ツリーを用いたブレンディングのために使用されてもよい。反射性および/または透過性の情報は、例えばレンダーレイヤデータ構造において、各ピクセルの色情報とともに格納されてもよい。あるいは、またはさらに、依存オブジェクトに影響する反射性および/または透過性の情報は、例えばグラフ内の2つのオブジェクト間のリンクが反射性および透過性情報を含むように、グラフのデータ構造に格納されてもよい。反射性および透過性(透明度)は、例えば、透明度に対しては第1のアルファ値、および反射性に対しては第2のアルファ値を使用して与えられてもよい。
図6bでは、シーンが依存性グラフデータ構造で表現されている。依存性グラフは、例えばツリー構造であってもよい。シーンの通常のグラフィックオブジェクトPP3、PP4、PP5、OBJ1、OBJ2のノードは、シーンの根ノードに直接依存する。そのようなオブジェクトはさらに、前述のとおり、レイヤに基づくレンダリング方法でのレンダリングのために、レンダーレイヤのツリー構造内に存在し得る。例えばグラフィックオブジェクトは、レンダーレイヤであってもよく、またはレンダーレイヤ上に存在してもよく、レンダーレイヤは、ツリー構造内で相互に依存してもよい。つまり、依存性グラフは、(グラフのノードとして)レンダーレイヤと、レンダーレイヤ間の依存性リンクとを有してもよい。透明オブジェクトおよび/または反射性オブジェクトXP1、XP2のノードも同じく主シーンの根ノードに依存している。これらの透明オブジェクトおよび/または反射性オブジェクトを介してのみ見えるオブジェクトXOBJ1、XOBJ2は、それらが見えるオブジェクトのノードに依存したノードを有する。図6aの家の中のオブジェクトなど、透明オブジェクトを介して見える通常のオブジェクトに対しては、オブジェクトは、透明オブジェクトの子ノードである直接対応するノードを有してもよい。反射面に反射するオブジェクトは、反射性オブジェクトに依存するノードを有するミラーオブジェクトXOBJ1、XOBJ2を有してもよい(ミラーオブジェクトについては図6cを参照)。図6bでは、オブジェクトOBJ1は、窓XP1に反射するので、通常のオブジェクトOBJ1に対応するミラーオブジェクトXOBJ1が、窓XP1のノードに依存するノードを有する。同じくオブジェクトOBJ2は、ドアXP2に反射するので、通常のオブジェクトOBJ2に対応するミラーオブジェクトXOBJ2が、ドアXP2のノードに依存するノードを有する。
なお、図6bでは、視認角度が反射に適していれば、オブジェクトOBJ1はさらにオブジェクトXP2に反射してもよく、オブジェクトOBJ2はオブジェクトXP1に反射してもよい。これが理由で、XOBJ1は、XP2の子ノードでもあってもよく、XOBJ2は、XP1の子ノードであってもよい。言い換えれば、依存性ツリーは、ネットワーク、より具体的には有向ネットワークであってもよい。あるいは、有向ネットワークは、XOBJ1およびXOBJ2がXP1に依存し、XOBJ1およびXOBJ2の複製がXP2に依存するように、例えば図6bのツリー構造に拡大されてもよい。図6bでは、依存性グラフは、有向ネットワーク構造であり、依存性方向は上から下である。グラフはさらに、各反射性オブジェクトおよび/または透明オブジェクトに対してそれらを介して見えるオブジェクトを判断できるようにする、有向(ループなし)ネットワークであってもよい。その結果、オブジェクトがレンダリングされるときは、まず第2のグラフィックオブジェクト(子ノード)が、第2のグラフィックオブジェクトの情報(例えば色)と、さらに第1のグラフィックオブジェクトの情報(色、透明度、反射性)とを使用して、対応するレンダリング済みピクセルのピクセルデータを生成することでレンダリングされるように、レンダリングが発生してもよい。次に、例えば別のレンダリングパスにおいて、第1の(親ノード)グラフィックオブジェクトが、まず色情報などの第1のグラフィックオブジェクトの情報を使用してレンダリング済みピクセルのピクセルデータを生成することによりレンダリングされる。そのような仕組みでは、第2のオブジェクトのピクセルが第1のオブジェクトのピクセルのサブセットを形成する(この文脈において、ピクセルのサブセットとは第1のオブジェクトのピクセルのうち無、一部、または全部を意味する)。第2のオブジェクトに対応するピクセルは、第1のオブジェクトの外側ではレンダリングされないが、当然、第1のオブジェクト以外の別のオブジェクトを介しても第2のオブジェクトが見える場合はこの限りでない。言い換えれば、一部のオブジェクトが他のオブジェクトを介してのみ見え、該他のオブジェクトの外側では見えないように、オブジェクトの可視性が、他のオブジェクトの外側では依存関係情報により制限される。言い換えれば、依存性グラフは、依存性ツリーであってもよく、第1および第2のグラフィックオブジェクトは、それぞれ依存性ツリーの第1および第2のノードに対応し、第2のノードは、第1のノードの子ノードであり、依存性ツリーは、第2のオブジェクトが第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める。
図6cは、反射されたオブジェクトのレンダリングを示す。前述のとおり、例えば遮られた任意数のピクセルが従属レイヤおよびレイヤツリーに格納される前述のレイヤフォーマットなど、レンダリングに適したフォーマットに単一視点からのワールドをレンダリングする潜在的に大量の処理を使用して、オブジェクトのデータ(例えばレンダーレイヤ)が、複雑な合成モデル(CGIフィルムコンテンツモデルなど)から直接的に生成されてもよい。あるいは、シーンデータが、別々の位置の複数のカメラを使用して現実のシーンからキャプチャされて、両画像の一致する点すべてについて深度の推定をもたらすためにカメラのペアが使用されてもよい。点推定は、共通原点および向きにマッピングされ、それらの色および位置値を比較することで重複エントリが削除される。そのような形で、レンダーレイヤが得られてもよく、そうしたレンダーレイヤは、レンダリングにおいてグラフィックオブジェクトとして使用されてもよい。
図6cでは、レンダリングのための画像オブジェクトの形成が、木オブジェクトOBJ1および箱オブジェクトOBJ2について示される。木オブジェクトOBJ1は、窓オブジェクトXP1に反射するので、木オブジェクトの画像オブジェクトXOBJ1が、窓オブジェクトの鏡面に対して木オブジェクトOBJ1を映すことにより形成される。このように、ミラーオブジェクトXOBJ1は、家の「中」に配置され、反射性の窓XP1のエリアを介してのみ見える。同じく、箱のミラーオブジェクトXOBJ2は、ドアXP2の平面を鏡面として使用することにより形成される。レンダリング時は、これらミラーオブジェクトXOBJ1およびXOBJ2の、他のオブジェクトXP1およびXP2それぞれからの依存関係が、依存性グラフおよび親オブジェクトの透明度/反射率情報を使用してミラーオブジェクトをレンダリングするために用いられる。手前のオブジェクトの透明度/反射性に応じて、レンダリング中、手前のオブジェクトの色情報が奥のオブジェクトの色情報とブレンディングされる。
現実世界の画像からの透明オブジェクトおよび反射性オブジェクトに関するデータの生成は、手前の各オブジェクトならびにそれを介して見える被反射レイヤツリーオブジェクトの、表面色および透過性(α)の推定を形成することによって実施されてもよい。これは、複数の視点からのデータを比較して、種々の要素の距離およびそれらの色両方を区別することにより実現されてもよい。例えば図6cにおいて、ミラーイメージオブジェクトXOBJ1は、2つ以上の画像を比較して、窓から木OBJ1の反射を分離することにより直接形成されてもよい。
次に、デジタル画像データをレンダリングするためのコンピュータ処理による上記に従った方法を記載する。本方法では、第1のグラフィックオブジェクトおよび第2のグラフィックオブジェクトの情報が、第2のグラフィックオブジェクトをレンダリングするために受信される。さらに、第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報が受信され、依存関係情報は、第2のグラフィックオブジェクトを、視認方向における第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する。次に、第2のグラフィックオブジェクトは、第2のグラフィックオブジェクトの情報および第1のグラフィックオブジェクトの情報を使用してピクセルデータを生成することによりレンダリングされ、レンダリングは、第2のグラフィックオブジェクトのうち、視認方向において第1のグラフィックオブジェクトが重なるような部分に対して実行される。言い換えれば、本方法では、第2のグラフィックオブジェクト(例えばミラーイメージグラフィックオブジェクト)の可視性の依存関係が、第1のグラフィックオブジェクトの境界内に第2のグラフィックオブジェクトをレンダリングするために使用される。第2のグラフィックオブジェクトのレンダリングは、第1のグラフィックオブジェクトを介した第2のグラフィックオブジェクトのレンダリングのため第1のグラフィックオブジェクトの透明度を求めるために、第1のグラフィックオブジェクトの反射率情報を使用することを含んでもよい。つまり、反射のレンダリングにミラーイメージオブジェクトが使用されるときに、第2のオブジェクトの画像を反射する第1のオブジェクトの反射率を使用して第1のオブジェクトの透明度が求められる。第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであってもよく、第2のグラフィックオブジェクトの情報は、第1のグラフィックオブジェクトの鏡面に対して第3のオブジェクト(表面から反射される現実のオブジェクト)を映すことにより形成されてもよい。鏡面は、第1のオブジェクトの表面に近似する任意の平面であってもよい。
上記では、第1のグラフィックオブジェクトは、例えば第1のレンダーレイヤであってもよく、(第1のグラフィックオブジェクトを介して見える)第2のグラフィックオブジェクトは、第2のレンダーレイヤであってもよい。あるいは、第1のグラフィックオブジェクトは、例えば第1のレンダーレイヤのピクセルまたはピクセルのグループであってもよい。第2のグラフィックオブジェクトは、例えば第2のレンダーレイヤのピクセルまたはピクセルのグループであってもよい。このように、レンダリングプロセスは、第1のレンダーレイヤのピクセルを介して第2のレンダーレイヤのどの部分が見えるかを判断することを含んでもよい。レンダリングは、当然、必要なだけの数の第1のレンダーレイヤのピクセルに対して繰り返されてもよい。例えば、第1のグラフィックオブジェクトは、第1のピクセルを有してもよく、第2のグラフィックオブジェクトは、レンダーレイヤを有してもよく、第1のピクセルが、それを介して第2のグラフィックオブジェクトが見えるポータルピクセル(portal pixel)であるかどうかが判断されてもよく、続いて、その判断が前記第1のピクセルはポータルピクセルであると示す場合、第1のピクセルが第1のグラフィックオブジェクトの第1の情報および第2のグラフィックオブジェクトの第2の情報を使用してレンダリングされてもよい。ポータルオブジェクトまたはポータルピクセルとは、第2のオブジェクトがポータルオブジェクトの外側では見えない(第2のオブジェクトが見えるポータルオブジェクトがほかにある場合を除く)ように第2のオブジェクトが見える特殊な領域を有するようなグラフィックオブジェクトである。
反射および半透明の表面がある複雑な3D環境のより写実的な記録、配布、および再現が、記載された方法および機器により、反射が存在することによって促進され得る。3D視認の場合、反射は、それらがパララックスに従って左右の眼の画像に対して異なる位置に現れるように生成され、これが3D画像に現実感を加える。
図6dは、反射されたオブジェクトをレンダリングするためのステンシルバッファの使用を示す。反射性オブジェクトおよび透明オブジェクトをレンダリングするための下位ツリー識別子と、反射率透明度値とが、各ピクセルに対して格納されてもよく、次に、ビューにおける下位ツリーの可視性を管理するためにステンシル操作と組み合わされた追加のパスを使用してレンダリングされてもよい。これは、現実の物理的環境におけるように、鏡の中のコンテンツが、必ず、鏡を介して見るときにだけ見え、鏡の後ろを見ているときは見えないようにする。
このプロセスは、レンダリングが2つのパスを進むときのステンシルバッファ(左の列)およびピクチャバッファ(右の列)の例示的なコンテンツを示すことで、図6dに示される。最初、ステンシルバッファおよびピクチャバッファは空(ピクセルデータなしまたはゼロ)である。レンダリングされるピクセルは、それらが属する下位ツリー識別子を判断することにより識別されてもよく、この判断は、図6bにあるような依存関係情報に依存する。例えば、反射性でない、図6aの通常のオブジェクトの中の「壁」ピクセルは、「窓」ピクセルXP1および「ドア」ピクセルXP2の外側のピクセルPP5として図6dに示されている。
第1のパスにおいてすべてのピクセルをレンダリングして、次に、再レンダリングされるべきピクセルをステンシルバッファにおいてマークすることも可能である。これは、ピクチャ中に隙間ができないようにし得る。反射性/透明オブジェクトに含まれるピクセルは、それらそれぞれの下位ツリー識別子、例えば「2」および「3」、によりマークされる。どのピクセルがどのオブジェクトに含まれるかの判断は、グラフィックプロセッサの通常動作として実行されてもよい。
第1のパスでは、反射性/透明オブジェクトXP1およびXP2に含まれるピクセルが、まずステンシルバッファにマークされる。次に、オブジェクトXOBJ1(「窓」XP1が重なった「木」のミラーイメージ)およびXOBJ2(「ドア」XP2が重なった「箱」のミラーイメージ)のピクセルがレンダリングされる。オブジェクトXOBJ1およびXOBJ2に依存するオブジェクトがある場合、依存オブジェクトが最初にレンダリングされる。レンダリングされるべきとステンシルバッファにおいてマークされたピクチャバッファの当該ピクセル、この場合はXP1およびXP2が重なったピクセル、のみがレンダリングされる(計算されてピクチャバッファに格納される)ように、ステンシルバッファがレンダリングにおいて使用される。したがって、オブジェクトXP1およびXP2の内側に入るピクセルのみがこのパスでレンダリングされ、その結果として、視認方向においてオブジェクトXP1およびXP2の外側にあるオブジェクトXOBJ1およびXOBJ2の任意の部分は、レンダリングされない。つまり、例えば木OBJ1は、窓からのみ反射して壁からは反射せず、木OBJ1は、窓XP1を介する以外にはほかのどこにも見ることができない。言い換えれば、レンダリングするための本方法では、レンダリングされるピクセルは、ステンシルバッファを使用してマークされてもよく、前記ステンシルバッファのマークに対応するピクセルデータを生成することにより、第2のグラフィックオブジェクトがレンダリングされてもよい。
第2のパスでは、オブジェクトPP5、XP1、およびXP2のピクセルをレンダリングするために、図6dにおいて「1」でマークされたピクセルが処理される。前述したとおり、PP5の反射性でないピクセルおよび透明でないピクセルのレンダリングは、例えばレンダーレイヤなどのグラフィックモデルを使用して各ピクセルの色値を求めることにより行われてもよい。反射性オブジェクトおよび透明オブジェクトは、オブジェクト自体と、それを介して見える他のオブジェクトとの両方の情報を使用してレンダリングされる。例えば、オブジェクトXP1を介するミラーイメージオブジェクトXOBJ1のレンダリングは、XOBJ1およびXP1のピクセル色値の、通常のブレンディングとして行われてもよい。つまり、ピクセルデータは、第1のグラフィックオブジェクトからの色情報(例えば「窓」XP1の色のついたガラス)および第2のグラフィックオブジェクトからの色情報(「木」のミラーイメージXOBJ1の色)をブレンディングすることにより形成されてもよい。第2のパスでは、第1のグラフィックオブジェクトを介して見えるオブジェクトの情報は、ピクチャバッファ内に既に計算済みであるので、ブレンディングは、ピクチャバッファからのピクセル色値、第1のグラフィックオブジェクトの計算されたピクセル色値を得て、それらを適切にブレンディングする(ピクセル色値の加重平均を得る)ことにより発生してもよい。
上記では、ステンシルバッファの設定および使用は以下の通り実行されてもよい。他のオブジェクトを介して見えるオブジェクトをレンダリングするために行われる当該レンダリングパスにおいて、透視できる手前のグラフィックオブジェクトの当該ピクセル(反射性のおよび/または透明なピクセル)が、ステンシルバッファにマークされる。つまり、手前のオブジェクトの不透明なピクセルは、最終パス(または最終の複数パス)までレンダリングされなくてもよい。その結果、ステンシルバッファは、単に値をステンシルバッファピクセルに書き込むことにより設定される。書き込みは、上書き、加算、または論理演算により発生し得る。このように、ピクセルの値の特定のビットが、1つのパラメータとしての役割を果たしてもよく、他のビットは、他の目的に使用されてもよい。ステンシルバッファの書き込みは、各ピクセルに対して単純なテスト(例えば比較)が実行されて、テストの結果に依存して値が書き込まれるように、並行方式で発生してもよい。ステンシルバッファは、ステンシルバッファピクセルが特定の論理基準、例えば「1と等しい」または「4より大きい」を満たせば対応するピクセルがピクチャバッファにレンダリングされるように、レンダリングにおいて使用されてもよい。
上記では、当然のことながら、反射性オブジェクトは、多重レベルの依存関係(図6c)を使用して複数のパスを実行することで他の反射性オブジェクトの中にレンダリングされてもよく、追加のパスにおいて追加の反射がピクセル値に追加される。
3D画像のレンダリングは、前述の通り、オブジェクトがレンダーレイヤとしてレンダリングされるように行われてもよい。そのような場合には、本方法は、第1のグラフィックオブジェクトを有する第1のレンダーレイヤおよび第2のグラフィックオブジェクトを有する第2のレンダーレイヤを受信することを含んでもよく、第1および第2のレンダーレイヤは、ピクセルを有する。第1のレンダーレイヤは、レンダリング視点から視認された第1のグラフィックオブジェクトに対応するピクセルを有し、第2のレンダーレイヤは、前記レンダリング視点から視認された第2のグラフィックオブジェクトに対応するピクセルを有し、第2のグラフィックオブジェクトは、レンダリング視点から視認された第1のオブジェクトにより少なくとも部分的に遮られる。第1のレンダーレイヤのピクセルおよび第2のレンダーレイヤのピクセルは、レンダリング空間に配置され、深度値がピクセルに関連付けられ、ピクセルおよび深度値を使用して左眼画像および右眼画像がレンダリングされる。
図7aおよび7bは、反射性オブジェクトを備えたデジタルシーンを形成およびレンダリングするフローチャートを示す。段階710では、レンダリングすべき第1のグラフィックオブジェクトが形成される。グラフィックオブジェクトは、そのジオメトリを、例えば通例どおり、頂点、三角形、および面法線に関して記述すること、ならびに色情報のようなテクスチャ特性を与えることにより形成される。さらに、例えば他のオブジェクトの反射を決定できるように、第1のオブジェクトの透明度および反射性が与えられる。段階720では、第2のグラフィックオブジェクトが形成される。この第2のグラフィックオブジェクトは、シーン内の実のグラフィックオブジェクトに対応するミラーイメージグラフィックオブジェクトでもよい。前述のとおり、このミラーイメージは、第1のオブジェクトに対応する鏡面に対して実のオブジェクトを映すことにより形成されてもよい。段階730では、第1および第2のオブジェクト間の依存関係情報が形成される。前述のとおり、これは、依存性グラフの形態で生じてもよく(依存性ツリーなど)、そこで、第2のグラフィックオブジェクトが第1のオブジェクトを介してのみ見えることが示される。段階740では、グラフィックオブジェクトのデータおよびそれらの依存関係が、例えばレンダリングデバイスに伝送されるファイルまたは伝送チャンネルに出力される。
図7bでは、グラフィックオブジェクトおよび依存関係の情報が、ファイルまたは伝送チャンネルから受信される。ここで、「受信」という用語は、情報が、メモリから読み出されるか、または通信接続を介して受信されて、次にレンダリングを目的としてレンダリングデバイスのワーキングメモリ内に形成されることを意味すると理解される。段階750において、第1および第2のグラフィックオブジェクトの情報(ジオメトリ、色、透明度、反射性)が受信される。段階760では、第1および第2のグラフィックオブジェクト間の依存関係情報が受信される。第1のグラフィックオブジェクトは、第1のグラフィックオブジェクトに関する情報に基づきレンダリング可能である。段階770において、第2のグラフィックオブジェクトが第1のグラフィックオブジェクトの外側では見えないように、第2のグラフィックオブジェクトが、第1のグラフィックオブジェクトによりカバーされる部分についてレンダリングされる。この段階で、出力ピクセルを形成するために、第1および第2のグラフィックオブジェクトの色情報が、例えばアルファブレンディングまたは別のブレンディングアルゴリズムによりブレンディングされてもよい。段階780では、結果として生じるピクセルデータが、ファイルへの格納または画面上での表示のために出力される。ピクセルは、画像フォーマット(またはビデオフォーマット)に圧縮されてもよい。ピクセルデータは、実際のピクセルの形態であってもよく、または、ピクセルデータは、グラフィックプリミティブおよびテクスチャ情報の形態で出力されてもよい。
本発明の様々な実施形態は、メモリ内に存在し関連装置に本発明を実行させるコンピュータプログラムコードを利用して実装可能である。例えば、デバイスは、データを処理、受信、および伝送するための回路構成および電子回路、メモリ内のコンピュータプログラムコード、およびプロセッサを有してもよく、プロセッサは、コンピュータプログラムコードを実行すると、デバイスに実施形態の特徴を実行させる。さらに、サーバのようなネットワークデバイスが、データを処理、受信、および伝送するための回路構成および電子回路、メモリ内のコンピュータプログラムコード、およびプロセッサを有してもよく、プロセッサは、コンピュータプログラムコードを実行すると、ネットワークデバイスに実施形態の特徴を実行させる。
本発明が上記で提示された実施形態のみに限定はされず、添付の特許請求の範囲に記載の範囲内で変更可能であることは明らかである。

Claims (46)

  1. ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
    を含む方法。
  2. 前記第2のグラフィックオブジェクトをレンダリングすることは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるために、前記第1のグラフィックオブジェクトの反射率情報を使用することを含む、請求項1に記載の方法。
  3. 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記方法は、
    ・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
    を含む、請求項1または2に記載の方法。
  4. 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフであり、前記方法は、
    ・ 前記第1のグラフィックオブジェクトの前記第1の情報を使用して第1のピクセルのための第1のピクセルデータを生成することにより、前記第1のグラフィックオブジェクトをレンダリングすることと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して、前記第1のピクセルのサブセットである第2のピクセルのための第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
    を含む、請求項1〜3のいずれかに記載の方法。
  5. ・ レンダリングされるべき第2のピクセルを、ステンシルバッファを使用してマークすることと、
    ・ 前記ステンシルバッファの前記マークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
    を含む、請求項4に記載の方法。
  6. 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記方法は、
    ・ 前記第1のピクセルがそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるかどうかを判断することと、
    ・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングすることと、
    を含む、請求項1〜3のいずれかに記載の方法。
  7. 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限され、前記方法は、前記第1のグラフィックオブジェクトからの色情報と、前記第2のグラフィックオブジェクトからの色情報とをブレンディングすることにより、前記第2のピクセルデータを形成することを含む、請求項1〜6のいずれかに記載の方法。
  8. 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項4に記載の方法。
  9. 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項1〜8のいずれかに記載の方法。
  10. ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを受信することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記受信することと、
    ・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置することと、
    ・ 深度値と前記ピクセルとを関連付けることと、
    ・ 前記ピクセルおよび前記深度値を使用して、左眼画像および右眼画像をレンダリングすることと、
    を含む、請求項1〜9のいずれかに記載の方法。
  11. ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
    を含む方法。
  12. 前記第1のグラフィックオブジェクトは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるための、反射率情報を有する、請求項11に記載の方法。
  13. 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記方法は、
    ・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
    を含む、請求項11または12に記載の方法。
  14. 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフである、請求項11〜13のいずれかに記載の方法。
  15. ・ ステンシルバッファのマークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングするために、レンダリングされるべきピクセルを前記マークする情報を前記ステンシルバッファを使用して提供すること、
    を含む、請求項14に記載の方法。
  16. 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記方法は、
    ・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングするために、前記第1のピクセルはそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるとの情報を提供すること、
    を含む、請求項11〜13のいずれかに記載の方法。
  17. 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限される、請求項11〜16のいずれかに記載の方法。
  18. 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項14に記載の方法。
  19. 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項11〜18のいずれかに記載の方法。
  20. ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを形成することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記形成することと、
    ・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置するためのマッピングパラメータを提供することと、
    を含む、請求項11〜19のいずれかに記載の方法。
  21. 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有する装置であって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記装置に少なくとも、
    ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
    を実行させるよう構成される、装置。
  22. 前記第2のグラフィックオブジェクトをレンダリングすることは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるために、前記第1のグラフィックオブジェクトの反射率情報を使用することを含むように設定される、請求項21に記載の装置。
  23. 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記装置は、
    ・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項21または22に記載の装置。
  24. 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフであり、前記装置は、
    ・ 前記第1のグラフィックオブジェクトの前記第1の情報を使用して第1のピクセルのための第1のピクセルデータを生成することにより、前記第1のグラフィックオブジェクトをレンダリングすることと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して、前記第1のピクセルのサブセットである第2のピクセルのための第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項21〜23のいずれかに記載の装置。
  25. ・ レンダリングされるべき第2のピクセルを、ステンシルバッファを使用してマークすることと、
    ・ 前記ステンシルバッファの前記マークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項24に記載の装置。
  26. 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記装置は、
    ・ 前記第1のピクセルがそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるかどうかを判断することと、
    ・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングすることと、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項21〜23のいずれかに記載の装置。
  27. 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限されるよう設定され、前記装置は、前記第1のグラフィックオブジェクトからの色情報と、前記第2のグラフィックオブジェクトからの色情報とをブレンディングすることにより、前記第2のピクセルデータを形成することを、前記装置にさせるコンピュータプログラムコードを有する、請求項21〜26のいずれかに記載の装置。
  28. 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項24に記載の装置。
  29. 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項21〜28のいずれかに記載の装置。
  30. ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを受信することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記受信することと、
    ・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置することと、
    ・ 深度値と前記ピクセルとを関連付けることと、
    ・ 前記ピクセルおよび前記深度値を使用して、左眼画像および右眼画像をレンダリングすることと、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項21〜29のいずれかに記載の装置。
  31. 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有する装置であって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記装置に少なくとも、
    ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
    を実行させるよう構成される、装置。
  32. 前記第1のグラフィックオブジェクトは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるための、反射率情報を有する、請求項31に記載の装置。
  33. 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記装置は、
    ・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項31または32に記載の装置。
  34. 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフである、請求項31〜33のいずれかに記載の装置。
  35. ・ ステンシルバッファのマークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングするために、レンダリングされるべきピクセルを前記マークする情報を前記ステンシルバッファを使用して提供すること、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項34に記載の装置。
  36. 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記装置は、
    ・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングするために、前記第1のピクセルはそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるとの情報を提供すること、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項31〜33のいずれかに記載の装置。
  37. 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限される、請求項31〜36のいずれかに記載の装置。
  38. 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項34に記載の装置。
  39. 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項31〜38のいずれかに記載の装置。
  40. ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを形成することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記形成することと、
    ・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置するためのマッピングパラメータを提供することと、
    を前記装置にさせるコンピュータプログラムコードを有する、請求項31〜39のいずれかに記載の装置。
  41. 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有するシステムであって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記システムに少なくとも、
    ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
    を実行させるよう構成される、システム。
  42. 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有するシステムであって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記システムに少なくとも、
    ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
    を実行させるよう構成される、システム。
  43. ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信する手段と、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信する手段と、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信する手段であって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信する手段と、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングする手段であって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングする手段と、
    を有する装置。
  44. ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成する手段と、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成する手段と、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成する手段であって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成する手段と、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供する手段であって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供する手段と、
    を有する装置。
  45. 非一時的なコンピュータ可読媒体上に具現化され、コンピュータプログラムコードを有するコンピュータプログラム製品であって、前記コンピュータプログラムコードは、少なくとも1つのプロセッサ上で実行されると、装置またはシステムに、
    ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
    をさせるよう構成される、コンピュータプログラム製品。
  46. 非一時的なコンピュータ可読媒体上に具現化され、コンピュータプログラムコードを有するコンピュータプログラム製品であって、前記コンピュータプログラムコードは、少なくとも1つのプロセッサ上で実行されると、装置またはシステムに、
    ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
    ・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
    ・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
    ・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
    をさせるよう構成される、コンピュータプログラム製品。
JP2017528435A 2014-12-03 2014-12-03 デジタルビデオのレンダリング Active JP6553184B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FI2014/050946 WO2016087702A1 (en) 2014-12-03 2014-12-03 Digital video rendering

Publications (2)

Publication Number Publication Date
JP2018504009A true JP2018504009A (ja) 2018-02-08
JP6553184B2 JP6553184B2 (ja) 2019-07-31

Family

ID=56091062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017528435A Active JP6553184B2 (ja) 2014-12-03 2014-12-03 デジタルビデオのレンダリング

Country Status (6)

Country Link
US (1) US10115227B2 (ja)
EP (2) EP3982330A1 (ja)
JP (1) JP6553184B2 (ja)
KR (1) KR102059732B1 (ja)
CN (1) CN107005689B (ja)
WO (1) WO2016087702A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022502728A (ja) * 2018-09-14 2022-01-11 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 拡張現実マッピングシステムおよび関連する方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6944137B2 (ja) * 2016-07-29 2021-10-06 ソニーグループ株式会社 画像処理装置および画像処理方法
WO2018199701A1 (en) 2017-04-28 2018-11-01 Samsung Electronics Co., Ltd. Method for providing content and apparatus therefor
AU2018390994B2 (en) 2017-12-22 2023-11-16 Mirage 3.4D Pty Ltd Camera projection technique system and method
CN110570357A (zh) * 2019-07-09 2019-12-13 深圳市瑞立视多媒体科技有限公司 基于ue4引擎的镜像实现方法、装置、设备及存储介质
CN114782605A (zh) * 2022-05-06 2022-07-22 网易(杭州)网络有限公司 毛发虚拟模型的渲染方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094678A (ja) * 1996-07-31 1998-04-14 Konami Co Ltd ドライビングゲーム機及びドライビングゲームプログラムが格納された記録媒体
JP2001307128A (ja) * 2000-02-17 2001-11-02 Sony Computer Entertainment Inc 画像描画方法、画像描画装置、記録媒体及びプログラム
JP2005149209A (ja) * 2003-11-17 2005-06-09 Canon Inc 複合現実感提示方法、複合現実感提示装置
JP2012506573A (ja) * 2008-10-21 2012-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2105797A (en) * 1996-03-14 1997-10-01 I.I. Interactive Innovations Ltd. Computerized graphics systems
US6266064B1 (en) * 1998-05-29 2001-07-24 Microsoft Corporation Coherent visibility sorting and occlusion cycle detection for dynamic aggregate geometry
US7528830B2 (en) * 2003-09-17 2009-05-05 Koninklijke Philips Electronics N.V. System and method for rendering 3-D images on a 3-D image display screen
US7965299B2 (en) * 2005-10-31 2011-06-21 Canon Kabushiki Kaisha Implementing compositing operations on images
KR101257849B1 (ko) 2006-09-29 2013-04-30 삼성전자주식회사 3차원 그래픽 객체 렌더링 방법 및 장치, 이를 위한 렌더링객체 최소화 방법 및 장치
KR100790892B1 (ko) * 2006-10-18 2008-01-02 삼성전자주식회사 투명 객체의 화질 향상을 위한 3차원 그래픽스 데이터렌더링 방법 및 장치
WO2010049850A1 (en) * 2008-10-28 2010-05-06 Koninklijke Philips Electronics N.V. Generation of occlusion data for image properties

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094678A (ja) * 1996-07-31 1998-04-14 Konami Co Ltd ドライビングゲーム機及びドライビングゲームプログラムが格納された記録媒体
JP2001307128A (ja) * 2000-02-17 2001-11-02 Sony Computer Entertainment Inc 画像描画方法、画像描画装置、記録媒体及びプログラム
JP2005149209A (ja) * 2003-11-17 2005-06-09 Canon Inc 複合現実感提示方法、複合現実感提示装置
JP2012506573A (ja) * 2008-10-21 2012-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022502728A (ja) * 2018-09-14 2022-01-11 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 拡張現実マッピングシステムおよび関連する方法
JP7250901B2 (ja) 2018-09-14 2023-04-03 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 拡張現実マッピングシステムおよび関連する方法

Also Published As

Publication number Publication date
US20170330369A1 (en) 2017-11-16
WO2016087702A1 (en) 2016-06-09
EP3228081A1 (en) 2017-10-11
EP3982330A1 (en) 2022-04-13
JP6553184B2 (ja) 2019-07-31
CN107005689A (zh) 2017-08-01
EP3228081A4 (en) 2018-10-31
KR102059732B1 (ko) 2020-02-20
US10115227B2 (en) 2018-10-30
CN107005689B (zh) 2019-06-14
KR20170091710A (ko) 2017-08-09

Similar Documents

Publication Publication Date Title
US10839591B2 (en) Stereoscopic rendering using raymarching and a virtual view broadcaster for such rendering
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US20170280133A1 (en) Stereo image recording and playback
EP3959688B1 (en) Generative latent textured proxies for object category modeling
JP6553184B2 (ja) デジタルビデオのレンダリング
US20080246759A1 (en) Automatic Scene Modeling for the 3D Camera and 3D Video
TWI813098B (zh) 用於新穎視圖合成之神經混合
Bonatto et al. Real-time depth video-based rendering for 6-DoF HMD navigation and light field displays
CN107562185B (zh) 一种基于头戴vr设备的光场显示系统及实现方法
US20230106679A1 (en) Image Processing Systems and Methods
EP3057316B1 (en) Generation of three-dimensional imagery to supplement existing content
SERIES Virtual Reality and Light Field Immersive Video Technologies for Real-World Applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190703

R150 Certificate of patent or registration of utility model

Ref document number: 6553184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250