Nothing Special   »   [go: up one dir, main page]

JP5317955B2 - 複数の視野の効率的な符号化 - Google Patents

複数の視野の効率的な符号化 Download PDF

Info

Publication number
JP5317955B2
JP5317955B2 JP2009502293A JP2009502293A JP5317955B2 JP 5317955 B2 JP5317955 B2 JP 5317955B2 JP 2009502293 A JP2009502293 A JP 2009502293A JP 2009502293 A JP2009502293 A JP 2009502293A JP 5317955 B2 JP5317955 B2 JP 5317955B2
Authority
JP
Japan
Prior art keywords
image
image signal
pixels
camera
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009502293A
Other languages
English (en)
Other versions
JP2009531927A (ja
JP2009531927A5 (ja
Inventor
ヴィルヘルムス エイチ エイ ブルルス
クリスティアーン ファレカンプ
ラルフ ブラスペニンヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38470538&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP5317955(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009531927A publication Critical patent/JP2009531927A/ja
Publication of JP2009531927A5 publication Critical patent/JP2009531927A5/ja
Application granted granted Critical
Publication of JP5317955B2 publication Critical patent/JP5317955B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)
  • Peptides Or Proteins (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像の複数の視野を、例えば、MPEG規格の1つに従って圧縮されたテレビジョン信号のような画像信号に符号化する方法に関する。
本発明は、このような信号を生成する装置と、このような信号を受け取る受信機と、前記信号から符号化された情報を抽出し、この結果、前記複数の視野を生成するのに使用されることができる方法と、効率的に符号化された信号自体とにも関する。
三次元画像情報の符号化の規格化において、進行中である取り組みが、現在、存在する。例えば、(例えば、医療データ表示又は工業部品検査において一般的である)ボクセルの集合として、又は異なる方向から捕捉された複数の画像であって、例えば、一人の視聴者の2つの目によって若しくは複数の視聴者によって、又は動いている視聴者によって等の異なる方向から見られるための複数の画像として、三次元オブジェクトを表現する幾つかの仕方が、存在する。
一般的な形式は、ピクチャが、左側におけるカメラによって捕捉されると共に、ピクチャが右側におけるカメラによって捕捉される左右フォーマットである。これらのピクチャは、異なる表示器上に表示されることができ、例えば、左側のピクチャは、第1集合の時点の間に表示されることができ、右側のピクチャは、介挿された第2集合の時点の間に表示されることができ、視聴者の左目及び右目が、シャッターガラスによって前記表示器と同期して遮断される。偏光手段を有しているプロジェクタが、三次元の印象の場面を生成し、前記場面の三次元情報の一部、即ちほぼ或る方向(即ちステレオ)におけるものに見えるものを少なくともレンダリングすることができる表示器の他の例である。
種々の質の前記面の近似が使用されることができ、例えば、三次元の場面が、互いに背後にある平らな層の集合として表現されることができる。しかしながら、これらの種々の質は、既存の形式によって符号化されることができる。
他の一般的な表示器は、自動立体表示器である。この表示器は、例えば、レンズの集合の背後にLCDを位置させることによって形成されており、この結果、ピクセルの群が、それぞれのレンズによって、空間における領域に投影される。このようにして複数の円錐が、2つずつが、左右の目に対する左右の画像を含んでいる空間において生成され、この結果、ガラスを有することなく、ユーザは、空間における複数の領域において自身の位置を見ることができ、三次元を知覚することができる。しかしながら、これらの群のピクセルに対するデータは、左右の画像から生成されなければならない。他の選択肢は、ユーザが、ステレオ符号化の左右の視野の間の複数の中間の方向からオブジェクトを見ることができるというものであり、この中間の視野は、左右のピクチャの間のずれ(disparity)を計算し、後続して、内挿することによって生成されることができる。
このような従来技術の左右符号化の不利な点は、かなりのデータが、中間の視野を得るのに必要であり、更に、幾分か失望する結果が得られ得るということにある。正確に整合する不均衡な場を計算することは困難であり、前景オブジェクトにくっつく後景の一部のような、内挿におけるアーチファクトを生じる。ここで以下に提示される技術的な実施例に至る願いは、中間の視野を有する視野の集合のように、異なる形式へ変換する場合の比較的正確な結果であるが、必要以上の量のデータを含んでいない結果を生じることができる符号化の仕方を有することである。
このような要件は、複数の視野の画像情報を画像信号(200)に符号化する方法であって、
− 画像信号(200)に、第1カメラ(101)によって捕捉された1つ以上のオブジェクト(110、112)を表現しているピクセル値の第1画像(220)を付加するステップと、
− 画像信号(200)に、第1画像(220)のピクセルのそれぞれの集合に関して、前記ピクセルのそれぞれの集合によって表現されている1つ以上のオブジェクト(110、112)の領域の空間における三次元の位置を表現しているそれぞれの値を含むマップ(222)を付加するステップと、
− 画像信号(200)に、第2カメラ(102)によって捕捉された1つ以上のオブジェクト(110、112)を表現しているピクセル値の第2画像(224)の部分的な表現(223)であって、1つ以上のオブジェクト(110、112)の第1カメラ(101)に可視的でない領域を表現している前記ピクセルの大部分を少なくとも有する部分的な表現(223)を付加するステップと、
を有する方法、当該方法によって得られる信号又は当該方法の実施を可能にする装置によって、少なくとも部分的に満たされる。
本願発明者らは、質的な理由に関して、前記左右の画像に、(所望の質を有する)特定の用途を可能にするのに必要な三次元場面情報の少なくともこの部分を表現している、前記場面の前記三次元構造に関する情報を含んでいるマップを付加することが最良であると理解する場合、興味深い符号化形式が、考えられることができることに気がついた。視野の内挿に関して、前記マップは、例えば、正確にセグメント化されたずれマップであっても良く、このずれマップのずれベクトルは、中間の視野の良好な内挿を生じる。このマップは、受信側における使用に従って、即ち例えば、三次元環境が当該表示器上でどのように擬態されるかに従って、生成/送信側において最適に調整されることができることに気づくことが重要であり、このことは、典型的には、左右の視野におけるピクセルを最良に予測するのに使用される場合とは異なる特性を有することを意味する。
前記マップは、例えば、複数の意図されている表示器が、信号を受信した際にどのように振舞うのかを自身の側において予め見ることができる人間のオペレータによって、微調整される又は作成されることさえできる。今日において、未来においてさえも、前記コンテンツの一部は、例えば、恐竜の三次元モデル、又はオーバーレイグラフィックスのように、既にコンピュータ生成されており、人口のオブジェクトを含んでいる領域に対して、少なくともピクセル精度のずれマップ、深さマップ又は類似のマップを作るには、あまりにも問題があることを意味している。
このことは、確かに、例えば、ユーザが、前記場面と比較して僅かに動くことができ、前記場面を異なるように見ることを望み得る、ゲーム用途に関しては真実であるが、近い将来において、本発明は、2つのカメラによって捕捉される又は例えば、動き視差に基づいて生成されさえする三次元テレビジョンに対しても重要なものとなり得る。既に、増えつつあるスタジオ(例えば、BBCについて)は、例えば、ニュースについての仮想周囲を使用している。
このマップは、例えば、MPEG-2規格によって圧縮されたグレー値画像として、及び既に当該信号内の左右画像(又は、ビデオ動画に関する幾つかの時点における画像)のデータオーバヘッドを殆ど伴うことなく符号化されることができる。
しかしながら、本願発明者らが認識したところ、このマップを持つことは、場面の一部が両方のカメラによって撮像されるので、データの量の更なる低減を可能にする。前記ピクセル情報が、二方向内挿に対して便利なものであっても(例えば、前記カメラの一方に対する鏡面反射が、軽減されることができる)、実際には、重要な情報は、二重に符号化された部分にあまり多く存在しない。従って、前記マップを利用可能にし、第2画像(例えば、右側の画像)のどの部分が符号化される(及び伝送される)必要があるかと、どの部分が、特定の用途にあまり関連しないかとが、決定されることができる。受信側において、消失したデータの良好な質の再生が、実現されることができる。
例えば、(当該場面に対して平行に又は小さい角度で位置決めされることができる)カメラに対して本質的に平らな面を有しており、あまり隣接していないオブジェクを有する簡単な場面近似(捕捉)において、第1(左側)の画像内の第2(右側)の画像内に捕捉されている消失した部分は、後景オブジェクト(例えば、無限大における場面の要素)のピクセルから構成される。
興味深い実施例は、部分的な第2ずれ又は深さマップ等の符号化を含んでいる。この部分的な、例えば、深さマップは、前記第1カメラによって撮像されることができない領域の深さの値を実質的に含む。この深さデータから、どの覆われていない部分が(図1における130によって示されている)第1深さを持つ前景オブジェクトに属しているのかと、どの部分が後景(132)に属しているのかとが、受信側において推定されることができる。このことは、より良好な内挿の戦略を可能にすることができ、例えば、孔を拡張する及び埋める量が、微調整されることができ、耳の擬遠近レンダリングが、ちょうど後景ピクセル等の代わりに、中間の画像においてレンダリングされることができる。他の例は、アングルカメラの台形ひずみが、受信側の補償のために、この第2マップ内で符号化されることができることである。
(典型的には僅かに)集束しているカメラによる捕捉からの台形ひずみの場合、一般に、水平方向のずれに加えて、垂直方向のずれが存在する。この垂直成分は、ベクトル的に、又は、例えば、MPEG-4サブグループのビデオ3DAV(例えば、ISO/IECJTC1/SC29/WG11 Docs. MPEG2005/12603、12602、12600、12595)の「補助データ表現」の提案において既に構想されている第2マップ内に符号化されることができる。前記ずれの成分は、補助ピクチャのルマ(luma)及び/又はクロミナンスにマッピングされることができ、例えば、水平方向のずれは、高い解像度で前記ルマにマッピングされることができ、垂直方向のずれは、前記1つ又は2つのクロミナンス成分への方策によってマッピングされることができ、(この結果、前記データの一部は、U内にあり、数学的な分割により、同じ位の付加的なデータが、V内にある)。
例えば、中央視野+「深さ」+横(bisidal)閉塞データへの第1符号化に対する部分的な左+右+「深さ」の形式の利点は、以下の通りである。これを元のカメラ捕捉視野上に記憶するのではなく、閉塞データの前記中央視野への変換が、(特に、前記深さマップが、自動的に得られたものであり、低い質/一貫性のものであり、時間的及び空間的な不完全さを持っている場合)処理の不正確さを生じ、従って、符号化の非効率さを生じる。更に、中間視野を計算する場合、不正確さが、これに加えて生じる。
本発明による方法及び装置のこれら及び他の見地は、以下に記載される実施化及び実施例を参照し、より一般的な概念を例示しており単に非制限的な特定の図であって、破線は、構成要素がオプションであることを示すのに使用されており、非破線な構成要素が必ずしも本質的ではない、特定の図として機能する添付図面を参照して、明らかになり説明されるであろう。
図1は、より近いオブジェクト110と更なる離れたオブジェクト112とを含む場面の第1画像を捕捉している第1カメラ101を示している。この視界は、線103及び104によって区切られている。後景の視野は、前記より近いオブジェクトによって遮られており、即ち接線120の左側における領域132は、見えない。しかしながら、第2カメラ102が、この領域132の一部を、簡潔さの理由のために考慮されることができると共に右側の画像と呼ばれる第2画像内に捕捉することができる(しかし、このことは、他のピクチャの右側に幾分か更に捕捉されたものよりも狭く解釈されるべきではない)。前記第2カメラは、より近いオブジェクト110の更なる部分130を捕捉することもできる。
図2は、これらの捕捉された画像のどれが、ピクセルの集合として見えるのかを象徴的に示している。画像信号200は、例えば、JPEGの予測された符号化形式を有していても良く、当該場面の符号化された写真を含んでいても良く、又はMPEG−4符号化された映画の一場面であっても良い。後者の場合、三次元データ210は、特定の時点における場面を再現するのに必要な情報を含んでいる。
画像220は、前記第1カメラによって捕捉された左側の画像であり、より近いオブジェクト110及び後景112を含んでいる。
マップ222は、前記オブジェクトが、どのように三次元の空間内に位置されているかに関連する何らかの情報を含むマップであり、少なくとも、(例えば、ゲームにおいて移動しているユーザとの相互作用において静的に又は動的に)複数の必要な視野の表示器上へのレンダリングに必要な情報を含んでいる。幾つかのこのような表現が可能であり、例えば、前記第1カメラによって知覚されるような二次元の位置における、前記後景における前記オブジェクトのカメラの中心までの直交するおおよその(例えば、全てのオブジェクト領域にわたる平均)距離を含んでいる深さマップであっても良く、又は、ずれ若しくは視差、又は前記ずれの水平成分のみであっても良い。
深さ及び視差等は、数学的に互いに関連付けられることができる。
この深さマップは、例えば、ピクセル精度のものであっても良く、又はピクセルの8×8ブロックごとに1つの値を持つものであっても良く、例えば、画像として符号化されても良い。
例えば、これを導出する整合アルゴリズムに基づいて決定された正確なデータ(深さマップのある部分がどれだけ信頼できるものか)のような、更なる情報が、(場合によっては1つのピクセルのみを含むピクセルの集合ごとにスカラ又はタプルを有し得る)前記深さマップに付加されることができる。
部分的なデータ構造223(右側の画像224の一部)が、前記後景の(視差シフトされた、より近いオブジェクト225の近傍の)前記第2カメラによってのみ見られることができるピクセルの情報(例えば、輝度のみ若しくは色、又は、領域内にピクセルを生成することができるテクスチャモデルのような、何らかの他の習慣的な表現)を有している。この符号化された部分的な領域、即ち画像パッチ生成アルゴリズムに従って大きく符号化された領域の形状の一部においてピクセル値を得るために少なくとも必要なデータは、受信側のアプリケーションが、例えば、簡単な外挿又は拡大等によってこれらを生成することにより、一部の欠落しているピクセルを許容することができる場合、右側の画像において捕捉された実際の妨害されていない領域よりも幾分か小さいものであることができる。
符号化された領域は、より大きいもの(例えば、幅の二倍、又は垂直方向において追加される類似のバッファサイズまで)であることもできる。このことは、例えば、自動的に得られた場合の前記形状の正確さに関する不確実性の場合において、又は何らかの理由のために二方向の内挿入が望ましい場合において、興味深いものであり得る。
これは、符号化の理由のためのものであっても良い。このことは、ブロック全体を符号化することがより安価なものであり得て、余分に符号化されたピクセルからの利益を得ることができるのに対し、複雑な形状の符号化は、高価なものであり得る。これに加えて、送信側においては、手動又は(半)自動解析が、右側画像内のデータ上でなされることができ、これは、左側画像におけるデータに加えて便利なものになるべき従来の導出段階の出力として提案される。例えば、鏡面反射を識別し、両方の画像における反射を有するピクセルの領域を符号化することを決定するために、ピクセル特性を見ることもできる。
更に、異なる領域の形状が、形態学的な分析によって分析されることができ、特に、前記領域の大きさ又幅が、決定されることができる。小さな領域は、かなりの符号化オーバーヘッドを含み得るが、しばしば、前記受信機側において情報を有することなく又はほとんど有することなく、概算されることができる。従って、小さい領域は、部分的な第2ピクチャから省略されることができる。このことは、各削除の効果をチェックする人間のオペレータの制御下にあることもできる。
前記領域の(包括的な又は正確な)形状は、例えば、多角形の近似又はバウンディングボックスによって符号化されることができ、内部のピクセル(テクスチャ)値は、直接的に、前記形状における線形変換表現の係数によって、又は他の数学的モデルによって符号化されることができる。更に、逆に、符号化/伝送される必要がない部分が識別されることができる。
前記部分的な表現(例えば、帰線(blanking lines)、モーフィング、所定の順序に従って再積層されるサブブロックへの切断における簡単なオフセット)が、前記第1画像に使用されていない画像又はユーザデータ(例えば、再生モデル)にマッピングされることもできる。
深さマップを伴っている前記第1画像は、中央画像であり、何れかの側における、即ちこの間に内挿されることができる或る角度距離(ベースライン)に、部分的な第2画像が存在しても良い。
前記第1カメラが、後景を撮像していても良く、前記第2カメラが、例えば、ニュースリーダがこの一部を覆っている後景を、例えば、異なる時間における同じ視点から撮像しても良い。即ち前記カメラが、或る時間に同時に存在する実際のカメラである必要はなく、むしろ、例えば、前記視野の1つは、例えば、ピクチャ記憶装置からダウンロードされても良い。
オプションで、少なくとも、前記第2画像内の撮像された覆われていないオブジェクト領域の周りの部分に関して、第2深さマップ239(完全な深さマップ240の一部)、又は類似の表現が、前記信号に付加されることができる。この深さマップは、近くのオブジェクトと遠くのオブジェクトとの間の境界を有していても良い。この情報によって、受信側は、内挿の間に、異なるピクセルを正しいオブジェクト/深さの層に追加することができる。
更なるデータ230が、例えば、分離又は一般的には当該場面内のオブジェクトの三次元成分に関する情報のような、専有場(proprietary fields)において、前記信号に付加されることもできる。このような指示は、(例えば、前記深さマップが十分なものでない、又はこれ自体によって前記オブジェクトの境界を定めるのに十分正確でない場合に)撮像された場面のオブジェクトの境界に後続する線と同じくらい単純なものでも良く、又は(例えば、妨げられていない部分における局所的な深さ構造の)ワイヤメッシュ又はここから得られる情報と同じくらい複雑な何かであってさえも良い。
更に、カメラの位置情報及び場面の範囲情報が含まれることができ、受信側が、複数の(少なくとも2つの)視野の更に進んだ再生を行うことを可能にする。
図3は、前記画像信号を生成するための装置310を示している。これは、典型的には、IC若しくはICの一部、又は、適切なソフトウェアを伴っているプロセッサである。前記装置は、スタジオ内の専用オーサリング装置のような、大きい装置内に含まれていても良く、コンピュータに取り付けられていても良く、又はコンピュータ内に含まれていても良い。例示的な実施例において、第1カメラ301及び第2カメラ302は、装置310の入力に接続されている。各カメラは、例えば、レーザビーム又は投影されたグリッド等を使用することができる範囲ファインダ(それぞれ、308、309)を有している。
当該装置において、(前記深さマップにおける情報を使用することにより)少なくともオブジェクトの幾何学的配置を考慮に入れることにより、少なくとも2つのピクチャ間のずれを決定するずれ推定ユニット312が設けられる。種々のずれ推定技術は、従来技術から知られており、例えば、関連するブロック内のピクセル値の絶対差分の和によるものである。
これは、少なくともどの領域が前記画像のうちの1つのみに存在するか、及びどの領域が両方に存在するかを決定するように配されているが、ピクセルの領域に整合基準を適用することができるユニットを更に有していても良い。
ずれ推定ユニット312によって決定されるか、例えば、範囲データを含む入力されたカメラ信号から抽出されるかの何れかによって決定される深さマップ(又はずれマップのような類似の表現)を生成する、分析する及び/又は洗練することができる深さマップユニット314が、設けられることもできる。オブションで、レンダリングユニット316を含むことができ、レンダリングユニット316は、例えば、中間の視野を生成することができ、この結果、スタジオのアーティストは、何らかの変形及び/又は更に効率的な符号化の影響をチェックすることができる。このことは、ユーザインターフェースユニット318を介して行われ、例えば、ユーザが部分的な表現223の値を変化させる、又は形状を変更する(例えば、大きくする又は小さくする)ことを可能にする。当該ユーザは、マップ222を変更することもできる。これに加えて、表示器335及びユーザ入力手段は、接続可能である。これは、最終的に構成された画像信号を、信号伝送及び構成手段339を介して、ネットワーク330に送信する装置であることもでき、信号伝送及び構成手段339は、当業者であれば、適切なネットワークに関して(例えば、テレビジョン信号への変換は、伝送周波数への情報変換を含んでおり、インターネット伝送は、パケット化を含んでおり、更に、誤り保護ユニット等も存在し得る)見つけることができる。
このような特徴的なネットワークは、限定的に解釈されてはならず、即ちバスのような装置内部のネットワークを介してメモリユニット又は記憶媒体への伝送も含む意図のものである。
図4は、例示的な受信機400を示しており、受信機400は、再び、例えば、IC(の一部)であっても良く、ネットワーク330から受信可能な画像信号からの関連する情報を抽出する手段を有しており、即ち少なくとも、
− 第1カメラ(101)によって捕捉された1つ以上のオブジェクト(110、112)を表現しているピクセル値の第1画像(220)を抽出する手段(402)と、
− 画像信号(200)から、例えば、前記第1画像の前記オブジェクトの位置に対応する深さマップのような、マップを抽出する手段と、
− 前記第2カメラ(102)によって捕捉された前記1つ以上のオブジェクト(110、112)を表現しているピクセル値の第2画像(224)の部分的な表現(223)を抽出する手段(406)と、
を有している。
勿論、前記受信機(及び抽出の方法)が、生成のために可能な実施例の何れかを反映しても良いので、更なる手段が、設けられることができ、例えば、2つのオブジェクト間の境界の指示のような更なるデータを抽出する手段を設けることができる。
この抽出された情報は、画像生成器に伝送され、前記画像生成器は、例えば、完全な左右の画像を生成することができる。画像レンダリングユニット412は、例えば、中間の視野(例えば、単方向又は二方向の内挿、又は何らかの他の既知のアルゴリズム)、又は自動立体表示器上の2つの視野(ステレオ)に関して必要な信号を生成することができる。三次元表示器の種類及び三次元が実際にどのように表現されるかに依存して、これらの2つのユニットは、種々の組み合わせにおいて実現されることができる。
前記受信機は、典型的には、三次元表示器415に接続可能なものである又は三次元表示器415内に含まれることができ、少なくとも2つの視野をレンダリングすることができ、又は再生された信号は、例えば、ディスク422ライタ、又は固体メモリ等のような、メモリ装置420内に記憶されることができる。
本明細書に開示されている前記アルゴリズムの構成要素は、実際には、ハードウェア(例えば、アプリケーション特有のICの一部)又は特別なデジタル信号プロセッサ又は一般的なプロセッサ等において走るソフトウェアとして(完全に又は部分的に)実現されることができる。
コンピュータプログラムの下で、プロセッサ(一般的な又は特別な目的のもの)が、一連のローディングステップ(中間の言語及び最終的なプロセッサの言語への翻訳のような、中間の変換ステップを含み得る)の後に、発明の特徴的な機能の何れかを実行するように前記プロセッサへの命令を得ることを可能にする命令の収集の如何なる物理的な実現も理解されなければならない。特に、コンピュータプログラムは、例えば、ディスク若しくはテープ、メモリ内に存在するデータ、有線若しくはワイヤレスのネットワーク接続にわたって伝わるデータ、又は紙上のプログラムコードのような、媒体上のデータとして実現されることができる。プログラムコードから離れて、前記プログラムに必要な特徴的なデータも、コンピュータプログラムとして実施化されることもできる。
当該方法の機能に必要なステップの幾つかは、データ入力及び出力ステップのような、コンピュータプログラム内に記述されるのではなく、プロセッサの機能において既に存在しても良い。
上述の実施例は、本発明を、制限するものではなく、むしろ説明しているものであることに留意されたい。添付請求項に組み合わされている本発明の要素の組み合わせから離れて、前記要素の他の組み合わせも実現可能である。如何なる組み合わせの要素も、1つの専用の要素において実現されることができる。
前記請求項内に置かれた如何なる符号も、前記請求を限定するものとみなしてはならない。「有する」という語は、請求項内に記載されていない要素又は見地の存在を排除するものではない。単数形の構成要素は、複数のこのような構成要素を排除するものではない。
少なくとも2つのカメラによる場面の捕捉を模式的に示している。 画像内の必要なデータの符号化の幾つかの選択肢を模式的に示している。 当該画像信号を生成する例示的な装置を模式的に示している。 当該信号を使用することができる例示的な受信装置を模式的に示している。

Claims (16)

  1. 複数の視野の画像情報を画像信号に符号化する方法であって、
    − 前記画像信号に、第1カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセル値の第1画像を付加するステップと、
    − 前記画像信号に、前記第1画像のピクセルのそれぞれの集合に関して、前記ピクセルのそれぞれの集合によって表現されている前記1つ以上のオブジェクトの領域の空間における三次元の位置を表現しているそれぞれの値を含むマップを付加するステップと、
    − 前記第1カメラと異なる位置において第2カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセル値の第2画像を提供するステップと、
    − 前記第1画像と前記第2画像との間の視差に応じて少なくともどの領域が前記第2画像中に存在し前記第1画像中に存在しないかを決定するステップと、
    − 前記画像信号に、前記第2画像の部分的な表現であって、前記領域のピクセルの大部分の情報を少なくとも有している部分的な表現を付加するステップと、
    を有する方法。
  2. 前記画像信号に、前記第2画像のピクセルのそれぞれの集合に関して、前記ピクセルのそれぞれの集合によって表現されている前記1つ以上のオブジェクトの領域の空間における三次元位置を表現しているそれぞれの値の部分的な表現を少なくとも含む第2マップを付加するステップを更に有する、請求項1に記載の方法。
  3. 前記第1画像におけるピクセルの集合に対して、前記第2画像におけるピクセルの対応する集合を示しているずれベクトルを、ずれ計算アルゴリズムによって自動的に得るステップを有し、前記画像信号にマップを付加するステップが、前記画像信号に、前記ずれベクトルを含む前記マップを付加するステップからなる、請求項1又は2に記載の方法。
  4. 範囲決定装置から、前記第1画像内のピクセルの集合に関してそれぞれの範囲を得るステップを有する請求項1又は2に記載の方法であって、前記画像信号にマップを付加するステップが、前記範囲を含む前記マップを付加するステップから成る、方法。
  5. 前記マップの値は、前記画像信号への付加のステップの前に、人間によって微調整される、請求項1乃至4の何れか一項に記載の方法。
  6. 前記部分的な表現が、前記画像信号に付加するステップの前に、人間によって微調整される、請求項1乃至5の何れか一項に記載の方法。
  7. 前記画像信号に、第1オブジェクトと第2オブジェクトとの間の境界を示している、前記マップ内の位置を含む曲線のような、指示を付加するステップを更に有している、請求項2に記載の方法。
  8. 前記画像信号に、前記第2画像の部分的な表現を付加するステップが、前記第2画像の部分的な表現内のピクセルの領域を取り囲んでいる取り囲み形状の表現を特定する及び前記画像信号に付加するステップを含んでいる、請求項1乃至7の何れか一項に記載の方法。
  9. 前記画像信号に、前記第2画像の部分的な表現を付加するステップが、前記第2画像の符号化される必要がない領域を特定するステップを含んでいることを特徴とする、請求項1乃至7の何れか一項に記載の方法。
  10. 例えば、形態学的な分析のような、画像分析が、前記第2画像の部分的な表現内に含まれている領域において実施され、変形が、前記部分的な表現を前記画像信号に付加するステップの前に、前記部分的な表現に対して実施され、前記形態学的な分析が、例えば、それぞれの領域の最大幅の決定を含んでいる、請求項1乃至9の何れか一項に記載の方法。
  11. 複数の視野の画像情報の画像信号への符号化を生成する装置であって、
    − 前記画像信号に、第1カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセル値の第1画像を付加する手段と、
    − 前記画像信号に、前記第1画像のピクセルのそれぞれの集合に関して、前記ピクセルのそれぞれの集合によって表されている前記1つ以上のオブジェクトの領域の空間における三次元の位置を表現しているそれぞれの値を有するマップを付加する手段と、
    − 前記第1カメラと異なる位置において第2カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセル値の第2画像を提供する手段と、
    − 前記第1画像と前記第2画像との間の視差に応じて少なくともどの領域が前記第2画像中に存在し前記第1画像中に存在しないかを決定する手段と、
    − 前記画像信号に、前記第2画像の部分的な表現を付加する手段であって、前記部分的な表現は、前記領域のピクセルの大部分の情報を少なくとも含んでいる、手段と、
    を有する装置。
  12. 前記第1画像内のピクセルの集合と前記第2画像内のピクセルの対応する集合との間のずれベクトルを推定する自動ずれ推定ユニットを更に有する、請求項11に記載の装置。
  13. 前記マップの中身及び/又は前記部分的な表現にわたって人間のオペレータ制御を与えるユーザインターフェースユニットを更に有する、請求項11又は12に記載の装置。
  14. 画像信号から、第1カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセルの値の第1画像を抽出する手段と、
    前記画像信号から、前記第1画像のピクセルのそれぞれの集合に関して、前記ピクセルのそれぞれの集合によって表現されている前記1つ以上のオブジェクトの領域の空間における三次元位置を表現しているそれぞれの値を有しているマップを抽出する手段と、
    前記画像信号から、前記第1カメラと異なる位置において第2カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセル値の第2画像の部分的な表現を抽出する手段であって、前記部分的な表現は、前記1つ以上のオブジェクトの前記第2画像中に存在し前記第1画像中に存在しない領域を表現している前記ピクセルの大部分の情報を少なくとも有している手段と、
    を有する画像信号受信機。
  15. 画像の少なくとも2つの視野の画像を生成することができる表示器であって、
    − 請求項14に記載の画像信号受信機と、
    − 前記画像信号受信機によって受信された前記画像信号データから、2つの画像を生成する画像生成器と、
    − 前記2つの画像から、前記表示器に適切な形式の更なる画像を生成する画像レンダリングユニットと、
    を有する表示器。
  16. 画像信号から複数の視野の画像情報を抽出する方法であって、
    − 前記画像信号から、第1カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセル値の第1画像を抽出するステップと、
    − 前記画像信号から、前記第1画像のピクセルのそれぞれの集合に関して、前記ピクセルのそれぞれの集合によって表現された前記1つ以上のオブジェクトの領域の空間における三次元位置を表現しているそれぞれの値を有するマップを抽出するステップと、
    − 前記画像信号から、前記第1カメラと異なる位置において第2カメラによって捕捉された1つ以上のオブジェクトを表現しているピクセル値の第2画像の部分的な表現を抽出するステップであって、前記部分的な表現は、前記1つ以上のオブジェクトの前記第2画像中に存在し前記第1画像中に存在しない領域を表現している前記ピクセルの大部分の情報を少なくとも有している、ステップと、
    を有する方法。
JP2009502293A 2006-03-31 2007-03-23 複数の視野の効率的な符号化 Active JP5317955B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06112096 2006-03-31
EP06112096.0 2006-03-31
PCT/IB2007/051031 WO2007113725A2 (en) 2006-03-31 2007-03-23 Efficient encoding of multiple views

Publications (3)

Publication Number Publication Date
JP2009531927A JP2009531927A (ja) 2009-09-03
JP2009531927A5 JP2009531927A5 (ja) 2010-05-06
JP5317955B2 true JP5317955B2 (ja) 2013-10-16

Family

ID=38470538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009502293A Active JP5317955B2 (ja) 2006-03-31 2007-03-23 複数の視野の効率的な符号化

Country Status (10)

Country Link
US (1) US9986258B2 (ja)
EP (2) EP2005757B1 (ja)
JP (1) JP5317955B2 (ja)
KR (1) KR101340911B1 (ja)
CN (1) CN101416520B (ja)
ES (2) ES2676055T5 (ja)
PL (1) PL2005757T3 (ja)
RU (1) RU2431938C2 (ja)
TR (1) TR201810139T4 (ja)
WO (1) WO2007113725A2 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101388265B1 (ko) * 2007-06-11 2014-04-22 삼성전자주식회사 2d 영상 미디어 표준을 기반으로 3d 입체영상 파일을생성 및 재생하기 위한 시스템 및 방법
KR101387212B1 (ko) * 2007-06-12 2014-04-21 삼성전자주식회사 2d 영상 미디어 표준을 기반으로 3d 입체영상 파일을생성 및 재생하기 위한 시스템 및 방법
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
KR101362647B1 (ko) * 2007-09-07 2014-02-12 삼성전자주식회사 2d 영상을 포함하는 3d 입체영상 파일을 생성 및재생하기 위한 시스템 및 방법
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
JP5567562B2 (ja) * 2008-07-24 2014-08-06 コーニンクレッカ フィリップス エヌ ヴェ 多用途三次元画像フォーマット
CN102177721B (zh) * 2008-10-10 2015-09-16 皇家飞利浦电子股份有限公司 处理信号中包括的视差信息的方法
TWI542190B (zh) * 2008-11-04 2016-07-11 皇家飛利浦電子股份有限公司 編碼三維影像信號的方法及系統、經編碼之三維影像信號、解碼三維影像信號的方法及系統
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
CA2745392C (en) * 2008-12-18 2016-07-12 Lg Electronics Inc. Method for 3d image signal processing and image display for implementing the same
MX2011006496A (es) * 2008-12-19 2011-07-13 Koninkl Philips Electronics Nv Metodo y dispositivo para superposicion de graficos 3d sobre video 3d.
US8798158B2 (en) * 2009-03-11 2014-08-05 Industry Academic Cooperation Foundation Of Kyung Hee University Method and apparatus for block-based depth map coding and 3D video coding method using the same
KR20120013966A (ko) 2009-05-01 2012-02-15 톰슨 라이센싱 3dv를 위한 기준 화상 리스트
CN102428501A (zh) * 2009-09-18 2012-04-25 株式会社东芝 图像处理装置
JP5494283B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
WO2012036903A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
KR20120055991A (ko) * 2010-11-24 2012-06-01 삼성전자주식회사 영상처리장치 및 그 제어방법
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
US9451232B2 (en) 2011-09-29 2016-09-20 Dolby Laboratories Licensing Corporation Representation and coding of multi-view images using tapestry encoding
EP2807827A4 (en) * 2012-01-25 2015-03-04 Lumenco Llc CONVERTING A DIGITAL STEREO IMAGE IN SEVERAL VIEWS WITH PARALLAX FOR 3D VISUALIZATION WITHOUT GLASSES
KR20130094905A (ko) * 2012-02-17 2013-08-27 삼성전자주식회사 디스플레이장치 및 그 입체감 조정방법
RU2490819C1 (ru) * 2012-02-29 2013-08-20 Сергей Александрович Соболев Способ получения стереоскопических телевизионных изображений с автоматическим измерением предметного пространства в реальном времени
CN104541301B (zh) * 2012-03-26 2017-11-03 皇家飞利浦有限公司 用于hdr图像编码和解码的基于视亮度区域的装置和方法
US9225962B2 (en) * 2012-07-16 2015-12-29 Cisco Technology, Inc. Stereo matching for 3D encoding and quality assessment
CN103634587A (zh) * 2012-08-22 2014-03-12 联想(北京)有限公司 图像处理方法、装置及电子设备
JP6231125B2 (ja) * 2013-02-06 2017-11-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. マルチビュー立体視ディスプレイデバイスと共に使用するビデオデータ信号を符号化する方法
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
US9972122B1 (en) * 2016-12-20 2018-05-15 Canon Kabushiki Kaisha Method and system for rendering an object in a virtual view
US10755142B2 (en) * 2017-09-05 2020-08-25 Cognizant Technology Solutions U.S. Corporation Automated and unsupervised generation of real-world training data
US10484667B2 (en) * 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
US12106526B2 (en) 2018-07-11 2024-10-01 Interdigital Vc Holdings, Inc. Processing a point cloud
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US10819968B2 (en) * 2018-07-31 2020-10-27 Intel Corporation Neural network based patch blending for immersive video
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US10762394B2 (en) 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
RU2690757C1 (ru) * 2018-08-21 2019-06-05 Самсунг Электроникс Ко., Лтд. Система синтеза промежуточных видов светового поля и способ ее функционирования
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
DE102019127349A1 (de) 2018-10-10 2020-04-16 Intel Corporation Punktwolkencodierungsstandard-konformitätsdefintion in computerumgebungen
FR3093884A1 (fr) * 2019-03-15 2020-09-18 Orange Procédés et dispositifs de codage et de décodage d'une séquence vidéo multi-vues
US11957974B2 (en) 2020-02-10 2024-04-16 Intel Corporation System architecture for cloud gaming

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61144191A (ja) 1984-12-17 1986-07-01 Nippon Hoso Kyokai <Nhk> 立体テレビジョン画像伝送方法
GB8626527D0 (en) * 1986-11-06 1986-12-10 British Broadcasting Corp 3d video transmission
JPH06265322A (ja) * 1993-03-11 1994-09-20 Canon Inc 複数画像からの視差検出方法
JPH0715748A (ja) 1993-06-24 1995-01-17 Canon Inc 画像記録再生装置
JP3826236B2 (ja) * 1995-05-08 2006-09-27 松下電器産業株式会社 中間像生成方法、中間像生成装置、視差推定方法、及び画像伝送表示装置
JPH099294A (ja) * 1995-06-14 1997-01-10 Eriko Shimizu 立体画像情報構成方式
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3769850B2 (ja) 1996-12-26 2006-04-26 松下電器産業株式会社 中間視点画像生成方法および視差推定方法および画像伝送方法
US6175652B1 (en) * 1997-12-31 2001-01-16 Cognex Corporation Machine vision system for analyzing features based on multiple object images
KR100914636B1 (ko) * 2001-05-29 2009-08-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 비주얼 통신 신호를 전송하기 위한 방법, 비주얼 통신 신호를 전송하기 위한 송신기 및 비주얼 통신 신호를 수신하기 위한 수신기
KR100433625B1 (ko) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치
AU2002952873A0 (en) * 2002-11-25 2002-12-12 Dynamic Digital Depth Research Pty Ltd Image encoding system
KR100751422B1 (ko) 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
US7512250B2 (en) * 2004-11-24 2009-03-31 Siemens Corporate Research, Inc. System and method for fast illumination-invariant background subtraction using two views
GB2474602A (en) * 2008-06-12 2011-04-20 Spandan Choudury A non-virtual-3d-video/photo generator rendering relative physical proportions of image in display medium and hence also of the display medium itself

Also Published As

Publication number Publication date
EP3104603A1 (en) 2016-12-14
ES2599858T3 (es) 2017-02-03
EP2005757A2 (en) 2008-12-24
EP3104603B2 (en) 2022-06-08
PL2005757T3 (pl) 2017-02-28
EP3104603B1 (en) 2018-05-16
KR20090007384A (ko) 2009-01-16
RU2431938C2 (ru) 2011-10-20
ES2676055T3 (es) 2018-07-16
ES2676055T5 (es) 2022-08-03
CN101416520A (zh) 2009-04-22
US9986258B2 (en) 2018-05-29
RU2008143205A (ru) 2010-05-10
JP2009531927A (ja) 2009-09-03
CN101416520B (zh) 2011-12-14
TR201810139T4 (tr) 2018-08-27
WO2007113725A2 (en) 2007-10-11
KR101340911B1 (ko) 2013-12-13
US20100231689A1 (en) 2010-09-16
WO2007113725A3 (en) 2008-03-27
EP2005757B1 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
JP5317955B2 (ja) 複数の視野の効率的な符号化
RU2554465C2 (ru) Комбинирование 3d видео и вспомогательных данных
EP2761878B1 (en) Representation and coding of multi-view images using tapestry encoding
JP5654138B2 (ja) 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ
US6496598B1 (en) Image processing method and apparatus
US7551770B2 (en) Image conversion and encoding techniques for displaying stereoscopic 3D images
US7689031B2 (en) Video filtering for stereo images
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
US11232625B2 (en) Image processing
JP6148154B2 (ja) 画像処理装置及び画像処理プログラム
JP7344988B2 (ja) ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品
KR20110060180A (ko) 관심 객체 선택을 통한 3차원 모델 생성 방법 및 장치
JP2004530218A (ja) 視覚通信信号
JP4722055B2 (ja) 3次元モデルを縮尺変更する方法及び縮尺変更ユニット
WO2020066008A1 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
US20240323330A1 (en) Image generation
Zhang et al. DIBR-based conversion from monoscopic to stereoscopic and multi-view video
AU8964598A (en) Image processing method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111221

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130213

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130709

R150 Certificate of patent or registration of utility model

Ref document number: 5317955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250