Nothing Special   »   [go: up one dir, main page]

JP5721732B2 - ビデオ付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びその装置、並びに受信方法及びその装置 - Google Patents

ビデオ付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びその装置、並びに受信方法及びその装置 Download PDF

Info

Publication number
JP5721732B2
JP5721732B2 JP2012538769A JP2012538769A JP5721732B2 JP 5721732 B2 JP5721732 B2 JP 5721732B2 JP 2012538769 A JP2012538769 A JP 2012538769A JP 2012538769 A JP2012538769 A JP 2012538769A JP 5721732 B2 JP5721732 B2 JP 5721732B2
Authority
JP
Japan
Prior art keywords
information
additional
video
data
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012538769A
Other languages
English (en)
Other versions
JP2013511199A (ja
Inventor
リー,デ−ジョン
ジョン,ギル−ス
キム,ジェ−ハン
チョウ,ボン−ジェ
キム,ヨン−デ
キム,ジェ−スン
パク,ホン−ソク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013511199A publication Critical patent/JP2013511199A/ja
Application granted granted Critical
Publication of JP5721732B2 publication Critical patent/JP5721732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、立体ビデオを含むマルチメディアの符号化及び復号化に関する。
現実感と立体感とを伴った三次元コンテンツへの要求が高まっている。三次元で再生されるように制作された放送用コンテンツまたはプログラムも登場している。
プログラムは、相互関連するビデオ及情報びオーディオ情報を提供し、プログラムまたはチャネルについての付加説明または、日時及び場所のような付加情報を提供するために、ビデオと共に画面上に再生される視覚資料が付加されもする。
例えば、デジタルTV(DTV)のクローズドキャプション(closed caption)は、TVプログラム・ストリーム内の一定領域に存在する字幕データであり、一般的にTV画面上に表示されないが、ユーザの選択によって、TV画面上に表示されもする。クローズドキャプションは、聴覚障害者のために提供されたり、語学用などの付加的な用途に広く使われている。
デジタルTVのサブタイトル(subtitle)は、キャラクタ、ビットマップなどのイメージ、フレーム、アウトラインまたはシャドーなどを利用し、テキストに比べて、視覚的効果が強化された視覚資料であり、ビデオと共に画面上に表示されもする。
デジタルTVのEPG(electronic program guide)情報は、TV画面上に表示され、チャネルまたはプログラム情報を提供するので、視聴者がチャネルを転換したり、現チャネルプログラムの付加情報を確認するために、EPG情報を利用することができる。
三次元ビデオが再生される場合、画面上にビデオと共に再生される付加的な視覚資料の処理方式が研究されている。
本発明は、画面上に三次元ビデオと共に、三次元付加再生情報を安定的に再生するために、ステレオスコーピックビデオを含むマルチメディア・ストリームの符号化及び復号化の方法及び装置が提供される。
本発明の一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法は、二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータ、関連オーディオデータ、ディスプレイ画面上に前記ビデオデータと共に再生される付加再生情報のデータ、及び前記付加再生情報の三次元再生のための情報を含むように、ビデオES(elementary stream)、オーディオES、付加データストリーム及び補助情報ストリームを生成する段階と、前記ビデオES、前記オーディオES及び前記付加データストリームをパケット化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、データPESパケット及び補助情報パケットを生成する段階と、前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットを多重化し、TS(transport stream)を生成する段階と、を含む。
既存のMPEG TS方式に基づくDVB方式、ATSC方式、ケーブル方式などの多様な通信方式との互換性を維持し、三次元ビデオの再生と共に、安定して三次元付加再生情報を具現するためのマルチメディア・ストリームが視聴者に提供される。
一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成装置のブロック図である。 一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム受信装置のブロック図である。 三次元ビデオ及び三次元付加再生情報が同時に再生される場面を図示する図である。 三次元ビデオ及び三次元付加再生情報が逆転されて再生される現象を図示する図である。 各種付加再生データが含まれるMPEG(moving picture experts group)TS(transport stream)構造を図示する図である。 第1実施形態によるクローズドキャプション再生部の細部ブロック図である。 第1実施形態によって、クローズドキャプションのデプス感を調節する画面の透視図を図示する図である。 第1実施形態によって、クローズドキャプションのデプス感を調節する画面の平面図を図示する図である。 第1実施形態によるマルチメディア・ストリーム受信装置が三次元キャプション強調情報及びクローズドデータのオフセット情報を利用する方法のフローチャートである。 第1実施形態によるマルチメディア・ストリーム受信装置がクローズドキャプションの三次元再生安全性情報を利用する方法のフローチャートである。 第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法の一例を図示する図である。 第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法の他の例を図示する図である。 第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法の他の例を図示する図である。 第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法のさらに他の例を図示する図である。 第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法のさらに他の例を図示する図である。 第2実施形態及び第3実施形態によって、サブタイトルの三次元再生のためのデータストリーム生成装置のブロック図である。 DVB通信方式によるサブタイトルデータの階層的構造を図示する図である。 DVB通信方式によって、サブタイトルPESパケットを指すPMT(program map table)内のサブタイトル叙述子の2種表現方式を図示する図である。 DVB通信方式によって、サブタイトルPESパケットを指すPMT(program map table)内のサブタイトル叙述子の2種表現方式を図示する図である。 DVB通信方式によるサブタイトルデータを含むデータストリーム構造の一例を図示する図である。 DVB通信方式によるコンポジションページの構造の一例を図示する図である。 DVB通信方式によるサブタイトル復号化モデルのフローチャートである。 符号化データバッファ(coded data buffer)、構成バッファ(composition buffer)、ピクセルバッファ(pixel buffer)に保存されたサブタイトル関連データを図示する図である。 符号化データバッファ(coded data buffer)、構成バッファ(composition buffer)、ピクセルバッファ(pixel buffer)に保存されたサブタイトル関連データを図示する図である。 符号化データバッファ(coded data buffer)、構成バッファ(composition buffer)、ピクセルバッファ(pixel buffer)に保存されたサブタイトル関連データを図示する図である。 第2実施形態によるサブタイトルの領域別デプス感調節方式を図示する図である。 第2実施形態によるサブタイトルのページ別デプス感調節方式を図示する図である。 ケーブル放送方式によるサブタイトルのビットマップ・フォーマットの構成要素を図示する図である。 ケーブル放送方式によるサブタイトルの三次元再生のためのサブタイトル処理モデルのフローチャートである。 ケーブル放送方式によるサブタイトル処理モデルを介して、サブタイトルがディスプレイキューからグラフィック平面に出力される過程を図示する図である。 第3実施形態によるケーブル放送方式によるサブタイトルの三次元再生のためのサブタイトル処理モデルのフローチャートを図示する図である。 第3実施形態によって、ケーブル放送方式によるサブタイトルのデプス感を調節する一実施形態を図示する図である。 第3実施形態によって、ケーブル放送方式によるサブタイトルのデプス感を調節する他の実施形態を図示する図である。 第3実施形態によって、ケーブル放送方式によるサブタイトルのデプス感を調節するさらに他の実施形態を図示する図である。 EPG情報を伝送するデジタル通信システムのブロック図である。 ATSC通信方式によって、EPG情報が収録されるPSIPテーブルを図示する図である。 DVB通信方式によって、EPG情報が収録されるSIテーブルを図示する図である。 EPG情報が図示された画面及びそれぞれの情報のソースを図示する図である。 第4実施形態によるTS復号化システムのブロック図である。 第4実施形態によるTS復号化システムのうち、ディスプレイ処理部のブロック図である。 一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法のフローチャートである。 一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法のフローチャートである。
本発明の一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法は、二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータ、関連オーディオデータ、ディスプレイ画面上に前記ビデオデータと共に再生される付加再生情報のデータ、及び前記付加再生情報の三次元再生のための情報を含むように、ビデオES(elementary stream)、オーディオES、付加データストリーム及び補助情報ストリームを生成する段階と、前記ビデオES、前記オーディオES及び前記付加データストリームをパケット化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、データPESパケット及び補助情報パケットを生成する段階と、前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットを多重化し、TSを生成する段階と、を含む。
一実施形態による前記付加再生情報の三次元再生のための情報は、前記ビデオデータの三次元再生中、前記付加再生情報のデプス感を調節するための付加再生情報のオフセット(offset)の量についての情報を含む。一実施形態による前記テキストのオフセットは、三次元付加再生情報の第1視点付加再生情報及び第2視点付加再生情報間のデプス(depth)差、変異(disparity)及び両眼視差(parallax)のうち1単位で表現された前記三次元付加再生情報の変位(displacement)を示す視差、前記三次元付加再生情報の座標及びデプスのうち少なくとも一つを示すことができる。
一実施形態による前記付加再生情報の三次元再生のための情報は、前記ビデオデータの三次元再生中、前記テキストのオフセット方向についての情報をさらに含んでもよい。一実施形態による前記付加再生情報の三次元再生のための情報は、前記付加再生情報のオフセットが、デプスが原点である基本平面(zero plane)に対比した第1変位、及び前記付加再生情報と共に再生されるビデオのデプス、変異及び両眼視差のうち少なくとも一つに対比した第2変位のうちいずれか一つで表現されたかを示すオフセットタイプ情報をさらに含んでもよい。一実施形態による前記付加再生情報の三次元再生のための情報は、前記テキストデータの二次元または三次元の識別情報、前記テキストデータの再生時、ビデオを二次元で再生するか否かを示すビデオ二次元再生情報、前記テキストデータが表示される領域の識別情報、前記テキストデータが表示される時間関連情報、及び前記付加再生情報の三次元再生安全性情報のうち少なくとも一つをさらに含んでもよい。
一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記ビデオESに前記ビデオデータと共に、前記ディスプレイ画面上に再生されるためのクローズドキャプション(closed caption)データを挿入する段階を含んでもよい。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記クローズドキャプションの三次元再生のための情報を、前記ビデオES、前記ビデオESのヘッダ、前記付加データのうち少なくとも一つに挿入する段階を含んでもよい。一実施形態による前記クローズドキャプションの三次元再生のための情報は、前記クローズドキャプション・データを代替して、三次元クローズドキャプション強調用データを利用するか否かを示す三次元キャプション強調情報を含んでもよい。
一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記付加データストリームとして、前記ビデオデータと共に、前記ディスプレイ画面上に再生されるサブタイトル(subtitle)データに係わるデータストリームを生成する段階を含んでもよい。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記サブタイトルの三次元再生のための情報を、前記付加データPESパケット及び前記付加データPESパケットのヘッダのうち、少なくとも一つに挿入する段階をさらに含んでもよい。
前記マルチメディア・ストリームがANSI/SCTE(American National Strandard Institute/Society of Cable Telecommunications Engineers)基盤のケーブル通信システムによって生成される場合、一実施形態による前記サブタイトルの三次元再生のための情報は、三次元サブタイトルのビットマップ及びフレームのうち少なくとも1つの変位を示す視差情報、前記三次元サブタイトルのデプス情報及び座標情報のうち少なくとも一つを示す視差情報を含んでもよい。
一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記マルチメディア・ストリームがDVB基盤の通信システムによって生成される場合、前記データストリームのページ構成セグメント(page composition segment)の保留フィールドに、現在ページ内の領域別オフセット情報を挿入してもよい。
一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記ビデオデータと共に、前記ディスプレイ画面上に再生されるEPG(electronic programguide)情報、及び前記EPG情報の三次元再生のための情報を前記補助情報ストリームに挿入する段階を含んでもよい。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記マルチメディア・ストリームがATSC基盤の通信システムによって生成される場合、前記EPG情報の三次元再生のための情報は、ATSCのPSIP(program specific information protocol)テーブル内の叙述子(descriptor)フィールドに挿入される。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム生成段階は、前記マルチメディア・ストリームがDVB基盤の通信システムによって生成される場合、DVBのSI(service information)テーブル内の叙述子フィールドに、前記EPG情報の三次元再生のための情報を挿入することもできる。
本発明の一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法は、マルチメディア・ストリームに係わるTSを受信して逆多重化し、ビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを抽出する段階と、前記ビデオPESパケット、前記オーディオPESパケット、前記データPESパケット及び前記補助情報パケットから、二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータに対して再生されるための付加再生情報のデータ、及び前記付加再生情報の三次元再生のための情報を含む、ビデオES、オーディオES、付加データストリーム及び補助情報ストリームを抽出する段階と、前記ビデオES、前記オーディオES、前記付加データストリーム及び前記補助情報ストリームからビデオデータ、オーディオデータ、付加データ、及び前記付加再生データを復元し、前記付加再生情報の三次元再生のための情報を抽出する段階と、前記復元されたビデオの再生と共に、前記復元された付加再生情報の三次元再生のための情報に基づいて、前記付加再生情報を三次元で再生する段階と、を含む。
一実施形態による前記付加再生情報の三次元再生段階は、前記付加再生情報の三次元再生のための情報において、前記付加再生情報のオフセット値及びオフセット方向に基づいて、前記付加再生情報を前記オフセットほど正または負の方向に移動させる段階を含み、前記オフセットは、前記ビデオデータのデプス、変異及び両眼視差のうち一つで表現された前記付加再生情報の変位を示すことができる。
一実施形態による前記付加再生情報の三次元再生段階は、前記ビデオ二次元再生情報に基づいて、前記付加再生情報を三次元で再生するとき、当該ビデオは、二次元で再生する段階を含んでもよい。一実施形態による前記付加再生情報の三次元再生段階は、前記付加再生情報が表示される時間関連情報に基づいて、前記付加再生情報及び当該ビデオを同期化する段階を含んでもよい。
一実施形態による前記付加再生情報の三次元再生段階は、前記付加再生情報の三次元再生安全性情報に基づいて、前記付加再生情報の三次元再生の安全性を決定する段階を含んでもよい。一実施形態による前記付加再生情報の三次元再生段階は、前記付加再生情報の三次元再生安全性があると決定されれば、前記付加再生情報を三次元で再生する段階をさらに含んでもよい。
一実施形態による前記付加再生情報の三次元再生段階は、前記付加再生情報の三次元再生安全性がないと決定されれば、当該ビデオの変異と、前記付加再生情報のオフセットとを比較する段階をさらに含んでもよい。一実施形態による、前記付加再生情報の三次元再生段階は、前記当該ビデオデータの変異と、前記付加再生情報のオフセットとの比較結果、前記付加再生情報のオフセットが、前記当該ビデオデータの変異の安全区間に属すか否かによって、前記テキストデータの三次元再生を決定する段階をさらに含んでもよい。一実施形態による前記付加再生情報の三次元再生段階は、前記当該ビデオの変異と、前記付加再生情報のオフセットとの比較結果、前記付加再生情報のオフセットが、前記当該ビデオの変異の安全区間に属さない場合、前記付加再生情報を後処理作業後に再生する段階をさらに含んでもよい。
一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム抽出段階は、前記ビデオESから、前記ビデオと共に、前記ディスプレイ画面上に再生されるクローズドキャプション・データを抽出する段階を含んでもよい。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム抽出段階は、前記クローズドキャプションの三次元再生のための情報を、前記ビデオES、前記ビデオESのヘッダ、前記補助情報ストリームのうち少なくとも一つから抽出する段階を含んでもよい。一実施形態による前記クローズドキャプションの三次元再生のための情報は、前記クローズドキャプション・データを代替し、三次元クローズドキャプション強調用データを利用するか否かを示す三次元キャプション強調情報を含んでもよい。一実施形態による前記付加再生情報の三次元再生段階は、前記クローズドキャプションの三次元再生のための情報に基づいて、前記クローズドキャプション・データを三次元で再生することができる。
一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム抽出段階は、前記付加データストリームとして、前記ビデオデータと同時に再生されるためのサブタイトルデータに係わるサブタイトルデータ・ストリームを抽出する段階を含んでもよい。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム抽出段階は、前記サブタイトルの三次元再生のための情報を、前記付加データPESパケット及び前記付加データPESパケットのヘッダのうち少なくとも一つから抽出する段階をさらに含んでもよい。
前記マルチメディア・ストリームがANSI/SCTE基盤のケーブル通信システムを介して受信された場合、一実施形態による前記サブタイトルの三次元再生のための情報は、三次元サブタイトルのビットマップ及びフレームのうち少なくとも1つの変位を示す視差情報、前記三次元サブタイトルのデプス情報及び座標情報のうち少なくとも一つを示すオフセット情報を含んでもよい。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム抽出段階は、前記マルチメディア・ストリームがDVB基盤の通信システムを介して受信された場合、前記データストリームのページ構成セグメントの保留フィールドから、現在ページ内の領域別オフセット情報を抽出することができる。一実施形態による前記付加再生情報の三次元再生段階は、前記サブタイトルの三次元再生のための情報に基づいて、前記サブタイトルデータを三次元で再生することができる。
一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム抽出段階は、前記ビデオと同時に再生されるためのEPG(electronic program guide)データ、及び前記EPG情報の三次元再生のための情報を、前記補助情報ストリームから抽出する段階を含んでもよい。一実施形態による前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリーム抽出段階は、前記EPG情報の三次元再生のための情報を、ATSC−PSIPテーブル内の叙述子フィールド、またはDVB−SIテーブル内の叙述子フィールドから抽出することができる。一実施形態による前記付加再生情報の三次元再生段階は、前記EPG情報の三次元再生のための情報に基づいて、前記EPG情報を三次元で再生することができる。
本発明の一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成装置は、二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータ、関連オーディオデータ、ディスプレイ画面上に前記ビデオと共に再生される付加再生情報のデータ、及び前記付加再生情報の三次元再生のための情報を含む、ビデオES、オーディオES、付加データストリーム及び補助情報ストリームを生成し、前記ビデオES、前記オーディオES及び前記付加データストリームをパケット化し、ビデオPESストリーム、オーディオPESパケット、付加データPESパケット及び補助情報パケットを生成するプログラム符号化部と、及び前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットを多重化し、TSを生成するTS生成部と、を含む。
一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム受信装置は、二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータを含むマルチメディア・ストリームに係わるTSを受信する受信部と、前記受信されたTSを逆多重化し、ビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを抽出し、前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットから、ディスプレイ画面上に前記ビデオと共に再生される付加再生情報のデータ、及び前記付加再生情報の三次元再生のための情報を含む、ビデオES、オーディオES、付加データストリーム及び補助情報ストリームを抽出する逆多重化部と、前記ビデオES、前記オーディオES、前記付加データストリーム及び前記補助情報ストリームからビデオデータ、オーディオデータ、付加データ、及び前記付加再生データを復元し、前記付加再生情報の三次元再生のための情報を抽出する復号化部と、前記復元されたビデオの再生と共に、前記付加再生情報の三次元再生のための情報に基づいて、前記復元された付加再生情報を三次元で再生する再生部と、を含む。
本発明の一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法を具現するためのプログラムが記録されたコンピュータで読み取り可能な記録媒体を含む。また本発明は、一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法を具現するためのプログラムが記録されたコンピュータで読み取り可能な記録媒体を含む。
以下、図1ないし図42を参照し、本発明の一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成装置及びマルチメディア・ストリーム受信装置と、付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びマルチメディア・ストリーム受信方法とについて説明する。構成要素の目録前に使われる「〜のうち少なくとも一つ」のような表現は、構成要素のリスト全体に対して限定する表現であり、リストにおいてそれぞれの構成要素を限定するためのものではない。
本明細書で付加再生情報は、プログラムと関連して、画面上にビデオと共にディスプレイされる情報であり、クローズドキャプション(closed caption)、サブタイトル(subtitle)及びEPG(electronic program guide)情報を含んでもよい。本発明は、クローズドキャプション、サブタイトル及びEPG情報が三次元で再生されるための多様な実施形態を開示する。具体的には、図6ないし図15を参照して、CEA(Consumer Electronics Association)方式によるクローズドキャプションに係わる実施形態、図16ないし図34を参照して、サブタイトルに係わる実施形態、及び図35ないし図40を参照して、EPG情報に係わる実施形態について説明する。
図1は、一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成装置のブロック図を図示している。
一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム生成装置100(以下、「マルチメディア・ストリーム生成装置」とする)は、プログラム符号化部110、TS(transport stream)生成部(120)及び伝送部(130)を含む。
一実施形態によるプログラム符号化部110は、符号化されたビデオデータ、符号化されたオーディオデータと共に、付加再生情報のデータを入力される。以下、説明の便宜のために、画面上にビデオと共にディスプレイされるクローズドキャプション、サブタイトル及びEPG情報のような付加再生情報のデータとして、ストリーム上に挿入されるデータを「付加再生データ」という。
一実施形態によるプログラム符号化部110によって生成されるプログラムのビデオデータは、二次元ビデオデータ及び三次元ビデオデータのうち少なくとも一つを含む。一実施形態によるプログラムと関連した付加再生データは、プログラムに係わるクローズドキャプションデータ、サブタイトルデータ及びEPGデータを含んでもよい。
また、一実施形態による付加再生データは、三次元ビデオデータと共に三次元で再生されるように、付加再生情報のデプス感が調節される。このために、一実施形態によるプログラム符号化部110は、符号化されたビデオデータ、符号化されたオーディオデータ、付加再生データと共に、付加再生情報の三次元再生のための情報を含むビデオES(elementary stream)、オーディオES、付加データストリーム及び補助情報ストリームを生成する。
付加データは、ビデオデータ及びオーディオデータ以外のコントロール・データなどの各種データを含んでもよい。補助情報ストリームは、PMT(program map table)、PAT(program association table)などのPSI情報(program specific information)、ATSC PSIP(advanced television standards committee program specific information protocol)情報またはDVB SI(digital video broadcasting service information)情報などのセクション情報を含んでもよい。
一実施形態によるプログラム符号化部110は、ビデオES、オーディオES及び付加データストリームをパケット化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、付加データPESパケットを生成し、補助情報パケットを生成する。
一実施形態によるTS生成部120は、プログラム符号化部110から出力されたビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを多重化し、TSを生成する。一実施形態による伝送部130は、TS生成部120から出力されたTSを、所定チャネルを介して伝送する。
一実施形態によるプログラム符号化部110によって、プログラムと共にマルチメディア・ストリームに挿入されて伝送される付加再生情報の三次元再生のための情報は、三次元ビデオの再生時、三次元で再生される付加再生情報のデプス感を調節するための情報を含む。
付加再生情報のデプス感を調節するための情報の一例として、左視点映像のための左視点付加再生情報及び右視点映像のための右視点付加再生情報間のデプス(depth)差、変異(disparity)、両眼視差(parallax)などの視差情報、各視点別付加再生情報の座標情報またはデプス情報などを含む付加再生情報のオフセット情報であってもよい。以下、多様な実施形態で、オフセット情報のうち、変異、座標など、いずれか一つだけ例示されるとしても、各視点別に異なるオフセット情報についても、同じ方式の実施形態が具現される。
一実施形態による付加再生情報のオフセットは、三次元ビデオのうち、第1視点付加再生情報及び第2視点付加再生情報において、1視点の付加再生情報の位置に対比して、残りの視点ビデオについての付加再生情報の変位を示すことができる。また、付加再生情報のオフセットは、現在ビデオのデプス、変異及び両眼視差のうち一つに対比して、視点別付加再生情報の変位を示すこともできる。
また、一実施形態による付加再生情報のオフセットは、付加再生情報の相対的なデプス、変異または両眼視差ではなく、基本平面(zero parallax、zero plane)についての付加再生情報の絶対的位置を含むこともできる。
一実施形態による付加再生情報の三次元再生のための情報は、前記付加再生情報のオフセット方向についての情報をさらに含む。一実施形態による付加再生情報のオフセット方向は、三次元ビデオの第1視点付加再生情報に対して正の方向に設定され、第2視点付加再生情報に対して負の方向に設定される。
一実施形態による付加再生情報の三次元再生のための情報は、付加再生情報のオフセット量が、基本平面に対比した絶対的な位置を示す第1オフセットタイプ、及びビデオデータに対比した相対的変位で示す第2オフセットタイプのうち、いずれか一つであるかを示すオフセットタイプ情報をさらに含んでもよい。
また、一実施形態による付加再生情報の三次元再生のための情報は、付加再生情報の二次元/三次元識別情報、付加再生情報の再生時、ビデオデータを二次元で再生するか否かを示すビデオ二次元再生情報、付加再生情報が表示される領域の識別情報、付加再生情報が表示される時間関連情報、及び付加再生情報の三次元再生安全性情報のうち少なくとも一つをさらに含んでもよい。
マルチメディア・ストリームがMPEG−2(moving picture expert group−2)基盤のデータ通信システムによって符号化される場合、一実施形態によるプログラム符号化部110は、三次元ビデオについての両眼視差情報、変異情報及びデプス情報のうち少なくとも一つを、ビデオESにおいて、parallax info extensionフィールド、デプスマップ(depth map)及びクローズドキャプションデータ・フィールドの保留(reserved)フィールドのうち少なくとも一つに挿入してもよい。
また、マルチメディア・ストリームが、ISO(International Organization for Standardization)基盤のメディアファイル・フォーマットで生成される場合、一実施形態によるプログラム符号化部110は、三次元ビデオについての両眼視差情報、変異情報及びデプス情報のうち少なくとも一つを、メディアファイル・フォーマット内のステレオスコーピックカメラ及びディスプレイ関連情報が含まれるSCDI(stereoscopic camera and display information)領域に挿入することもできる。
付加再生情報が、クローズドキャプション、サブタイトルまたはEPG情報であるか否かによって、一実施形態によるプログラム符号化部110の動作が異なる。
第1実施形態によるプログラム符号化部110は、CEA標準によるクローズドキャプション・データをビデオESに挿入する。第1実施形態によるプログラム符号化部110は、クローズドキャプションの三次元再生のための情報(以下、「クローズドキャプション三次元再生情報」と縮約する)を、ビデオES、ビデオESのヘッダまたはセクションに挿入してもよい。第1実施形態によるクローズドキャプション三次元再生情報は、前述の付加再生情報の三次元再生のための情報だけではなく、クローズドキャプション・データを代替し、三次元クローズドキャプション強調用データを利用するか否かを示す三次元キャプション強調情報をさらに含んでもよい。
第2実施形態によるマルチメディア・ストリーム生成装置100が、ANSI/SCTE(American National Standard Institute/Society of Cable Telecommunications Engineers)方式に従う場合、第2実施形態によるプログラム符号化部110は、ビデオES、オーディオESだけではなく、サブタイトルデータを含むデータストリームを生成し、サブタイトルPESパケットを生成することができる。第2実施形態によるプログラム符号化部110は、サブタイトルの三次元再生のための情報(以下、「サブタイトル三次元再生情報」と縮約する)を、サブタイトルPESパケット及びサブタイトルPESパケットのヘッダのうち少なくとも一つに挿入してもよい。第2実施形態によるサブタイトル三次元再生情報のうちサブタイトル・オフセット情報は、サブタイトルのビットマップ及びフレームのうち少なくとも1つの変位に係わる情報であってもよい。
第2実施形態によるプログラム符号化部110は、第2実施形態によるサブタイトルデータ内のサブタイトルメッセージ・フィールドの保留フィールドに、サブタイトルのキャラクタ要素及びフレーム要素にいずれも適用されるオフセット情報を挿入してもよい。または、第2実施形態によるプログラム符号化部110は、サブタイトルデータに、サブタイトルのキャラクタ要素についてのオフセット情報、及びフレーム要素についてのオフセット情報を別途に追加的に挿入することもできる。
第2実施形態によるプログラム符号化部110は、サブタイトルタイプ情報として、三次元サブタイトルのうち、付加視点サブタイトルについてのサブタイトルタイプ情報を追加することができる。これによって、第2実施形態によるプログラム符号化部110は、サブタイトルデータに、付加視点ビデオデータに係わる付加視点サブタイトルの座標情報を追加して挿入してもよい。
第2実施形態によるプログラム符号化部110は、サブタイトルタイプ情報として、サブタイトル変異タイプを追加し、サブタイトルデータに、三次元ビデオのうち、基本視点ビデオのサブタイトルに対比した付加視点ビデオのサブタイトルの変異情報を追加して挿入してもよい。
第3実施形態によるマルチメディア・ストリーム生成装置100がDVB(digital video broadcasting)方式に従う場合、第3実施形態によるプログラム符号化部110は、ビデオES、オーディオESだけではなく、サブタイトルデータを含む付加データストリームを生成し、サブタイトルPESパケットを生成することができる。この場合、第3実施形態によるプログラム符号化部110は、サブタイトルデータを前記データストリーム内のサブタイトル・セグメントの形態で挿入してもよい。
また第3実施形態によるプログラム符号化部110は、サブタイトルを三次元で再生するための情報は、ページ構成セグメント(page composition segment)内の保留(reserved)フィールドに挿入してもよい。第3実施形態によるプログラム符号化部110は、ページ構成セグメントに、サブタイトルのページ別オフセット情報、及びサブタイトルの現在ページ内の領域別オフセット情報のうち少なくとも一つを追加して挿入してもよい。
第4実施形態によるプログラム符号化部110は、ビデオデータと同時に再生されるためのEPG情報と、EPG情報の三次元再生のための情報(以下、「EPG三次元再生情報」と縮約する)を、セクションに挿入してもよい。
第4実施形態によるマルチメディア・ストリーム生成装置100がATSC方式に従う場合、第4実施形態によるプログラム符号化部110は、EPG情報の三次元再生のための情報を、ATSCのPSIP(program specific information protocol)テーブル内の叙述子(descriptor)フィールドに挿入してもよい。具体的には、ATSCのPSIPテーブルのうち、TVCT(terrestrial virtual channel table)セクション、EIT(event information table)セクション、ETT(extended text table)セクション、RRT(rating region table)セクション及びSTT(system time table)セクションのうち、少なくとも1セクション内の叙述子フィールドに、EPG情報の三次元再生のための情報が挿入される。
第4実施形態によるマルチメディア・ストリーム生成装置100がDVB方式に従う場合、第4実施形態によるプログラム符号化部110は、DVBのSI(service information)テーブル内の叙述子フィールドに、EPG情報の三次元再生のための情報を挿入してもよい。具体的には、SIテーブルにおいて、NIT(network information table)セクション、SDT(service description table)セクション及びEIT(event information table)セクションのうち、少なくとも1セクション内の叙述子フィールドに、EPG情報の三次元再生のための情報が挿入される。
従って、一実施形態によるマルチメディア・ストリーム生成装置100は、CEA(consumer electronics association)方式によるクローズドキャプション、DVB方式またはケーブル放送方式によるサブタイトル、ATSC方式またはDVB方式によるEPG情報などの多様な通信方式の付加再生情報を三次元で再生するために、付加再生データ及び付加再生情報の三次元再生のための情報を、ビデオESデータ、データストリームまたは補助ストリームに挿入し、マルチメディアデータと共に伝送することができる。付加再生情報の三次元再生のための情報は、受信端で、ビデオデータの三次元再生と共に、付加再生情報の安定した三次元再生のために利用される。
一実施形態によるマルチメディア・ストリーム生成装置100によれば、既存MPEGTS方式に基づくDVB方式、ATSC方式、ケーブル方式などの多様な通信方式との互換性を維持し、三次元ビデオの再生と共に、安定して三次元付加再生情報を具現するためのマルチメディア・ストリームが視聴者に提供される。
図2は、一実施形態による付加再生情報の三次元再生のためのマルチメディア・ストリーム受信装置のブロック図を図示している。
一実施形態によるテキストの三次元再生のためのマルチメディア・ストリーム受信装置200は、受信部210、逆多重化部220、復号化部230及び再生部240を含む。
一実施形態による受信部210は、二次元ビデオ及び三次元ビデオのうち、少なくとも一つを含むビデオデータを含むマルチメディア・ストリームに係わるTSを受信する。マルチメディア・ストリームは、画面上の二次元または三次元で再生されるビデオと共に再生されるためのクローズドキャプション、サブタイトル、EPG情報などの付加再生情報のための付加再生データ、及び付加再生情報の三次元再生のための情報を含む。
一実施形態による逆多重化部220は、受信部210によって受信されたTSを入力されて逆多重化し、ビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報データを抽出する。一実施形態による逆多重化部220は、ビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットから、ビデオES、オーディオES、付加データストリーム及びプログラム関連情報を抽出する。抽出されたビデオES、オーディオES、データストリーム及びプログラム関連情報のうちには、付加再生データ及び付加再生情報の三次元再生のための情報が含まれている。
一実施形態による復号化部230は、逆多重化部220から、ビデオES、オーディオES、付加データストリーム及びプログラム関連情報を入力され、入力されたストリームから、ビデオ、オーディオ、付加データ及び付加再生情報を復元し、付加再生情報の三次元再生のための情報を抽出する。
一実施形態による再生部240は、復号化部230によって復元されたビデオ、オーディオ、付加データ及び付加再生情報を再生する。また、一実施形態による再生部240は、付加再生情報の三次元再生のための情報に基づいて、三次元付加再生情報を構成することができる。一実施形態による再生部240は、ビデオデータの再生と共に、三次元付加再生情報を三次元で再生することができる。また、一実施形態による再生部240は、付加再生情報の三次元再生のための情報に基づいて、三次元付加再生情報をさらに正確に三次元で再生することができる。
一実施形態によるマルチメディア・ストリーム受信装置200が抽出して利用する付加再生データ及び付加再生情報の三次元再生のための情報は、一実施形態によるマルチメディア・ストリーム伝送装置100を参考にして説明した付加再生データ及び付加再生情報の三次元再生のための情報に相応する。
一実施形態による再生部240は、付加再生情報の三次元再生のために、付加再生情報の三次元再生のための情報のうち、付加再生情報のオフセット情報に基づいて、付加再生情報を、基準位置からオフセットほど正または負の方向に移動させた位置で再生することができる。以下、説明の便宜のために、視差情報、デプス情報及び座標情報のうちいずれか一つのみで例示されるにしても、一実施形態による付加再生情報の三次元再生のための情報のうちオフセット情報は、これに限定されるものではないことは、前述の通りである。
一実施形態による再生部240は、付加再生情報のオフセットについての情報、及びオフセット方向についての情報に基づいて、付加再生情報が基本平面に対比して、オフセットほど正または負の方向に移動した位置で表示されるように、付加再生情報を再生することができる。また、一実施形態による再生部240は、付加再生情報と共に再生されるビデオのデプス、変異及び両眼視差のうち一つに対比し、オフセットほど正または負の方向に移動した位置で付加再生情報が表示されるように再生することができる。
一実施形態による再生部240は、付加再生情報のオフセット情報及びオフセット方向情報に基づいて、三次元付加再生情報のうち、第1視点付加再生情報及び第2視点付加再生情報のうち、1視点付加再生情報が本来位置に対比し、オフセットほど正の方向に移動した位置に表示され、残りの視点付加再生情報が本来位置に対比し、オフセットほど負の方向に移動した位置に表示されるように、三次元付加再生情報を構成し、三次元付加再生情報を三次元で再生することができる。
一実施形態による再生部240は、付加再生情報のオフセット情報及びオフセット方向情報に基づいて、1視点付加再生情報が、残りの視点付加再生情報の位置に対比し、オフセットほど移動した位置で表示されるように、三次元付加再生情報を構成し、三次元付加再生情報を三次元で再生することができる。
一実施形態による再生部240は、付加再生情報のオフセット情報及びオフセット方向情報に基づいて、現在ビデオについての付加再生情報が、現在ビデオのデプス、変異及び両眼視差のうち一つに対比し、オフセットほど移動した位置に表示されるように、三次元付加再生情報を構成し、三次元付加再生情報を三次元で再生することができる。
一実施形態による再生部240は、視点別に独立して設定された付加再生情報の位置情報に基づいて、付加再生情報についてのオフセット情報のうち、第1視点付加再生情報の位置情報に基づいて、第1視点付加再生情報が表示され、第2視点付加再生情報の位置情報に基づいて、第2視点付加再生情報が表示されるように、三次元付加再生情報を構成し、三次元付加再生情報を三次元で再生することができる。
一実施形態による復号化部230によって復元されたビデオデータのうち、三次元ビデオがサイドバイサイド・フォーマットの三次元合成フォーマットであってもよい。この場合、一実施形態による再生部240は、三次元合成フォーマットを構成する左視点ビデオ及び右視点ビデオに係わる左視点付加再生情報及び右視点付加再生情報が、それぞれオフセットの半分値ほど移動した位置に表示されるように、三次元付加再生情報を構成し、三次元付加再生情報を三次元で再生することができる。
一実施形態による再生部240は、付加再生情報の三次元再生のための情報のうち、ビデオ二次元再生情報に基づいて、付加再生情報を三次元で再生するとき、当該ビデオデータは、二次元で再生される。
一実施形態による再生部240は、付加再生情報の三次元再生のための情報のうち、付加再生情報が表示される時間関連情報に基づいて、付加再生情報及び当該ビデオを同期化させ、ビデオ及び付加再生情報を三次元で再生することができる。
一実施形態による再生部240は、付加再生情報の三次元再生のための情報のうち、付加再生情報の三次元再生安全性情報に基づいて、付加再生情報の三次元再生の安全性を判断した後、付加再生情報の再生方法を決定することができる。一実施形態による再生部240は、付加再生情報の三次元再生安全性情報に基づいて安全であると判断されれば、付加再生情報を三次元で再生することができる。一方、一実施形態による再生部240は、付加再生情報の三次元再生安全性情報に基づいて、安全性がないと判断されれば、付加再生情報を再生しなかったり、あるいは所定の映像後処理技法を行った後、付加再生情報を再生することができる。
例えば、一実施形態による再生部240は、付加再生情報の三次元再生安全性情報に基づいて、安全性がないと判断されれば、当該ビデオの変異と、付加再生情報のオフセットとを比較することができる。当該ビデオの変異と、付加再生情報のオフセットとの比較結果、付加再生情報のオフセットが、当該ビデオの変異の安全区間に属する場合、付加再生情報を三次元で再生することができる。一方、付加再生情報のオフセットが、当該ビデオの変異の安全区間に属さない場合、一実施形態による再生部240は、付加再生情報を再生せずに飛び越えることができる。
または、付加再生情報のオフセットが、当該ビデオの変異の安全区間に属さない場合、一実施形態による再生部240は、所定映像後処理技法を行った後、付加再生情報を再生することができる。所定映像後処理技法による一例として、一実施形態による再生部240は、付加再生情報を、当該ビデオの所定領域に二次元で再生することができる。所定映像後処理技法による他の例として、一実施形態による再生部240は、付加再生情報が、当該ビデオの客体より視聴者側にさらに飛び出して位置するように移動させ、付加再生情報を三次元で再生することができる。所定映像後処理技法によるさらに他の例として、一実施形態による再生部240は、当該ビデオを二次元で再生し、付加再生情報を三次元で再生することもできる。
一実施形態による再生部240は、当該ビデオの変異と、付加再生情報のオフセットとを比較するために、ビデオの変異を抽出したり、あるいは新たに測定することができる。例えば、マルチメディア・ストリームがMPEG−2TS基盤である場合、一実施形態による再生部240は、ビデオESにおいて、パララックス・インフォー・エクステンション(parallax_info_extension)フィールド、デプスマップ及びクローズドキャプションデータ・フィールドの保留(reserved)フィールドのうち少なくとも一つから、三次元ビデオについての両眼視差情報、変異情報及びデプス情報のうち少なくとも一つを抽出し、付加再生情報のオフセットと比較することができる。例えば、マルチメディア・ストリームが、ISO基盤のメディアファイル・フォーマットである場合、一実施形態による再生部240は、メディアファイル・フォーマット内のステレオスコーピックカメラ及びディスプレイ関連情報が含まれるSCDI領域から、三次元ビデオについての両眼視差情報、変異情報及びデプス情報のうち少なくとも一つを抽出し、付加再生情報のオフセットと比較することができる。
付加再生情報が、クローズドキャプション、サブタイトルまたはEPG情報であるかによって、一実施形態によるマルチメディア・ストリーム受信装置200の動作が異なることがある。
第1実施形態による逆多重化部220は、TSからCEA標準によるクローズドキャプション・データが挿入されているビデオESを抽出することができる。第1実施形態による復号化部230は、ビデオESからビデオデータを復元し、これからクローズドキャプション・データを抽出することができる。第1実施形態による復号化部230は、クローズドキャプション三次元再生情報を、ビデオES、ビデオESのヘッダまたはセクションから抽出することができる。
第1実施形態による再生部240は、クローズドキャプション三次元再生情報に基づいて、左視点クローズドキャプション及び右視点クローズドキャプションから構成された三次元クローズドキャプションを構成し、三次元クローズドキャプションを三次元で再生することができる。第1実施形態によるクローズドキャプション・データ及びクローズドキャプション三次元再生情報の特性は、第1実施形態にマルチメディア・ストリーム生成装置100を参考にして説明したところに相応する。
第2実施形態によるマルチメディア・ストリーム受信装置200が、ANSI/SCTE方式に従う場合、第2実施形態による逆多重化部220は、TSからビデオES、オーディオESだけではなく、サブタイトルデータが含まれた付加データストリームを抽出することができる。これによって、第2実施形態による復号化部230は、付加データストリームからサブタイトルデータを抽出することができる。また、第2実施形態による逆多重化部220または復号化部230は、サブタイトル三次元再生情報を、サブタイトルPESパケット及びサブタイトルPESパケットのヘッダのうち少なくとも一つから抽出することができる。
第2実施形態によるサブタイトルデータ及びサブタイトル三次元再生情報の特性は、第2実施形態にマルチメディア・ストリーム生成装置100を参考にして説明したところに相応する。第2実施形態による復号化部230は、第2実施形態によるサブタイトル内のサブタイトルメッセージ・フィールドの保留フィールドから、サブタイトルのキャラクタ要素及びフレーム要素にいずれも適用されるオフセット情報を抽出することができる。第2実施形態による復号化部230は、サブタイトルデータ内の、サブタイトルのキャラクタ要素についてのオフセット情報、及びフレーム要素についてのオフセット情報を別途に追加して抽出することもできる。
第2実施形態による復号化部230は、サブタイトルタイプ情報として、三次元ビデオデータのうち、第2視点ビデオデータに係わるサブタイトルタイプを確認することができる。これによって、第2実施形態による復号化部230は、サブタイトルデータから、第2視点ビデオデータに係わるサブタイトルの座標情報、デプス情報、視差情報などのオフセット情報を追加して抽出することもできる。
第2実施形態による復号化部230は、第2実施形態によるサブタイトルタイプ情報に基づいて、現在サブタイトルタイプがサブタイトル変異タイプである場合、サブタイトルデータから、三次元ビデオのうち第1視点サブタイトルに対比した第2視点サブタイトルの変異情報を追加して抽出することができる。
第2実施形態による再生部240は、サブタイトル三次元再生情報に基づいて、左視点サブタイトル及び右視点サブタイトルから構成された三次元サブタイトルを構成し、三次元サブタイトルを三次元で再生することができる。
第3実施形態によるマルチメディア・ストリーム受信装置200がDVB方式に従う場合、第3実施形態による逆多重化部220は、TSからビデオES、オーディオESだけではなく、サブタイトルデータを含む付加データストリームを抽出することができる。これによって、第2実施形態による復号化部230は、付加データストリームからサブタイトル・セグメント形態のサブタイトルデータを抽出することができる。
また、第3実施形態による復号化部230は、サブタイトルを三次元で再生するための情報を、ページ構成セグメント内の保留(reserved)フィールドから抽出することができる。第3実施形態による復号化部230は、ページ構成セグメントから、サブタイトルのページ別オフセット情報、及びサブタイトルの現在ページ内の領域別オフセット情報のうち、少なくとも一つを追加して抽出することができる。
第3実施形態による再生部240は、サブタイトルデータの三次元再生のための情報に基づいて、左視点サブタイトル及び右視点サブタイトルから構成された三次元サブタイルを構成し、三次元サブタイトルを三次元で再生することができる。
第4実施形態によるマルチメディア・ストリーム受信装置200が、ATSC方式に従う場合、第4実施形態による復号化部230は、EPG情報の三次元再生のための情報を、ATSCのPSIP(program specific information protocol)テーブル内の叙述子(descriptor)フィールドから抽出することができる。具体的には、ATSCのPSIPテーブルのうち、TVCT(terrestrial virtual channel table)セクション、EIT(event information table)セクション、ETT(extended text table)セクション、RRT(rating region table)セクション及びSTT(system time table)セクションのうち、少なくとも1セクション内の叙述子フィールドから、EPG情報の三次元再生のための情報が抽出される。
第4実施形態によるマルチメディア・ストリーム受信装置200がDVB方式に従う場合、第4実施形態による復号化部230は、DVBのSI(service information)テーブル内の叙述子フィールドから、EPG情報の三次元再生のための情報を抽出することができる。具体的には、SIテーブルにおいて、NIT(network information table)セクション、SDT(service description table)セクション及びEIT(event information table)セクションのうち、少なくとも1セクション内の叙述子フィールドから、EPG情報の三次元再生のための情報が抽出される。
第4実施形態による再生部240は、EPG情報の三次元再生のための情報に基づいて、左視点EPG情報及び右視点EPG情報から構成された三次元EPG情報を構成し、三次元EPG情報を三次元で再生することができる。
従って、一実施形態によるマルチメディア・ストリーム受信装置200は、CEA方式によるクローズドキャプション、DVB方式またはケーブル放送方式によるサブタイトル、ATSC方式またはDVB方式によるEPG情報などの多様な通信方式の付加再生情報において、受信されたマルチメディア・ストリームから、付加再生データ及び付加再生情報の三次元再生のための情報を抽出することができる。一実施形態によるマルチメディア・ストリーム受信装置200は、付加再生情報の三次元再生のための情報を利用し、ビデオの三次元再生と共に、付加再生情報を安定した三次元再生することができる。
一実施形態によるマルチメディア・ストリーム受信装置200によれば、既存MPEGTS方式に基づくDVB方式、ATSC方式、ケーブル方式などの多様な通信方式との互換性を維持し、三次元ビデオの再生と共に、安定して三次元付加再生情報を具現するためのマルチメディア・ストリームが視聴者に提供される。
図3は、三次元ビデオ及び三次元付加再生情報が同時に再生される場面を図示している。
三次元ディスプレイ装置の三次元ビデオ再生によれば、客体映像310が、基本平面300から視聴者側に飛び出すように再生される。この場合、クローズドキャプション、サブタイトル、EPG情報などの付加再生情報が表示されるテキスト画面320は、ビデオのあらゆる客体より視聴者側にさらに飛び出すように再生されてこそ、視聴者が三次元ビデオ鑑賞による疲労感または違和感なしに、三次元ビデオを安定して鑑賞することができる。
図4は、三次元ビデオ及び三次元テキストが逆転されて再生される現象を図示している。
付加再生情報のデプス、変異または両眼視差情報に誤りがある場合、ビデオの客体映像310より付加再生情報画面320が視聴者から遠く位置するように再生される逆転現象が発生しうる。このような客体映像310及び付加再生情報画面320の逆転現象によって、客体映像310が付加再生情報画面320を隠してしまう。この場合、視聴者は、三次元ビデオ鑑賞による疲労感または違和感を感じることがある。
図5は、各種付加再生情報が含まれるMPEG TS構造を図示している。
MPEG TS 500は、プログラムを構成するコンテンツのストリームから構成され、具体的には、オーディオES 510、ビデオES 520、コントロール・データ530及びプログラム関連情報であるPSIP(program specific information protocol)540から構成される。
一実施形態によるマルチメディア・ストリーム生成装置100及び一実施形態によるマルチメディア・ストリーム受信装置200が処理する付加再生データのうち、第1実施形態によるクローズドキャプション・データは、ビデオES 520内のピクチャユーザデータ(picture user data)領域に、「cc_data」の形態で挿入される。具体的な実施形態で、ビデオES 520が多重化されて構成されるビデオPESパケット内の「user_data」フィールド内の「cc_data」フィールドにクローズドキャプション・データが挿入されてもよい。
第2実施形態及び第3実施形態によるサブタイトルデータは、オーディオES 510またはビデオES 520とは別途の付加データストリームに挿入され、TS 500に含まれもする。特に、サブタイトルデータは、テキストデータだけではなく、グラフィックデータを含んでもよい。
第4実施形態によるEPG情報は、PSIP 540において、所定テーブルに挿入される。
以下、表1ないし表12及び図6ないし図15を参照して、第1実施形態による、クローズドキャプションの三次元再生のためのマルチメディア・ストリームの生成及び受信について説明する。
第1実施形態によるマルチメディア・ストリーム生成装置100は、ビデオストリームに、ビデオデータと共にクローズドキャプションを挿入してもよい。第1実施形態によるプログラム符号化部110は、クローズドキャプション・データを、ビデオPESパケット内の「user_data」フィールド内の「cc_data」フィールドに挿入してもよい。下表1は、ATSC方式による「cc_data」フィールドのシンタックス(syntax)を図示し、表2は、DVB方式による「cc_data」フィールドのシンタックスを図示する。「for」ループ(loop)内の「cc_data_1」フィールド及び「cc_data_2」フィールドに、クローズドキャプション・データが挿入されてもよい。
Figure 0005721732
Figure 0005721732
第1実施形態によるプログラム符号化部110は、クローズドキャプションの三次元再生のための情報を、表1及び表2の「cc_data」フィールド内の「reserved」フィールドに挿入してもよい。
第1実施形態によるプログラム符号化部110は、クローズドキャプションの二次元/三次元識別情報、クローズドキャプションのオフセット情報及び三次元キャプション強調情報を、「cc_data」フィールド内の「reserved」フィールドに挿入してもよい。
具体的に例を挙げれば、第1実施形態によるプログラム符号化部110は、表1及び表2の最初「reserved」フィールドに、下記表3のようなクローズドキャプションの二次元/三次元識別情報「2d_CC」を挿入してもよい。
Figure 0005721732
第1実施形態による二次元/三次元識別情報「2d_CC」は、「2d_CC」フィールド次に挿入されるクローズドキャプション・データが、二次元または三次元の再生用であるか示すことができる。
また、第1実施形態によるプログラム符号化部110は、表1及び表2の2番目の「reserved」フィールドに、下記表4のように、三次元キャプション強調情報「enhanced_CC」及びクローズドキャプションのオフセット情報「cc_offset」を挿入してもよい。
Figure 0005721732
第1実施形態による三次元キャプション強調情報「enhanced_CC」は、DTV CCデータのクローズドキャプション・データを代替し、三次元クローズドキャプション強調用データを利用するか否かを示すことができる。第1実施形態によるクローズドキャプションのオフセット情報「cc_offset」は、DTV CCデータのクローズドキャプションにデプス感を付与するために、左右に移動する変異オフセットを示すことができる。
第1実施形態によるマルチメディア・ストリーム生成装置100は、ATSCデジタルTVストリームのクローズドキャプションのための規格であるCEA−708で規定になったコードセット(code set)によって、命令語コード(command character)及びクローズドキャプションのテキストを符号化できる。下記表5は、CEA−708で規定されたコードセット・マッピングテーブル(code set mapping table)を図示している。
Figure 0005721732
コードセット・マッピングテーブルにおいて、C0グループのコードセットを利用して、アスキー制御コードが表現され、G0グループのコードセットを利用して、クローズドキャプション・データが表現される。CEA−708で規定されたコードセット・マッピングテーブルにおいて、C2グループのコードセットは、拡張制御コードであり、ユーザが任意に定義可能なコードセットである。第1実施形態によるマルチメディア・ストリーム生成装置100は、C2グループのコードセットを利用し、第1実施形態によるクローズドキャプションの三次元再生のための情報を設定するための命令語叙述子(command descriptor)を表現することができる。下記表6は、C2グループのコードセットテーブルを図示している。
Figure 0005721732
具体的な実施形態で、第1実施形態によるマルチメディア・ストリーム生成装置100は、C2グループコードセットにおいて、ビット列「0x08〜0x0f」の2バイトコードセクション(2byte code section)を利用し、クローズドキャプションの三次元再生のための情報を命令語コードでもって表現することができる。
例えば、第1実施形態によるマルチメディア・ストリーム生成装置100は、クローズドキャプションの三次元再生のための情報を設定するための命令語叙述子「Define3DInfo」を定義することができる。下記表7は、命令語叙述子「Define3DInfo()」の命令語コードの一例を示している。
Figure 0005721732
第1実施形態による命令語叙述子「Define3DInfo()」のフォーマットが「Define3DInfo(window_ID,is_safety_check)」であるとき、表7の命令語コードにおいて、「00001100」(または「0x0C」)は、命令語「Define3DInfo」、命令語コードにおいて、「id2 id1 id0 sc」は、入力パラメータ「id」及び「sc」を示す。パラメータ「id」は、クローズドキャプションが表示されるキャプション領域識別子「window_ID」であり、3ビットであるから、0から7のうち1つの固有識別子に設定されてもよい。パラメータ「sc」は、クローズドキャプションの三次元再生安全性情報「is_safety_check」を示す。下記表8のように、パラメータ「is_safety_check」は、コンテンツに挿入されたクローズドキャプションのオフセット情報の安全性いかんを示すことができる。
Figure 0005721732
他の例として、第1実施形態によるマルチメディア・ストリーム生成装置100は、クローズドキャプションの三次元再生のためのオフセット情報を設定するための命令語叙述子「SetDisparityType」を定義することができる。下記表9は、命令語叙述子「SetDisparityType」の命令語コードの一例を示す。
Figure 0005721732
第1実施形態による命令語叙述子「SetDisparityType」のフォーマットが、「SetDisparityType(window_ID,disparity_type)」であるとき、表9の命令語コードにおいて、「00001100」(または「0x0C」)は、命令語「SetDisparityType」、命令語コードにおいて、「id2 id1 id0 dt」は、入力パラメータ「id」及び「dt」を示す。
パラメータ「id」は、キャプション領域識別子「window_ID」を示す。パラメータ「dt」は、クローズドキャプションのオフセットタイプ情報「disparity_type」を示す。下記表10のように、パラメータ「disparity_type」は、クローズドキャプションのオフセット値が、スクリーン平面または基本平面を基準に設定された第1オフセットタイプであるか、あるいはビデオの変異を基準に設定された第2オフセットタイプであるかを示すことができる。
Figure 0005721732
従来CEA−708規格によれば、DTV CCコーディングレイヤ(digital−TVclosed caption coding layer)で、キャプション領域の生成、削除、修正及び表示などを制御するための命令語叙述子「SetWindowDepth」が利用されている。
第1実施形態によるマルチメディア・ストリーム生成装置100は、命令語叙述子「SetWindowDepth」を変形して利用することができる。第1実施形態によるマルチメディア・ストリーム生成装置100は、クローズドキャプション復号化手段を具備している受信装置と下位互換性を維持するために、CEA708規格のコードセット・マッピングテーブルにおいて、拡張制御コードセット領域を利用し、命令語叙述子「SetWindowDepth」を表現することができる。
例えば、C2グループコードセットにおいて、ビット列「0x08〜0x0f」の2バイト・コードセクションを利用し、第1実施形態によるクローズドキャプションの三次元再生安全性情報「is_safety_check」及びオフセットタイプ情報「disparity type」が表現され、ビット列「0x10〜0x17」の3バイト・コードセクション(3byte code section)を利用し、オフセット値に係わる情報が追加して表現される。下記表11は、第1実施形態によるマルチメディア・ストリーム生成装置100によって変形された命令語叙述子「SetWindowDepth」の命令語コードの一例を示す。
Figure 0005721732
第1実施形態による命令語叙述子「SetWindowDepth」のフォーマットが、「SetWindowDepth(disparity_type,video_flat,window_ID,is_safety_check,offset_sign,offset)」であるとき、表11の命令語コードにおいて、「00010000」は、命令語「SetWindowDepth」、命令語コードにおいて、「dt vf id2 id1 id0 0 sc os」は、入力パラメータ「dt」、「vf」、「id」、「sc」、「os」を、命令語コードにおいて、「off7 off6 off5 off4 off3 off2 off1 off0」は、入力パラメータ「off」を示す。
パラメータ「dt」は、クローズドキャプションのオフセットタイプ情報「disparity_type」を示す。パラメータ「vf」は、ビデオ二次元再生情報「video_flat」を示す。パラメータ「id2 id1 id0」の「id」は、クローズドキャプションが表示されるキャプション領域識別子「window_ID」を示す。パラメータ「sc」は、クローズドキャプションの三次元再生安全性情報「is_safety_check」を示す。パラメータ「os」は、クローズドキャプションのオフセット方向情報「offset_sign」を示す。
第1実施形態によるマルチメディア・ストリーム受信装置200は、表11の命令語叙述子「SetWindowDepth」を実行する場合、パラメータ「disparity_type」に基づいて、パラメータ「offset」値が、ビデオES内で定義されたビデオの変異値を基準に設定された値であると確認されるならば、パラメータ「video_flat」及び「is_safety_check」は、利用されない。
下記表12のように、ビデオ二次元再生情報「video_flat」は、クローズドキャプションの三次元再生時、三次元ビデオの再生状態を三次元再生モードで維持するか否か、または二次元再生モードに転換するか否かを示すことができる。
Figure 0005721732
例えば、第1実施形態によるマルチメディア・ストリーム受信装置200は、パラメータ「video_flat」に基づいて、三次元ビデオの再生状態が、三次元再生モードに維持されるように決定されるならば、ディスプレイ装置が、左視点映像及び右視点映像が時連続的に(time-sequentially)再生されるように制御することができる。また、第1実施形態によるマルチメディア・ストリーム受信装置200は、パラメータ「video_flat」に基づいて、三次元ビデオの再生状態が二次元再生モードに転換されるものであるならば、三次元ディスプレイ装置が左視点映像同士で時連続的に再生されたり、右視点映像同士で時連続的に再生されるように制御することができる。
パラメータ「video_flat」によって、三次元ビデオの再生状態が三次元再生モードに維持されたり、あるいは三次元再生モードから二次元再生モードに転換されても、キャプション領域では、パラメータ「offset_sign」及びパラメータ「offset」を利用して、クローズドキャプションのオフセットが適用され、クローズドキャプションが三次元で再生される。ただし、三次元ビデオの再生状態が、三次元再生モードから二次元再生モードに転換されるならば、パラメータ「is_safety_check」は、利用せずに無視されもする。また、その場合に、パラメータ「offset_sign」は、クローズドキャプションが視聴者側に飛び出すように、負の方向のオフセットを示すように設定されることが望ましい。
パラメータ「sc」は、クローズドキャプションの三次元再生安全性情報「is_safety_check」を示す。下記表13のように、パラメータ「is_safety_check」は、クローズドキャプションのオフセット方向(offset sign)及びオフセットの安全性いかんを示すことができる。
Figure 0005721732
例えば、リアルタイム通信と共に、クローズドキャプションのオフセットがコンテンツ提供者によって安全性が確認されないまま、クローズドキャプションがコンテンツと共に提供される場合、三次元ビデオ及びクローズドキャプションのデプス間の逆転現象が発生したり、あるいは不安定なデプスによって、視聴者に疲労感が誘発される可能性が高い。従って、コンテンツ提供者によって、クローズドキャプションの三次元再生安全性が確保されたか否かを確認するために、パラメータ「is_safety_check」が利用されもする。
従って、第1実施形態によるマルチメディア・ストリーム受信装置200では、パラメータ「is_safety_check」に基づいて、パラメータ「offset_sign」及び「offset」によって調節されるクローズドキャプションのオフセット(または変異値)が、コンテンツ提供者によって安全性が保証されない場合、受信端固有のクローズドキャプション表示方式によって、キャプション領域にクローズドキャプションに係わるオフセットが適用されもする。
パラメータ「is_safety_check」に、クローズドキャプションのオフセットが、コンテンツ提供者によって安全性が保証される場合、受信端は、パラメータ「offset_sign」及び「offset」を利用して、クローズドキャプションのオフセットを調節し、クローズドキャプションを再生することができる。
パラメータ「os」は、パラメータ「offset」によって与えられたクローズドキャプションのオフセット値が、負または正の方向の両眼視差であるかを決定する方向情報「offset_sign」を示す。パラメータ「off」は、クローズドキャプションのオフセット情報であり、パラメータ「id」によって選択されたキャプション領域にオフセットを適用するために、二次元形態で生成されたキャプション領域のアンカポイントの位置を左右に移動するためのピクセルの左右変位を示すことができる。
以上、表1ないし表13を参照して説明したクローズドキャプションの三次元再生のための情報は、第1実施形態によるマルチメディア・ストリーム生成装置100によって、ビデオストリームに挿入されて伝送される。第1実施形態によるマルチメディア・ストリーム受信装置200は、ビデオストリームから以上の表1ないし表13を参照して説明したクローズドキャプションの三次元再生のための情報を抽出し、クローズドキャプションの三次元再生に利用される。
以下、図6ないし図15を参照して、第1実施形態によるマルチメディア・ストリーム受信装置200が、クローズドキャプションの三次元再生のための情報を利用する実施形態について説明する。
図6は、一実施形態によるクローズドキャプションの三次元再生のためのマルチメディア・ストリーム受信装置において、クローズドキャプション再生部の細部ブロック図を図示している。
一実施形態によるクローズドキャプションの三次元再生のためのマルチメディア・ストリーム受信装置において、クローズドキャプション再生部600は、第1実施形態によるマルチメディア・ストリーム受信装置200の再生部240の他の実施形態であってもよい。一実施形態によるクローズドキャプション再生部600は、ビデオ復号化器(video decoder)620、クローズドキャプション復号化器(CC decoder)630、ビデオ平面保存部(video plane)640、クローズドキャプション平面保存部(closed caption plane)650、三次元クローズドキャプション強調用データ保存部(enhanced CC memory)660及びスイッチ(switch)670を含む。
逆多重化器(DE−MUX)610によって分離されたクローズドキャプション・データ及びビデオデータが、一実施形態による再生部600に入力される。クローズドキャプション復号化器630は、逆多重化器610から入力されたクローズドキャプション・データを復号化して復元する。ビデオ復号化器620は、逆多重化器610から入力されたビデオデータを復号化して復元する。ビデオ復号化器620及びクローズドキャプション復号化器630から出力されたビデオデータ及びクローズドキャプション・データは、それぞれビデオ平面保存部640及びクローズドキャプション平面保存部650に保存されもする。ビデオ平面保存部640及びクローズドキャプション平面保存部650のビデオデータ及びクローズドキャプション・データが出力されて合成されれば、クローズドキャプション・データが表示されたビデオ画面が出力されもする。
クローズドキャプション復号化器630は、表1,2,3を参照して説明した第1実施形態によるクローズドキャプションフィールド「cc_data」内のパラメータ「2d_CC」に基づいて、クローズドキャプション・データ「cc_data_1」及び「cc_data_2」を、二次元または三次元で再生するかを決定することができる。
パラメータ「2d_CC」の設定値が0である場合、クローズドキャプション復号化器630は、クローズドキャプション・データ「cc_data_1」及び「cc_data_2」を三次元で再生することができる。その場合、クローズドキャプション復号化器630は、第1実施形態によるクローズドキャプションフィールド「cc_data」内のパラメータ「enhance_CC」に基づいて、入力されたクローズドキャプション・データ「cc_data_1」及び「cc_data_2」をそのまま再生するか、または三次元クローズドキャプション強調用データ保存部(enhanced CC memory)660に保存された三次元クローズドキャプション強調用データを再生するかを決定することができる。
例えば、三次元クローズドキャプション強調用データは、イメージなどのグラフィックデータであってもよい。また、三次元クローズドキャプション強調用データ保存部660に、左視点映像及び右視点映像のための三次元クローズドキャプション強調用データ662,664が別途に保存されていてもよい。三次元クローズドキャプション強調用データの利用いかんによって、スイッチ670が、クローズドキャプション平面保存部650に、三次元クローズドキャプション強調用データ662,664が出力される動作を制御することができる。
また、クローズドキャプション復号化器630は、第1実施形態によるクローズドキャプションフィールド「cc_data」内のパラメータ「cc_offset」に基づいて、クローズドキャプション・データを、左視点映像及び右視点映像として画面上にディスプレイするとき、クローズドキャプション・データを横軸方向に、オフセット値ほど移動させた位置で再生することができる。すなわち、三次元合成フォーマットの三次元ビデオ680において、左視点映像領域682及び右視点映像領域684で、左視点クローズドキャプション686及び右視点クローズドキャプション688が、それぞれオフセット1 offset1及びオフセット2 offset2ほど移動される。
図7は、第1実施形態によって、クローズドキャプションのデプス感を調節する画面の透視図を図示している。
第1実施形態によって、クローズドキャプションのオフセット値がデプス5であり、クローズドキャプションの三次元キャプション強調情報に基づいて、ビデオ平面710からデプス5ほど飛び出して移動した位置に、三次元クローズドキャプション強調用キャプション平面720が表示される実施形態が図示されている。
図8は、第1実施形態によって、クローズドキャプションのデプス感を調節する画面の平面図を図示している。
第1実施形態によるマルチメディア・ストリーム受信装置200の再生部240は、左視点映像(left image)810のキャプション領域815、及び右視点映像(right image)820のキャプション領域825を三次元で再生するために、右視点キャプション領域825の位置を、左視点キャプション領域815からオフセット830ほど調節することができる。この場合、オフセット830は、実際のクローズドキャプションの変異値を示し、前述の第1オフセットタイプの第1変位に相応しうる。
また、第1実施形態によるマルチメディア・ストリーム受信装置200の再生部240は、右視点キャプション領域845の位置を、ビデオの変異値855からクローズドキャプションのオフセット860ほど調節することができる。その場合、クローズドキャプションのオフセット860及び映像の変異値855の総合が、実際のクローズドキャプションの変異値850になり、クローズドキャプションのオフセット860が、前述の第2オフセットタイプの第2変位に相応しうる。
図9は、第1実施形態によるマルチメディア・ストリーム受信装置が、三次元キャプション強調情報及びクローズドデータのオフセット情報を利用する方法のフローチャートを図示している。
第1実施形態によるマルチメディア・ストリーム受信装置200の再生部240に、DTV CCデータが入力される(段階910)。第1実施形態による再生部240は、クローズドキャプションの二次元/三次元識別情報「2d_CC」の値を確認する(段階920)。クローズドキャプションの二次元/三次元識別情報「2d_CC」に基づいて、クローズドキャプションが二次元再生用であるならば、DTV CCデータを二次元で再生することができる(段階930)。
クローズドキャプションの二次元/三次元識別情報「2d_CC」に基づいて、クローズドキャプションが三次元再生用であるならば、第1実施形態による再生部240は、三次元キャプション強調情報「enhance_CC」及びクローズドデータのオフセット情報「cc_offset」を確認する(段階940)。第1実施形態による再生部240は、DTV CCデータのうち、クローズドキャプション・データ「cc_data_1」及び「cc_data_2」を復号化する(段階950)。段階960で、三次元キャプション強調情報「enhance_CC」に基づいた判断結果、三次元クローズドキャプションを強調するための三次元クローズドキャプション強調用データを利用しないと決定されるならば、第1実施形態による再生部240は、DTV CCデータを三次元で再生することができる(段階980)。
段階960で、三次元キャプション強調情報「enhance_CC」に基づいた判断結果、三次元クローズドキャプション強調用データを利用すると決定されるならば、第1実施形態による再生部240は、三次元クローズドキャプション強調用データを抽出し(段階970)、三次元クローズドキャプション強調用データを三次元で再生することができる(段階980)。
図10は、第1実施形態によるマルチメディア・ストリーム受信装置が、クローズドキャプションの三次元再生安全性情報を利用する方法のフローチャートを図示している。
第1実施形態によるマルチメディア・ストリーム受信装置200の再生部240に、DTV CCデータが入力されてパージングされる(段階1010)。第1実施形態による再生部240は、DTV CCデータ内にクローズドキャプションの変異情報「cc_offset」を検索する(段階1015)。クローズドキャプションの変異情報がなければ、第1実施形態による再生部240は、クローズドキャプションを二次元で再生する(段階1020)。
DTV CCデータ内にクローズドキャプションの変異情報が存在するならば、第1実施形態による再生部240は、DTV CCデータ内に三次元再生安全性情報(「is_safety_check」)を確認する(段階1025)。三次元再生安全性情報に基づいて、クローズドキャプションの変異情報の安全性が確保されるならば、第1実施形態による再生部240は、クローズドキャプションの変異情報を利用して、クローズドキャプションを三次元で再生する(段階1030)。
三次元再生安全性情報に基づいて、クローズドキャプションの変異情報の安全性が確保されなければ、第1実施形態による再生部240は、ビデオストリーム内に、映像に係わる変異情報を検索する(段階1040)。例えば、マルチメディア・ストリームが、MPEG−2 TS方式によって符号化された場合、ビデオESにおいて、パララックス・インフォー・エクステンション・フィールド、デプスマップ及びクローズドキャプションデータ・フィールドの保留フィールドのうち少なくとも一つから、映像に係わる変異情報が検出される。また、マルチメディア・ストリームが、ISOメディアファイル・フォーマットで符号化された場合、メディアファイル・フォーマット内のSCDI領域から、映像に係わる変異情報が検出される。
ビデオストリーム内に、映像に係わる変異情報があるならば、第1実施形態による再生部240は、クローズドキャプションの変異情報と映像の変異情報とを比較し、クローズドキャプションの変異情報が、三次元再生安全区間に属すか否かを判断する(段階1045)。
クローズドキャプションの変異情報が三次元再生安全区間に属するならば、第1実施形態による再生部240は、クローズドキャプションの変異情報を利用して、クローズドキャプションを三次元で再生する(段階1030)。クローズドキャプションの変異情報が、三次元再生安全区間に属さなければ、第1実施形態による再生部240は、クローズドキャプションを再生しないか、あるいは映像後処理作業を行い、安全性確保後にクローズドキャプションを三次元で再生することができる(段階1070)。ここで、映像後処理作業の多様な実施形態は、以下、図11、図12、図13、図14及び図15を参照して後述する。
段階1040で、ビデオストリーム内に映像に係わる変異情報を検索した結果、ビデオストリーム内に映像に係わる変異情報が存在しなければ、第1実施形態によるマルチメディア・ストリーム受信装置200で、直接ビデオの変異測定が可能である否かが判断される(段階1050)。第1実施形態によるマルチメディア・ストリーム受信装置200に、映像の変異測定手段が存在するならば、三次元ビデオのステレオ映像に係わる変異測定作業が行われる(段階1055)。段階1055で測定された映像変異情報を利用し、第1実施形態による再生部240は、クローズドキャプションの変異情報と映像の変異情報とを比較し、クローズドキャプションの変異情報が、三次元再生安全区間に属すか否かを判断する(段階1045)。段階1045の判断結果によって、段階1030または1070が行われる。
第1実施形態によるマルチメディア・ストリーム受信装置200に、映像の変異測定手段が存在しなければ、ユーザ設定によるクローズドキャプション強制出力モードであるか否かが判断されもする(段階1060)。クローズドキャプション強制出力モードであるならば、第1実施形態による再生部240は、クローズドキャプションの変異情報を利用し、クローズドキャプションを三次元で再生する(段階1030)。強制クローズドキャプション出力モードではないなら、第1実施形態による再生部240は、クローズドキャプションを再生しないか、あるいは映像後処理作業を行い、安全性確保後にクローズドキャプションを三次元で再生することができる(段階1070)。
図11は、第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法の一例を図示している。
第1実施形態による再生部240は、クローズドキャプションの三次元再生安全性情報「is_safety_check」に基づいて、安全性が確保されないと判断されれば、三次元映像(3D image)1110の所定領域に変異情報を有するクローズドキャプション・データ(CC data with disparity)1120を強制的に配置するように出力することができる。
例えば、第1実施形態による再生部240は、三次元映像1110を縦方向に縮小し(scale down)(1130)、縮小された三次元映像とクローズドキャプション・データ1120とを合成する(merging)(1140)。これによる結果映像1150は、縦方向に縮小された三次元映像領域1152及びクローズドキャプション領域1154に区分される。三次元映像領域1152及びクローズドキャプション領域1154が、互いに重畳しないようにそれぞれ三次元で再生することができる。
図12及び図13は、第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法の他の例を図示している。
図12では、三次元ディスプレイ平面1210で、三次元ビデオが再生されることによって、ビデオ客体領域1220が固有のデプスほど飛び出して表示される。この場合、クローズドキャプションのテキスト領域1230が、三次元ディスプレイ平面1210とビデオ客体領域1220との間に表示されれば、視聴者1200は、ビデオ客体とテキストとのデプス感が混同されつつ、めまいまたは疲労感を感じることがある。
図13では、ビデオ客体領域1230の変異情報が獲得される場合、第1実施形態による再生部240は、テキスト領域1230を、ビデオ客体領域1220より視聴者1200側に飛び出すように、テキスト領域1230の変異情報を調整することができる。また、あらゆる映像ピクセルの変異情報が分かる場合、第1実施形態による再生部240は、テキスト領域1230のキャプション領域のピクセル位置を、ビデオ客体領域1220とデプス順序上で重ならない領域に移動させることができる。
図14及び図15は、第1実施形態によるクローズドキャプションの三次元再生安全性情報に基づいて、安全性が保証されない場合に行われる後処理方法のさらに他の例を図示している。
図14では、三次元ディスプレイ平面1400で、三次元ビデオが再生されることによって、ビデオ客体領域1410が固有のデプスほど飛び出して表示されるが、クローズドキャプションのテキスト領域1420が、三次元ディスプレイ平面1400とビデオ客体領域1410との間に存在するデプス感の逆転現象が生じている。
図15で、第1実施形態による再生部240は、三次元ビデオを二次元再生モードに変換して再生する。すなわち、第1実施形態による再生部240は、ビデオ客体領域1410が、三次元ディスプレイ平面1400で表示されるように二次元で再生し、テキスト領域1420は、固有の変異情報に基づいて、三次元で再生することができる。これによって、ビデオ客体領域1410のデプスが0になるので、テキスト領域1420とビデオ客体領域1410との間のデプス感の逆転現象が解消される。
第1実施形態によるマルチメディア・ストリーム生成装置100は、クローズドキャプションに、三次元デプス感を付与するためのクローズドキャプション三次元再生情報を、データストリームに挿入し、ビデオ、オーディオと共に伝送することができる。第1実施形態によるマルチメディア・ストリーム生成装置200は、受信されたマルチメディア・ストリームから、クローズドキャプション・データ及びクローズドキャプション三次元再生情報を抽出することができる。第1実施形態によるマルチメディア・ストリーム生成装置200は、クローズドキャプション三次元再生情報に基づいて、クローズドキャプションの安全性を確認し、クローズドキャプションの再生方法を採択することができ、クローズドキャプションのデプス感を調節することができ、クローズドキャプションの三次元再生効果を強調するための強調用クローズドキャプションも利用することができる。これによって、三次元ビデオとクローズドキャプションとが自然に再生される。
以下、表14ないし表48及び図16ないし図34を参照して、一実施形態によるサブタイトルの三次元再生のためのマルチメディア・ストリームの生成及び受信について説明する。
図16は、サブタイトルデータのマルチメディア・ストリームの生成及び受信方式を図示している。
シングルプログラム符号化部1600は、ビデオデータ及びオーディオデータを入力され、それぞれビデオ符号化部(video encoder)1610及びオーディオ符号化部(audio encoder)1620によって符号化され、符号化されたビデオデータ及びオーディオデータは、それぞれパケット化器(packetizer)1630,1640を経て、ビデオPESパケット及びオーディオPESパケットに分解される。また、一実施形態によるシングルプログラム符号化部1600は、サブタイトル生成部(subtitle generator station)1650)からサブタイトルデータを入力される。PSI生成部1660は、PAT(program association table)及びPMT(program map table)などの各種プログラム関連情報を生成する。
シングルプログラム符号化部1600の多重化部(MUX(multiplexer))1670は、パケット化器1630,1640から、ビデオPESパケット及びオーディオPESパケットだけではなく、PESパケット形態のサブタイトルデータパケット及びPSI生成部1660から入力された各種プログラム関連情報をセクション形態で入力され、多重化して1つのプログラムに係わるTSを生成して出力する。
一実施形態によるシングルプログラム符号化部1600が、DVB通信方式またはケーブル通信方式によって、TSを生成して伝送したか否かによって、DVBセットトップボックス(DVB set-top box)1680またはケーブル・セットトップボックス(cable set-top box)1685がTSを受信してパージングし、ビデオ、オーディオ及びサブタイトルを復元する。TV 1690は、ビデオ及びオーディオを再生し、サブタイトルをビデオ画面上に同期化して再生する。
第2実施形態または第3実施形態によるマルチメディア・ストリーム生成装置100は、シングルプログラム符号化部1600の動作に、三次元ビデオ及びサブタイトルの三次元再生のための情報を追加して挿入して伝送することができる。また、第2実施形態または第3実施形態によるマルチメディア・ストリーム受信装置200は、DVBセットトップボックス1670またはケーブル・セットトップボックス1680、及びTV 1690の動作に追加し、三次元ビデオ及びサブタイトルを三次元で再生することができる。
まず、表14ないし表34及び図17ないし図27を参照して、第2実施形態によるDVB通信方式によるサブタイトルの三次元再生のためのマルチメディア・ストリームの生成及び受信について説明する。
図17は、DVB通信方式によるサブタイトルデータの階層的構造を図示している。
DVB通信方式のディスプレイデータ構造はプログラム(program)レベル1700、エポック(epoch)レベル1710、ディスプレイ(display)シーケンスレベル1720、領域(region)レベル1730、客体(object)レベル1740の階層的構造から構成される。
具体的には、1つのプログラム単位1705は、一つ以上のエポック単位1712,1714,1716から構成される。
エポック単位は、復号化器がメモリレイアウトが変わらないまま維持される時間単位である。すなわち、1つのエポック単位1712は、次のエポック単位1714が伝送されるまで、サブタイトル復号化器のメモリに保存される。メモリレイアウトは、ページ状態が、「モード変更」であるページ構成セグメントを受信し、復号化器状態がリセットされることによって変更される。従って、2つの連続的なエポック単位1712,1714の間には、復号化器にページ状態が「モード変更」であるページ構成セグメントが受信されたことを意味する。1つのエポック単位1714は、一つ以上のディスプレイシーケンス単位1722,1724,1726から構成される。
それぞれのディスプレイシーケンス単位1722,1724,1726は、完全なグラフィック場面を示し、数秒間画面上で維持される。一例として、1つのディスプレイシーケンス単位1724は、指定された表示位置を有する一つ以上の領域単位1732,1734,1736から構成される。
それぞれの領域単位1732,1734,1736は、あらゆるピクセルコードに適用される色相及び透明度を定義するCLUTテーブル(color look-up table)と一対になる。ピクセルデプスは、それぞれの領域単位1732,1734,1736に適用される色相のエントリを示し、2,4,8ビットのピクセルデプスは、それぞれ4,16,256種の色相のピクセルコードを支援する。一例として、1つの領域単位1734は、背景色相を定義することができ、当該領域内に表示される一つ以上のグラフィック客体単位1742,1744,1746から構成される。
図18及び図19は、DVB通信方式によって、サブタイトルのPESパケットを指すPMT(program map table)内のサブタイトル叙述子の2種表現方式を図示している。
1つのサブタイトル・ストリームは、一つ以上のサブタイトル・サービスを伝送することができる。一つ以上のサブタイトル・サービスが1つのパケットに多重化され、1つのPID(packet identifier)情報を割り当てられて伝送されたり、あるいはそれぞれのサブタイトル・サービスが別個のパケットから構成され、別個のPID情報を割り当てられてそれぞれ伝送される。プログラムのサブタイトル・サービスに係わるPID情報、言語及びページ識別子が、関連PMTに定義されていなければならない。
図18は、一つ以上のサブタイトル・サービスが1つのパケットに多重化された場合のサブタイトル叙述子及びサブタイトルPESパケットを図示している。一つ以上のサブタイトル・サービスが、1つのPESパケット1840に多重化されて、1つのPID情報Xを割り当てられ、これによって、サブタイトル・サービスのための複数枚のページ1842,1844,1846も同じPID情報Xに従属する。
補助ページ(ancillary page)1846のサブタイトルデータは、互いに異なるサブタイトルデータに対して共有される付属データ1842,1844である。
PMT 1800は、サブタイトルデータに係わるサブタイトル叙述子1810を含んでもよい。サブタイトル叙述子1810は、サブタイトルデータに係わる情報をパケット別に定義し、同じパケット内では、サブタイトル・サービスに係わる情報が、ページ別に分類されもする。すなわち、サブタイトル叙述子1810は、PID情報XであるPESパケット1840内のサブタイトルデータ1842,8144,1846に係わる情報を含み、PESパケット1840内のサブタイトルデータのページ1842,1844別に定義されたサブタイトルデータ情報1820,1830は、それぞれの言語情報「language」、構成ページ識別子「composition−page_id」及び共有ページ識別子「ancillary−page_id」を含んでもよい。
図19は、それぞれのサブタイトル・サービスが、別個のパケットによって構成された場合のサブタイトル叙述子及びサブタイトルPESパケットを図示している。第1サブタイトル・サービスのための第1ページ1950は、第1PESパケット1940から構成され、第2サブタイトル・サービスのための第2ページ1970は、第2PESパケット1960から構成される。第1PESパケット1940及び第2PESパケット1960には、PID情報X及びYがそれぞれ割り当てられる。
PMT 1900のサブタイトル叙述子1910は、複数個のサブタイトルPESパケットのPID情報値を含むことができ、複数個のPESパケットのサブタイトルデータのための情報を、PESパケット別に定義することができる。すなわち、サブタイトル叙述子1910は、PID情報Xである第1PESパケット1940内のサブタイトルデータのページ1950のためのサブタイトル・サービス情報1920、及びPID情報Yである第2PESパケット1960内のサブタイトルデータのページ1970のためのサブタイトル・サービス情報1930を含む。
図20は、DVB通信方式によるサブタイトルデータを含むデータストリーム構造の一例を図示している。
DVB通信方式によるサブタイトルを含むDVB TS 2000から、同じPID情報が割り当てられたサブタイトルTSパケット2002,2004,2006がギャザリング(gathering)され、サブタイトルPESパケット2012,2014が構成される。それぞれのPESパケット2012,2014の開始部分を構成するサブタイトルデータ2002,2006は、当該PESパケット2012,2014のヘッダを構成する。
それぞれのサブタイトルPESパケット2012,2014は、ディスプレイセット2022,2024を構成する。1つのディスプレイセット2022は、複数枚の構成ページ(composition page)2042,2044及び補助ページ2046を含む。1枚の構成ページ2042は、ページ構成セグメント(page composition segment)2052、領域構成セグメント(region composition segment)2054、CLUT定義セグメント(CLUT definition segment)2056及び客体データセグメント(object data segment)2058を含む。1枚の補助ページ2046は、CLUT定義セグメント2062及び客体データセグメント2064を含む。
図21は、DVB通信方式による構成ページの構造の一例を図示している。
構成ページ2100は、1つのディスプレイ定義セグメント2110、1つのページ構成セグメント2120、一つ以上の領域構成セグメント2130,2140、一つ以上のCLUT定義セグメント2150,2160、一つ以上の客体データセグメント2170,2180及び1つのディスプレイセット・セグメント終了領域(end of display set segment)2190を含む。構成ページ2100は、領域構成セグメント、CLUT定義セグメント、客体データセグメントを複数個ずつ含んでもよい。
ページ識別子が「1」である構成ページ2100を構成するセグメント2110,2120,2130,2140,2150,2160,2170,2180,2190に係わるページ識別子「page id」は、いずれも「1」に定義される。それぞれの領域構成セグメント2130,2140に係わる領域識別子「region id」は、領域別インデックスで設定され、それぞれのCLUT定義セグメント2150,2160に係わるCLUTテーブル識別子「CLUT id」は、CLUTテーブル別にインデックスに設定される。また、それぞれの客体データセグメント2170,2180に係わる客体識別子「object id」は、客体データ別インデックスに設定される。
以上、ディスプレイ定義セグメント、ページ構成セグメント、領域構成セグメント、CLUT定義セグメント、客体データセグメント及びディスプレイセット・セグメント終了のシンタックスは、サブタイトル・セグメントの形態で符号化され、サブタイトルPESパケットのペイロード領域に挿入してもよい。
表14は、DVBサブタイトルPESパケット内の「PES_packet_data_bytes」フィールドに保存される「PES_data_field」フィールドのシンタックスを示している。サブタイトルPESパケットに保存されるサブタイトルデータは、「PES_data_field」フィールドの形態で符号化される。
Figure 0005721732
「data_identifier」フィールドは、現在PESパケットデータがDVBサブタイトルデータであることを示すように、「0x20」値に固定される。「subtitle_stream_id」フィールドは、現在サブタイトル・ストリームの識別子を含み、「0x00」値に固定される。「end_of_PES_data_field_marker」フィールドは、現在データフィールドがPESデータフィールド終了フィールドであるか否かを示す情報を含み、値「11111111」に固定される。サブタイトル・セグメント「subtitling_segment」フィールドのシンタックスは、表15の通りである。
Figure 0005721732
「sync_byte」フィールドは、「0000 1111」値に暗号化される。「segment_length」フィールド値を基にセグメントが復号化されるとき、同期化いかんを確認し、伝送パケットの遺失(loss)いかんを判断するために、「sync_byte」フィールドが利用される。
「segment_type」フィールドは、セグメントデータ・フィールドに含まれたデータ種類に係わる情報を含む。表16は、「segment_type」フィールドによって定義されるセグメントタイプを示している。
Figure 0005721732
「page_id」フィールドは、「subtitling_segment」フィールドに含まれたデータのサブタイトル・サービスの識別子を含む。サブタイトル叙述子で、構成ページ識別子に設定された「page_id」値が割り当てられたサブタイトル・セグメントには、1つのサブタイトル・サービスに係わるサブタイトルデータが含まれる。また、サブタイトル叙述子で、補助ページ識別子に設定された「page_id」値が割り当てられたサブタイトル・セグメントには、複数個のサブタイトル・サービスが共有されるデータを含む。
「segment_length」フィールドは、後続する「segment_data_field」フィールドに含まれたバイト数情報を含む。「segment_data_field」フィールドは、セグメントのペイロード領域であり、ペイロード領域のシンタックスは、セグメントタイプによって変わることがある。セグメントタイプ別ペイロード領域のシンタックスは、以下、表17,18,20,25,26及び28で例示される。
表17は、ディスプレイ定義セグメント「display_definition_segment」のシンタックスを図示している。
Figure 0005721732
ディスプレイ定義セグメントは、サブタイトル・サービスの解像度を定義することができる。
「dds_version_number」フィールドは、ディスプレイ定義セグメントのバージョン情報を含む。「dds_version_number」フィールド値のバージョン番号は、ディスプレイ定義セグメントの内容が変更されるたびに、モジュロ(modulo)16単位で増加する。
「display_window_flag」フィールド値が「1」に設定される場合、ディスプレイ定義セグメントと関連したDVBサブタイトル・ディスプレイセットは、「display_width」フィールド及び「display_height」フィールドで定義されたディスプレイサイズ内で、サブタイトルが表示されるウインドウ領域を定義する。この場合、ディスプレイ定義セグメントで、「display_window_horizontal_position_minimum」フィールド、「display_window_horizontal_position_maximum」フィールド、「display_window_vertical_position_minimum」フィールド及び「display_window_vertical_position_maximum」フィールド値によって、ディスプレイ内の現在ウインドウ領域のサイズと位置とが定義される。
「display_window_flag」フィールド値が「0」に設定される場合、現在DVBサブタイトル・ディスプレイセットは、「display_width」フィールド及び「display_height」フィールドで定義されたディスプレイサイズ内で、ウインドウ領域なしに直接表現される。
「display_width」フィールド及び「display_height」フィールドは、それぞれディスプレイサイズの最大水平幅情報及び最大垂直高さ情報を含み、それぞれフィールド値が0〜4095の範囲で設定される。
「display_window_horizontal_position_minimum」フィールドは、ディスプレイ内で、現在ウインドウ領域の水平最小位置情報を含む。すなわち、ディスプレイの左側端ピクセルを基準に、DVBサブタイトルディスプレイ・ウインドウの左側端ピクセル値が定義される。
「display_window_horizontal_position_maximum」フィールドは、ディスプレイ内で、現在ウインドウ領域の水平最大位置情報を含む。すなわち、ディスプレイの左側端ピクセルを基準に、DVBサブタイトルディスプレイ・ウインドウの右側端ピクセル値が定義される。
「display_window_vertical_position_minimum」フィールドは、ディスプレイ内で、現在ウインドウ領域の垂直最小ピクセル位置を含む。すなわち、ディスプレイの上端ラインを基準に、DVBサブタイトルディスプレイ・ウインドウの最上端ライン値が定義される。
「display_window_vertical_position_maximum」フィールドは、ディスプレイ内で、現在ウインドウ領域の垂直最大ピクセル位置情報を含む。すなわち、ディスプレイの上端ラインを基準に、DVBサブタイトルディスプレイ・ウインドウの最下端ライン値が定義される。
表18は、ページ構成セグメント「page_composition_segment」のシンタックスを図示している。
Figure 0005721732
「page_time_out」フィールドは、ページが有効ではなく、スクリーン上から消えるまでの期間に係わる情報を含み、秒(second)単位で設定される。「page_version_number」フィールド値は、ページ構成セグメントのバージョン番号を示し、ページ構成セグメントの内容が変更されるたびに、モジュロ16単位で増加する。
「page_state」フィールドは、ページ構成セグメントで記述されたサブタイトル・ページ・インスタンスの状態(page state)に係わる情報を含む。「page_state」フィールド値は、ページ構成セグメントによるサブタイトルページを表示するためのデコーダの動作状態(status)を示すこともできる。表19は、「page_state」フィールド値の内容を示している。
Figure 0005721732
「processed_length」フィールドは、デコーダによって処理される「while」ループ(loop)内に含まれたバイト数情報を含む。「region_id」フィールドは、ページ内の領域に係わる固有識別子を含む。識別されたそれぞれの領域は、ページ構成で定義されたページインスタンスにディスプレイされる。それぞれの領域は、「region_vertical_address」フィールド値の昇順(ascending order)によってページ構成セグメントに収録される。
「region_horizontal_address」フィールドは、ページ内の当該領域の上端左側ピクセルが表示される水平ピクセルの位置情報を含む。「region_vertical_address」フィールドは、ページ内の当該領域の上端左、すなわち、ピクセルが表示される垂直ラインの位置情報を定義する。
表20は、領域構成セグメント「region_composition_segment」のシンタックスを図示している。
Figure 0005721732
Figure 0005721732
「region_id」フィールドは、現在領域の固有識別子を含む。
「region_version_number」フィールドは、現在領域のバージョン情報を含む。(i)「region_fill_flag」フィールド値が「1」に設定された場合、(ii)現在領域のCLUTテーブルが変更された場合、(iii)現在領域が長さが0ではない客体目録(object list)を具備する場合のうち、1つの条件が真である場合、現在領域のバージョンが増加する。
「region_fill_flag」フィールド値が「1」に設定される場合、「region_n−bit_pixel_code」フィールドで定義された色相で、現在領域の背景が充填される。
「region_width」フィールド及び「region_height」フィールドは、それぞれ現在領域の水平幅情報及び垂直高さ情報を含み、ピクセル単位で設定される。
「region_level_of_compatibility」フィールドは、現在領域を復号化するために、デコーダが具備しなければならない最小限のCLUTタイプ情報を含み、表21によって定義される。
Figure 0005721732
デコーダが指定された最小限のCLUTタイプを支援することができない場合、さらに低いレベルのCLUTタイプを要求する他の領域は、表示されもするが、現在領域は、表示されない。
「region_depth」フィールドは、領域のピクセル深さ情報を含み、表22によって定義される。
Figure 0005721732
「CLUT_id」フィールドは、現在領域に適用されるCLUTテーブルの識別子を含む。「region_8−bit_pixel−code」フィールド値は、「region_fill_flag」フィールドが設定された場合、現在領域の背景色として適用される8ビットCLUTテーブルの色相エントリを定義する。類似した方式で、「region_4−bit_pixel−code」フィールド値及び「region_2−bit_pixel−code」フィールド値は、それぞれ「region_fill_flag」フィールドが設定された場合、現在領域の背景色として適用される4ビットCLUTテーブルの色相エントリ、及び2ビットCLUTテーブルの色相エントリを定義する。
「object_id」フィールドは、現在領域で見られる客体の識別子を含み、「object_type」フィールドは、表23で定義された客体タイプ情報を含む。客体タイプは、基底客体または構成客体、ビットマップ、文字または文字列に分類されもする。
Figure 0005721732
「object_provider_flag」フィールドは、表24によって、客体を提供する方式を示している。
Figure 0005721732
「object_horizontal_position」フィールドは、現在領域内の客体データが表示される相対的位置であり、現在客体の上端左側ピクセルが表示される水平ピクセルの位置情報を含む。すなわち、現在領域の左側端を基準に、現在客体の左側上端ピクセルまでのピクセル数が定義される。
「object_vertical_position」フィールドは、現在領域内の客体データが表示される相対的位置であり、現在客体の上端左側ピクセルが表示される垂直ラインの位置情報を含む。すなわち、現在領域の上端を基準に、現在客体までの上端ラインまでのラインの本数が定義される。
「foreground_pixel_code」フィールドは、文字の前景色相として選択された8ビットCLUTテーブルの色相エントリ情報を含む。「background_pixel_code」フィールドは、文字の背景色相として選択された8ビットCLUTテーブルの色相エントリ情報を含む。
表25は、CLUT定義セグメント「CLUT_definition_segment」のシンタックスを図示している。
Figure 0005721732
「CLUT−id」フィールドは、ページ内でCLUT定義セグメントに含まれたCLUTテーブルの識別子を含む。「CLUT_version_number」フィールドは、CLUT定義セグメントのバージョン番号を示し、現在セグメントの内容が変更される場合、バージョン番号がモジュロ16単位で増加する。
「CLUT_entry_id」フィールドは、CLUTエントリの固有識別子を含み、最初の識別子値は、0である。「2−bit/entry_CLUT_flag」フィールド値が「1」に設定される場合、現在CLUTテーブルは、2ビットエントリから構成されるが設定され、類似した方式で、「4−bit/entry_CLUT_flag」フィールド値または「8−bit/entry_CLUT_flag」フィールド値が「1」に設定される場合、現在CLUTテーブルは、4ビットエントリまたは8ビットエントリとして構成設定される。
「full_range_flag」フィールド値が「1」に設定される場合、「Y_value」フィールド、「Cr_value」フィールド、「Cb_value」フィールド及び「T_value」フィールドに対して、フル8ビット解像度が適用される。
「Y_value」フィールド、「Cr_value」フィールド及び「Cb_value」フィールドは、それぞれ入力に対するCLUTテーブルのY出力情報、Cr出力情報及びCb出力情報を含む。
「T_value」フィールドは、入力に対するCLUTテーブルの透明度情報を含む。「T_value」フィールド値が「0」である場合、透明度がないことを意味する。
表26は、客体データセグメント「object_data_segment」のシンタックスを図示している。
Figure 0005721732
Figure 0005721732
「object_id」フィールドは、ページ内の現在客体に係わる識別子を含む。「object_version_number」フィールドは、現在客体データセグメントのバージョン情報を含み、セグメントの内容が変更されるたびに、バージョン番号が「モジュロ16」単位で増加する。
「object_coding_method」フィールドは、客体の符号化方法情報を含む。表27によって、客体は、ピクセルまたは文字列で符号化可能である。
Figure 0005721732
「non_modifying_colour_flag」フィールド値が「1」に指定された場合、CLUTテーブルの入力値「1」が修正されない「非修正色相」であることを示す。客体ピクセルに非修正色相が割り当てられれば、基底領域の背景または客体のピクセルは、修正されない。
「top_field_data_block_length」フィールドは、最上端フィールドに係わる「pixel−data_sub−blocks」フィールドに含まれたバイト数情報を含む。「bottom_field_data_block_length」フィールドは、最下端フィールドに係わる「data_sub−block」フィールドに含まれたバイト数情報を含む。それぞれの客体で、最上端フィールドのピクセルデータ・サブブロックと最下端フィールドのピクセルデータ・サブブロックは、同じ客体データセグメントを介して定義される。
「8_stuff_bits」フィールドは、「0000 0000」に固定される。「number_of_codes」フィールドは、文字列内の文字コード数情報を含む。「character_code」フィールド値は、サブタイトル叙述子で識別される文字コード内のインデックスを利用して文字を設定する。
表28は、ディスプレイセット・セグメント終了領域(end_of_display_set_segment)のシンタックスを図示している。
Figure 0005721732
「end_of_display_set_segment」フィールドは、デコーダに、ディスプレイセットの伝送が完了したことを明確に知らせるために利用される。「end_of_display_set_segment」フィールドは、それぞれのディスプレイセットに係わり、最後の客体データセグメント「object_data_segment」フィールドの次に挿入可能である。また「end_of_display_set_segment」フィールドは、1つのサブタイトル・ストリーム内で、それぞれのサブタイトル・サービスを区分するためにも利用される。
図22は、DVB通信方式によるサブタイトル処理モデルのフローチャートを図示している。
DVB通信方式によるサブタイトル処理モデル2200によれば、サブタイトルデータが含まれたTS 2210が入力され、MPEG−2 TSパケット(transport stream packet)に分解され、PIDフィルタ(PID filter)を介して、MPEG−2TSパケット中で、サブタイトルに対応するPID情報が割り当てられたサブタイトル用TSパケット2212,2214,2216のみ抽出され(段階2220)、トランスポート・バッファ(transport buffer)に出力される。段階2230で、トランスポート・バッファは、サブタイトル用TSパケット2212,2214,2216から、サブタイトルPESパケットを構成して抽出する。それぞれのサブタイトルPESパケットは、サブタイトルデータが含まれたPESペイロード及びPESヘッダから構成される。段階2240で、サブタイトル復号化部(subtitle decoder)が、トランスポート・バッファから出力されたサブタイトルPESパケットを入力され、画面上に表示されるサブタイトルを構成する。
サブタイトル復号化段階2240は、前処理及びフィルタリング(pre-processor and filters)段階(2250)、符号化データバッファリング(coded data buffer)段階(2260)、サブタイトル処理(sutitle processing)段階(2270)及び構成バッファリング(composition buffer)段階(2280)に細分化される。
例えば、ユーザによって、PMT内のページID情報「page_id」が「1」であるページが選択された場合を仮定する。前処理及びフィルタリング段階(2250)は、PESペイロード(PES payload)内の「page_id」が「1」である構成ページ(composition page)を、ディスプレイ定義セグメント、ページ構成セグメント、領域構成セグメント、CLUT定義セグメント及び客体データセグメントに分解する。分解されたセグメントのうち、一つ以上の客体データセグメント内の一つ以上の客体データは、符号化データバッファに保存され(段階2260)、ディスプレイ定義セグメント、ページ構成セグメント、一つ以上の領域構成セグメント及び一つ以上のCLUT定義セグメントは、構成バッファに保存される(段階2280)。
サブタイトル処理段階(2270)は、符号化データバッファから、一つ以上の客体データを入力され、構成バッファに保存されたディスプレイ情報、ページ構成情報、領域構成情報及びCLUT情報に基づいて、一つ以上の客体から構成されたサブタイトルを生成する。
サブタイトル復号化段階(2240)で構成されたサブタイトルは、ピクセルバッファ(pixel buffer)に保存される(段階2290)。
図23、図24及び図25は、符号化データバッファ(coded data buffer)、構成バッファ(composition buffer)、ピクセルバッファ(pixel buffer)に保存されたデータを図示している。
符号化データバッファ2300に、客体識別子(object id)が1である客体データ2310、及び客体識別子が2である客体データ2320が保存される。
構成バッファ2400に、領域識別子(region id)が1である第1領域2410に係わる情報、領域識別子が「2」である第2領域2420に係わる情報、及び第1領域2410及び第2領域2420から構成されたページ構成に係わる情報2430が保存される。
サブタイトル処理段階(2270)を介して、符号化データバッファ2300に保存された客体データ2310,2320、及び構成バッファ2400に保存された第1領域2410、第2領域2420及びページ2430に係わる情報に基づいて、領域別サブタイトル客体2510,2520が配置されたサブタイトルページ2500がピクセルバッファに保存される。
以下、表14ないし表28及び図16ないし図25を参照して説明したDVB通信方式によるサブタイトルを基に、サブタイトルの三次元再生のための第2実施形態によるマルチメディア・ストリーム生成装置100、及び第2実施形態によるマルチメディア・ストリーム受信装置200の動作について、以下、表29ないし34及び図26ないし図29を参照して説明する。
第2実施形態によるマルチメディア・ストリーム生成装置100は、DVBサブタイトルの三次元再生のための情報を、サブタイトルPESパケットに挿入してもよい。第2実施形態によるDVBサブタイトルの三次元再生のための情報は、サブタイトルデプスに係わる情報であり、デプス、視差、座標などのオフセット情報を多様な形態で利用することができる。
具体的な実施形態で、第2実施形態によるマルチメディア・ストリーム生成装置100のプログラム符号化部110は、サブタイトルPESパケット内の構成ページ内のページ構成セグメントに、DVBサブタイトルの三次元再生のための情報を挿入してもよい。また、第2実施形態によるプログラム符号化部110は、サブタイトルのデプスを定義するためのセグメントを新たに定義し、PESパケットに挿入してもよい。
表29及び30はそれぞれ、第2実施形態によるプログラム符号化部110によって、DVBサブタイトルのデプス情報が含まれるように変形された、ページ構成セグメントのシンタックスを例示している。
Figure 0005721732
第2実施形態によるプログラム符号化部110は、表18の基本「page_composition_segment()」内のwhileループ内の「reserved」フィールドに、表29のように、「region_offset_direction」フィールド及び「region_offset」フィールドを追加して挿入してもよい。例えば、第2実施形態によるプログラム符号化部110は、「reserved」フィールドの8ビットを代替し、「region_offset_direction」フィールドに1ビットを割り当て、「region_offset」フィールドに7ビットを割り当てることができる。
「region_offset_direction」フィールドは、現在領域のオフセットの方向性情報を含んでもよい。「region_offset_direction」フィールド値が「0」である場合、現在領域のオフセットが正の方向であることが設定され、「1」である場合、負の方向であることが設定される。
「region_offset」フィールドは、現在領域のオフセット情報を含んでもよい。二次元用サブタイトルを利用し、左視点サブタイトルまたは右視点サブタイトルを生成するために、「region_horizontal_address」フィールド値によって、サブタイトル領域であると定義された現在領域のx座標値のピクセル変位が「region_offset」フィールド値に設定されてもよい。
Figure 0005721732
第2実施形態によるプログラム符号化部110は、表29の変形されたページ構成セグメントに、「region_offset_based_position」フィールドを追加することができる。表18の基本的なページ構成セグメント内の8ビットの「reserved」フィールドを代替し、1ビットの「region_offset_direction」フィールド、6ビットの「region_offset」フィールド、及び1ビットの「region_offset_based_position」フィールドが割り当てられる。
「region_offset_based_position」フィールドは、「region_offset」フィールドのオフセット値が、基本平面を基準に適用されているか、またはビデオのデプスを基準として適用されているかを示すためのフラッグ情報を含んでもよい。
表31、32、33及び34は、第2実施形態によるプログラム符号化部110が、サブタイトルのデプスを定義するために、新たに定義したデプス定義セグメントである「Depth_Definitioin_Segment」フィールドのシンタックスを図示している。
第2実施形態によるプログラム符号化部110は、表15の「subtitling_segment」フィールド内の「segment_data_field」フィールドに、「Depth_Definition_Segment」フィールドなどのサブタイトルのオフセットと関連した情報を、追加的なセグメント形態で挿入してもよい。これによって、第2実施形態によるプログラム符号化部110は、サブタイトルタイプの一つとして、デプス定義セグメントを追加することもできる。例えば、第2実施形態によるマルチメディア・ストリーム生成装置100が、表16の「subtitle_type」フィールド値が「0x40」〜「0x7F」である、サブタイトルタイプフィールドの保留領域(reserved)における1つの値を利用し、デプス定義セグメントを追加して定義することにより、DVBサブタイトルシステムとの下位互換性が保証される。
第2実施形態によるマルチメディア・ストリーム生成装置100は、ページ単位でサブタイトルのオフセット情報を定義するデプス定義セグメントを新たに生成することができる。デプス定義セグメント「Depth_Definition_Segment」フィールドのシンタックスを、表31及び32を介してそれぞれ例示する。
Figure 0005721732
「page_offset_direction」フィールドは、現在ページに係わるオフセット方向性情報を含んでもよい。「page_offset」フィールドは、現在ページについてのオフセット情報を含んでもよい。すなわち、「page_offset」フィールド値は、現在ページのx座標値のピクセル変位を示すことができる。
また、第2実施形態によるプログラム符号化部110は、デプス定義セグメントに、「page_offset_based_position」フィールドを追加することができる。「page_offset_based_position」フィールドは、「page_offset」フィールドのオフセット値が、基本平面を基準に適用されているか、またはビデオのデプスを基準として適用されているかを示すためのフラッグ情報を含んでもよい。
表31及び32のデプス定義セグメントによれば、現在ページに係わって、同じオフセットが適用される。
また、第2実施形態によるマルチメディア・ストリーム生成装置100は、領域単位でサブタイトルのオフセット情報を定義するデプス定義セグメントを新たに生成することができる。この場合、「Depth_Definition_Segment」フィールドのシンタックスが、表33及び34でそれぞれ例示される。
Figure 0005721732
表33及び34のデプス定義セグメント内の「page_id」フィールド及び「region_id」フィールドは、ページ構成セグメントの同一フィールドを参照することができる。第2実施形態によるマルチメディア・ストリーム生成装置100は、新たに定義したデプス定義セグメント内で、forループを介して、現在ページ内の領域別に、サブタイトルのオフセット情報を設定することができる。すなわち、「region_id」フィールドは、現在領域の識別情報を含み、「region_id」フィールド値によって、「region_offset_direction」フィールド、「region_offset」フィールド及び「region_offset_based_position」フィールドが別途に設定される。従って、サブタイトルの領域別に、x座標のピクセル変位が別途に設定される。
第2実施形態によるマルチメディア・ストリーム受信装置200は、受信されたTSをパージングして構成ページを抽出し、構成ページ内のページ構成セグメント、領域定義セグメント、CLUT定義セグメント、客体データセグメントなどのシンタックスを判読し、これを基に、サブタイトルを構成することができる。また、第2実施形態によるマルチメディア・ストリーム受信装置200は、表26ないし34を参照して、開示されたサブタイトルの三次元再生のための情報を利用し、サブタイトルのページまたは領域のデプス感を調節することができる。以下、図26及び図27を参照して、サブタイトルのページ及び領域のデプス感を調節する方法について説明する。
図26は、第2実施形態によるサブタイトルの領域別デプス感調節方式を図示している。
一実施形態によるサブタイトル復号化部2600は、図22を参照して説明したDVB通信方式によるサブタイトル処理モデルにおいて、サブタイトル復号化段階(2240)を変形して具現したモデルである。また、一実施形態によるサブタイトル復号化部2600は、第2実施形態によるマルチメディア・ストリーム受信装置200の復号化部230及び再生部240が、サブタイトルを復元し、三次元サブタイトルを構成する動作を行う細部構成要素として理解することもできる。
一実施形態によるサブタイトル処理部2600は、前処理及びフィルタリング部(pre-processor and filter)2610、符号化データバッファ(coded data buffer)2620、高級サブタイトル処理部(enhanced subtitle processing)2630及び構成バッファ(composition buffer)2640を含む。前処理及びフィルタリング部2610を介して、サブタイトルPESペイロードにおいて客体データは、符号化データバッファ2630に出力され、領域定義セグメント、CLUT定義セグメント、ページ構成セグメント及び客体データセグメントなどのサブタイトル構成情報は、構成バッファ2640に出力されもする。一実施形態によれば、ページ構成セグメントに、表29及び30で例示された領域別デプス情報が収録される。
例えば、構成バッファ2640に、領域識別子が1である第1領域2642に係わる情報、領域識別子が2である第2領域2644に係わる情報が保存され、領域別オフセット情報(offset value per region)が含まれたページ構成2646に係わる情報が保存されもする。
高級サブタイトル処理部2630は、符号化データバッファ2620の客体データ及び構成バッファ2640の構成情報を利用してサブタイトルページを構成し、領域ごとにオフセット情報によって移動させることによって、サブタイトルのデプス感を調節することができる。例えば、二次元サブタイトルページ2650には、第1領域2652及び第2領域2654に、それぞれ第1客体及び第2客体が表示される。一実施形態による構成バッファ2640に保存されたページ構成2646内の領域別オフセット情報に基づいて、第1領域2652及び第2領域2654が当該オフセットほど移動される。
すなわち、左視点映像のためのサブタイトルページ2660で、第1領域2652及び第2領域2654が、それぞれ第1領域オフセット(offset for region 1)及び第2領域オフセット(offset for region 2)ほど正の方向に移動し、第1左視点領域2662及び第2左視点領域2664に、それぞれ第1客体及び第2客体が表示されもする。類似した方式で、右視点映像のためのサブタイトルページ2670で、第1領域2672及び第2領域2674が、それぞれ第1領域オフセット及び第2領域オフセットほど負の方向に移動し、第1右視点領域2672及び第2右視点領域2674に、それぞれ第1客体及び第2客体が表示されもする。
デプス感が調節されるように、オフセットが適用された三次元サブタイトルページ2660,2670は、ピクセルバッファに保存されもする。
図27は、第2実施形態によるサブタイトルのページ別デプス感調節方式を図示している。
一実施形態によるサブタイトル処理部2700は、前処理及びフィルタリング部(pre-processor and filter)2710、符号化データバッファ(coded data buffer)2720、高級サブタイトル処理部(enhanced subtitle processor)2730及び構成バッファ(composition buffer)2740を含む。前処理及びフィルタリング部2710を介して、サブタイトルPESペイロードにおいて客体データは、符号化データバッファ2730に出力され、領域定義セグメント、CLUT定義セグメント、ページ構成セグメント及び客体データセグメントなどのサブタイトル構成情報は、構成バッファ2740に出力されもする。一実施形態によれば、前処理及びフィルタリング部2710により、表31ないし34で例示されたデプス定義セグメントのページ別デプスまたは領域別デプス情報が構成バッファ2740に伝えられて保存されもする。
例えば、構成バッファ2740に、領域識別子が1である第1領域2742に係わる情報、領域識別子が2である第2領域2744に係わる情報が保存され、表31及び32で例示されたデプス定義セグメントのページ別オフセット情報(offset value per page)が含まれたページ構成2746に係わる情報が保存されもする。
一実施形態による高級サブタイトル処理部2730は、符号化データバッファ2720の客体データ及び構成バッファ2740の構成情報を利用し、サブタイトルページを構成し、ページ別オフセットによってページを移動させることによって、サブタイトルのデプス感を調節することができる。例えば、二次元サブタイトルページ2750には、第1領域2752及び第2領域2754に、それぞれ第1客体及び第2客体が表示される。一実施形態による構成バッファ2740に保存されたページ構成2746内のページ別オフセット情報に基づいて、第1領域2752及び第2領域2754が当該オフセットほど移動可能である。
すなわち、左視点映像のためのサブタイトルページ2760は、二次元サブタイトルページ2750の位置から、正のx軸方向に、現在ページオフセット(offset for page)ほど移動する。これによって、第1領域2752及び第2領域2754も、正のx軸方向に、現在ページオフセット(offset for page)ほど移動し、第1左視点領域2762及び第2左視点領域2764に、それぞれ第1客体及び第2客体が表示されもする。
類似した方式で、右視点映像のためのサブタイトルページ2770は、二次元サブタイトルページ2750の位置から、負のx軸方向に、現在ページオフセット(offset for page)ほど移動する。これによって、第1領域2752及び第2領域2754も、負のx軸方向に、現在ページオフセット(offset for page)ほど移動し、第1右視点領域2772及び第2右視点領域2774に、それぞれ第1客体及び第2客体が表示されもする。
また、表33及び34で例示された一実施形態によるデプス定義セグメントの領域別オフセット情報が、構成バッファ2740に保存されれば、一実施形態による高級サブタイトル処理部2730は、領域別にオフセットが適用されたサブタイトルページを生成し、図26を参照して説明した左視点映像のためのサブタイトルページ2660、及び右視点映像のためのサブタイトルページ2670と類似した結果物を生成することができる。
第2実施形態によるマルチメディア・ストリーム生成装置100は、DVBサブタイトルPESパケットに、サブタイトルデータ及びサブタイトル三次元再生情報を挿入して伝送することができる。サブタイトル三次元再生情報は、三次元サブタイトルの安定した再生のために、コンテンツ提供者によって設定される。これによって、第2実施形態によるマルチメディア・ストリーム受信装置200は、DVB方式によって受信されたマルチメディアのデータストリームを受信し、DVBサブタイトルデータ及びDVBサブタイトル三次元再生情報を抽出し、三次元DVBサブタイトルを構成することができる。また、第2実施形態によるマルチメディア・ストリーム受信装置200は、DVBサブタイトル三次元再生情報に基づいて、三次元ビデオと三次元サブタイトルとのデプスを調節することによって、三次元ビデオ及びサブタイトル間のデプス逆転現象を含んで、視聴者に疲労感を誘発する問題点を防止することができるので、これによって、視聴者が安定した環境で三次元ビデオを鑑賞することができる。
以下、表35ないし表48及び図28ないし図34を参照して、第3実施形態によるケーブル通信方式によるサブタイトルの三次元再生のためのマルチメディア・ストリームの生成及び受信について説明する。
表35は、ケーブル通信方式によるサブタイトルメッセージ・テーブル「subtitle message」のシンタックスを図示している。
Figure 0005721732
Figure 0005721732
「table_ID」フィールドは、現在「subtitle_message」テーブルのテーブル識別子を含む。
「section_length」フィールドは、「section_length」フィールドから「CRC_32」フィールドまでのバイト数情報を含む。「table_ID」フィールドから「CRC_32」フィールドまでの「subtitle_message」テーブルの最大長は、1キロバイト、すなわち1024バイトに該当する。「simple_bitmap()」フィールドのサイズによって「subtitle_message」テーブルのサイズが1キロバイトを超える場合、「subtitle_message」テーブルは、セグメント構造に分割される。分割されたそれぞれの「subtitle_message」テーブルのサイズは、1キロバイトに固定され、1キロバイトにならない最後の「subtitle_message」テーブルは、stuffing叙述子(stuffing descriptor)を利用して、残余部分が補充される。表36は、stuffing叙述子「stuffing_descriptor()」フィールドのシンタックスを図示している。
Figure 0005721732
「stuffing_string_lenght」フィールドは、スタッフィング・ストリングの長さ情報を含む。「suffing_string」フィールドは、スタッフィング・ストリングを含み、デコーダによって復号化されない。
表35の「subtitle message」テーブルにおいて、「ISO_639_language_code」フィールドからの「simple_bitmap()」フィールドが、「message_body()」セグメントから構成される。選択的には、「subtitle_message」テーブルに「descriptor()」フィールドが存在する場合、「message_body()」セグメントは、「ISO_639_language_code」フィールドから「descriptor()」フィールドまで含む。セグメント総合の最大長は、4メガバイトである。
表35の「subtitle message()」テーブルの「segmentation_overlay_included」フィールドは、現在「subtitle_message()」テーブルがセグメントから構成されたか否かに係わる情報を含む。「table_extension」フィールドは、デコーダが「message_body()」セグメントを識別できるように割り当てられる固有情報を含む。「last_segment_number」フィールドは、サブタイトルの全体メッセージ映像を完成するための最後のセグメントの識別情報を含む。「segment_number」フィールドは、現在セグメントの識別番号を含む。セグメントの識別情報は、0〜4095の範囲で割り当てられる。
表35の「subtitle_message()」テーブルの「protocol_version」フィールドは、既存プロトコル・バージョンと根本的に構造が変更される場合、新規プロトコル・バージョン情報を含む。「ISO_639_language_code」フィールドは、所定規格による言語コード情報を含む。「pre_clear_display」フィールドは、現在サブタイトルテキストを再生する前に、全体スクリーンを透明に処理するか否かに係わる情報を含む。「immediate」フィールドは、現在サブタイトルテキストを「display_in_PTS」フィールド値による再生視点ではない、受信後すぐに画面上に再生するか否かに係わる情報を含む。
「display_standard」フィールドは、サブタイトルが再生されるディスプレイ規格情報を含む。表37は「display_standard」フィールドの内容を図示している。
Figure 0005721732
すなわち、「display_standard」フィールドによって、ディスプレイ規格が、「解像度720x480及び秒当たり30フレーム」、「解像度720x576及び秒当たり25フレーム」、「解像度1280x720及び秒当たり60フレーム」及び「解像度1920x1080及び秒当たり60フレーム」のうち、いずれのディスプレイ規格が現在サブタイトルに適するか設定される。
表35の「subtitle_message()」テーブルの「display_in_PTS」フィールドは、サブタイトルが再生されるプログラム参照時間情報を含む。このような絶対的表現方式による時間情報をインキュータイム(in-cue time)という。「immediate」フィールドに基づいて、サブタイトルが直ちに画面に再生される場合、すなわち「immediate」フィールド値が「1」に設定された場合、デコーダは、「display_in_PTS」フィールド値を利用しない。
現在「subtitle_message()」テーブル以後に再生されるインキュータイム情報を有した「subtitle_message()」テーブルがデコーダに受信されれば、デコーダは、再生待機中であるサブタイトル・メッセージを廃棄することができる。「immediate」フィールド値が「1」に設定された場合、再生待機中であるあらゆるサブタイトル・メッセージが廃棄される。もしデコーダによって、サービスのためのPCR情報に不連続現象が発生すれば、再生待機中であるあらゆるサブタイトル・メッセージが廃棄される。
「display_duration」フィールドは、サブタイトル・メッセージが表示される持続時間を、TVのフレーム番号で表示した情報を含む。従って、「display_duration」フィールド値は、「display_standard」フィールドで定義されたフレームレートと関連する。「display_duration」フィールド値の持続時間によって、インキュータイムに持続時間が加えられた時間を意味するアウトキュータイム(out-cue time)が決定される。アウトキューフレームタイムに達すれば、インキュータイムに画面に表示されたサブタイトル・ビットマップは消される。
「subtitle_type」フィールドは、現在サブタイトルデータのフォーマット情報を含む。表38によれば、「subtitle_type」フィールド値が1である場合、現在サブタイトルデータは、シンプルビットマップ・フォーマットであることを意味する。
Figure 0005721732
「block_length」フィールドは、「simple_bitmap()」フィールドまたは「reserved()」フィールドの長さ情報を含む。
「simple_bitmap()」フィールドは、サブタイトルのビットマップ・フォーマット情報を含む。まず、図28を参照して、ビットマップ・フォーマットの構造について述べる。
図28は、ケーブル放送方式によるサブタイトルのビットマップ・フォーマットの構成要素を図示している。
ビットマップ・フォーマットのサブタイトルは、一つ以上の圧縮ビットマップイメージから構成される。それぞれのビットマップイメージは、選択的に四角形の背景フレームを有することができる。例えば、第1ビットマップ2810は、背景フレーム2800を有する。座標系の基準点(0,0)が、左側上端に設定される場合、第1ビットマップ2810の座標及び背景フレーム2800の座標間に、以下の4種の関係式が成立しうる。
1.背景フレーム2800の上端水平座標値(FTH)は、第1ビットマップ2810の上端水平座標値(BTH)より小さいか、あるいは同じである(FTH≦BTH)。
2.背景フレーム2800の上端垂直座標値(FTV)は、第1ビットマップ2810の上端垂直座標値(BTV)より小さいか、あるいは同じである(FTV≦BTV)。
3.背景フレーム2800の下端水平座標値(FBH)は、第1ビットマップ2810の下端水平座標値(BBH)より大きいか、あるいは同じである(FBH≧BBH)。
4.背景フレーム2800の下端垂直座標値(FBV)は、第1ビットマップ2810の下端垂直座標値(BBV)より大きいか、あるいは同じである(FBV≧BBV)。
ビットマップ・フォーマットのサブタイトルは、アウトライン2820とドロップシャドー2830とを有することができる。アウトライン2820は、0〜15の範囲で、多様な厚みに定義される。ドロップシャドー2830は、右側シャドー(Sr:shadow right)及び下端シャドー(Sb:shadow bottom;Sb)に定義され、右側シャドーSr及び下端シャドーSbがそれぞれ0〜15の範囲で、多様な厚みに定義される。
表39は、ビットマップ・フォーマット情報「simple_bitmap()」フィールドのシンタックスを図示している。
Figure 0005721732
Figure 0005721732
「simple_bitmap()」フィールドでは、ビットマップの座標値(bitmap_top_H_coordinate,bitmap_top_V_coordinate,bitmap_bottom_H_coordinate,bitmap_bottom_V_coordinate)が設定される。
また「simple_bitmap()」フィールドでは、「background_style」フィールドに基づいて、背景フレームが存在するならば、背景フレームの座標値(frame_top_H_coordinate,frame_top_V_coordinate,frame_bottom_H_coordinate,frame_bottom_V_coordinate)が設定される。
また、「simple_bitmap()」フィールドでは、「outline_style」フィールドに基づいて、アウトラインが存在するならば、アウトラインの厚み値(outline_thickness)が設定される。また、「outline_style」フィールドに基づいて、ドロップシャドーが存在するならば、ドロップシャドーの右側シャドー及び下端シャドーの厚み値(shadow_right,shadow_bottom)が設定される。
「simple_bitmap()」フィールドは、サブタイトル文字の色相情報を含む「character_color()」フィールド、サブタイトル背景フレームの色相情報を含む「frame_color()」フィールド、サブタイトル・アウトラインの色相情報を含む「outline_color()」フィールド及びサブタイトルドロップシャドーの色相情報を含む「shadow_color()」フィールドを含んでもよい。
表40は、各種「color()」フィールドのシンタックスを図示している。
Figure 0005721732
1スクリーン上にサブタイトル再生のために表現可能な色相は、最大16種類である。色相情報は、Y,Cr,Cb色相要素別に設定され、色相コードは、それぞれ0〜31の範囲で決定される。
「opaque_enable」フィールドは、サブタイトル色相の透明度情報を含む。「opaque_enable」ビットに基づいて、サブタイトル色相が不透明であるか、あるいはビデオ色相と50:50でブレンドされるように表現可能である。
図29は、ケーブル放送方式によるサブタイトルの三次元再生のためのサブタイトル処理モデルのフローチャートを図示している。
ケーブル放送方式によるサブタイトルの三次元再生のためのサブタイトル処理モデル2900によれば、PIDフィルタリング(PID filtering)段階(2910)は、サブタイトル・メッセージが含まれたTS(MPEG−2 TS carrying subtitle messages)が入力されれば、サブタイトル・メッセージが含まれたTSパケットをギャザリングし、トランスポート・バッファに出力する。トランスポート・バッファリング(transport buffer)段階(2920)は、サブタイトル・セグメントが含まれたTSパケットを保存する。
逆パケット化及び逆セグメント化(depacketization and desegmeatation)段階(2930)は、TSパケットからサブタイトル・セグメントを抽出し、入力バッファリング(input buffer)段階(2940)は、サブタイトル・セグメントを保存し、サブタイトル・セグメントをギャザリングする。圧縮復元及びレンダリング(decompression and rendering)段階(2950)は、サブタイトル・セグメントからサブタイトルデータを復元してレンダリングし、ディスプレイキューイング(display queueing)段階(2960)は、レンダリングされたサブタイトルデータ及びサブタイトルの再生関連情報をディスプレイキューに保存する。
ディスプレイキューに保存されたサブタイトルデータは、サブタイトルの再生関連情報に基づいて、画面上の所定領域に配置されてサブタイトルから構成され、サブタイトルは、所定時点で、TVなどのディスプレイ機器のグラフィックプレーン(graphic plane)(2970)に移動する。これによって、ディスプレイ機器は、ビデオ映像と共に、サブタイトルを再生することができる。
図30は、ケーブル放送方式によるサブタイトル処理モデルを介して、サブタイトルがディスプレイキューからグラフィック平面に出力される過程を図示している。
ディスプレイキュー3000に、サブデータメッセージ別に第1ビットマップデータ及び再生関連情報3010、及び第2ビットマップデータ及び再生関連情報3020が保存される。再生情報は、ビットマップがスクリーン上に表示され始める開始時間情報(display_in_PTS)、持続時間情報(display_duration)、ビットマップ座標情報を含む。ビットマップ座標情報は、ビットマップの左側上端ピクセルの座標値、及び右側下端ピクセルの座標値を含む。
ディスプレイキュー3000に保存された情報に基づいて構成されたサブタイトルは、再生情報に基づいた時間情報によって、ピクセルバッファ(グラフィックプレーン)3070に保存される。例えば、第1ビットマップデータ及び再生関連情報3010及び第2ビットマップデータ及び再生関連情報3020に基づいて、PTS単位時間4であるとき、第1ビットマップデータが当該座標の位置3040に表示されたサブタイトル3030が、ピクセルバッファ3070に保存される。また、PTS単位時間5であるとき、第1ビットマップデータが当該座標位置3040に表示され、第2ビットマップデータが当該座標位置3060に表示されたサブタイトル3050が、ピクセルバッファ3070に保存される。
表35ないし表40及び図28ないし図30を参照して説明したケーブル通信方式によるサブタイトルを基に、サブタイトルの三次元再生のために変更された第3実施形態によるマルチメディア・ストリーム生成装置100、及び第3実施形態によるマルチメディア・ストリーム受信装置200の動作について、以下、表41ないし48及び図31ないし図34を参照して説明する。
第3実施形態によるマルチメディア・ストリーム生成装置100は、ケーブルサブタイトルの三次元再生のための情報を、サブタイトルPESパケットに挿入してもよい。第3実施形態によるケーブルサブタイトルの三次元再生のための情報は、サブタイトルに係わるデプス、変異またはオフセットについての情報を含んでもよい。
また、第3実施形態によるマルチメディア・ストリーム受信装置200は、ケーブル通信方式を介して受信されたTSから、PID情報が同じサブタイトルPESパケットをギャザリングし、ケーブルサブタイトルの三次元再生のための情報を抽出し、ケーブルサブタイトルの三次元再生のための情報を利用し、二次元サブタイトルを三次元サブタイトルに変更して再生することができる。
図31は、第3実施形態によるケーブル放送方式によるサブタイトルの三次元再生のためのサブタイトル処理モデルのフローチャートを図示している。
第3実施形態によるサブタイトル処理モデル3100の、PIDフィルタリング段階(PID filtering)(3110)、トランスポート・バッファリング段階(transport buffering)(3120)、逆パケット化及び逆セグメント化段階(depacketization and desegmentation)(3130)、入力バッファリング段階(input buffering)(3140)、圧縮復元及びレンダリング段階(decompression and rendering)(3150)及びディスプレイキューイング段階(display queuing)(3160)を介して、ケーブル放送方式によるサブタイトルデータ及びサブタイトル再生関連情報が復元される過程は、図29を参照して説明したサブタイトル処理モデル2900の段階2910から段階2960までの動作と類似している。ただし、ディスプレイキューイング段階(3160)で、サブタイトルの三次元再生のための情報が追加してディスプレイキューに保存されもする。
第3実施形態による三次元サブタイトル変換段階(3D subtitle converting)(3180)は、ディスプレイキューイング段階(3160)で保存されたサブタイトルデータ及びサブタイトルの三次元再生のための情報を含むサブタイトル再生関連情報に基づいて、三次元で再生することができる三次元サブタイトルを構成することができる。三次元サブタイトルは、ディスプレイ機器のグラフィック平面(graphic plane)3170に出力されもする。
第3実施形態によるサブタイトル処理モデル3100は、第3実施形態によるマルチメディア・ストリーム受信装置200のサブタイトル処理動作を具現するために適用されてもよい。特に、三次元サブタイトル転換(3D subtitle converter)段階(3180)は、第3実施形態による再生部240の三次元サブタイトル処理動作に相応しうる。
以下、第3実施形態によるマルチメディア・ストリーム生成装置100が、サブタイトルの三次元再生のための情報を伝送するための具体的な実施形態、及び第3実施形態によるマルチメディア・ストリーム受信装置200が、サブタイトルの三次元再生のための情報を利用し、三次元サブタイトルを再生する具体的な実施形態について説明する。
第3実施形態によるマルチメディア・ストリーム生成装置100のプログラム符号化部110は、サブタイトルPESパケット内のサブタイトル・メッセージ「subtitle_message()」フィールドを利用し、サブタイトルの三次元再生のための情報を挿入してもよい。また、第2実施形態によるプログラム符号化部110は、サブタイトルのデプスを定義するための叙述子またはサブタイトルタイプを新たに定義し、PESパケットに挿入してもよい。
表41及び42は、それぞれ、第3実施形態によるプログラム符号化部110によって、ケーブルサブタイトルのデプス情報が含まれるように変形された、「simple_bitmap()」フィールド及び「subtitle_message()」フィールドのシンタックスを例示している。
Figure 0005721732
Figure 0005721732
第3実施形態によるプログラム符号化部110は、表39の「simple_bitmap()」フィールド内の「reserved()」フィールド位置に、表41によって、「3d_subtitle_offset」フィールドを挿入してもよい。「3d_subtitle_offset」フィールドは、サブタイトルの三次元再生のための左視点映像のためのビットマップ、及び右視点映像のためのビットマップを生成するために、水平座標軸を基準に、ビットマップを移動させる変位を示すオフセット情報を含んでもよい。「3d_subtitle_offset」フィールドのオフセット値は、サブタイトル文字と背景フレームとにいずれも同一に適用されてもよい。
Figure 0005721732
Figure 0005721732
第3実施形態によるプログラム符号化部110は、表35の「subtitle_message()」フィールド内の「reserved()」フィールドを代替し、「3d_subtitle_direction」フィールドを挿入してもよい。「3d_subtitle_direction」フィールドは、サブタイトルの三次元再生のための左視点映像のためのビットマップ、及び右視点映像を生成するためのオフセットの方向情報を含んでもよい。負の方向のオフセットがサブタイトルに適用されれば、サブタイトルをTV画面より前に飛び出して見せ、正の方向のオフセットによれば、サブタイトルがTV画面より後に入り込んで見える現象が生じる。
オフセットの方向性による特徴を利用し、第3実施形態による再生部240は、左視点サブタイトルを基準にオフセットを適用し、右視点サブタイトルを生成することができる。すなわち、「3d_subtitle_direction」フィールド値が負の方向を示す場合、第3実施形態による再生部240は、左視点サブタイトルのx座標値から、オフセット値ほど差し引いた値を右視点サブタイトルのx座標値に決定することができる。類似した方式で、「3d_subtitle_direction」フィールド値が正の方向を示す場合、第3実施形態による再生部240は、左視点サブタイトルのx座標値から、オフセット値ほど加えた値を右視点サブタイトルのx座標値に決定することができる。
図32は、第3実施形態によって、ケーブル放送方式によるサブタイトルのデプス感を調節する一実施形態を図示している。
第3実施形態によるマルチメディア・ストリーム受信装置200が、第3実施形態によるサブタイトル・メッセージが含まれたTSを受信し、TSを逆多重化し、サブタイトルPESパケットからサブタイトルデータ及びサブタイトル再生関連情報を抽出する。
第3実施形態によるマルチメディア・ストリーム受信装置200は、表41のビットマップフィールドから、サブタイトルのビットマップ座標関連情報、フレーム座標関連情報及びビットマップデータを抽出することができる。また、第3実施形態によるマルチメディア・ストリーム受信装置200は、表41のビットマップフィールドの下位フィールド「3d_subtitle_offset」から、三次元サブタイトル・オフセット情報を抽出することができる。
第3実施形態によるマルチメディア・ストリーム受信装置200は、表42のサブタイトル・メッセージ・テーブルから、サブタイトル再生時間関連情報を抽出することができ、また、サブタイトル・メッセージ・テーブルの下位フィールド「3d_subtitle_offset_direction」から、三次元サブタイトル・オフセット方向情報を抽出することができる。
これによって、ディスプレイキュー3200に、サブタイトル再生時間関連情報(display_in_PTS,display_duration)、三次元サブタイトル・オフセット情報(3d_subtitle_offset)、オフセット方向情報(3d_subtitle_direction)、サブタイトルのビットマップ座標情報(BTH,BTV,BBH,BBV)、及びサブタイトルの背景フレーム座標情報(FTH,FTV,FBH,FBV)を含むサブタイトル再生関連情報、並びにサブタイトルデータから構成されたサブタイトル情報セット3210が保存されもする。
三次元サブタイトル転換段階(3180)を介して、第3実施形態による再生部240は、ディスプレイキュー3200に保存されたサブタイトル再生関連情報に基づいて、サブタイトルが配置されたサブタイトル構成画面が構成され、グラフィック平面3270上に、サブタイトルの構成画面が保存される。
ピクセルバッファまたはグラフィック平面3270に、三次元合成フォーマットであるサイドバイサイド・フォーマットの三次元サブタイトル平面3220が保存されもする。サイドバイサイド・フォーマットは、x軸に沿って解像度が半分に低減するので、三次元サブタイトル3220を生成するために、ディスプレイキュー3200に保存されたサブタイトル再生関連情報のうち、基準視点サブタイトルのためのx軸座標値、及びサブタイトルのオフセット値を半分にして利用することが望ましい。左視点サブタイトル3250及び右視点サブタイトル3260のy座標値は、ディスプレイキュー3200に保存されたサブタイトル再生関連情報のうち、サブタイトルのy座標値と同一である。
例えば、ディスプレイキュー3200に、サブタイトル再生関連情報において、サブタイトル再生時間関連情報として、「display_in_PTS=4」及び「display_duration=600」、三次元サブタイトル・オフセット情報として、「3d_subtitle_offset=10」、三次元サブタイトル・オフセット方向情報として、「3d_subtitle_direction=1」、サブタイトルのビットマップ座標情報として、「(BTH,BTV)=(30,30)」及び「(BBH,BBV)=(60,40)」、サブタイトルの背景フレーム座標情報として、「(FTH,FTV)=(20,20)」及び「(FBH,FBV)=(70,50)」が保存されている。
ピクセルバッファ3270に保存されるサイドバイサイド・フォーマットの三次元サブタイトル平面3220は、左視点サブタイトル平面3230及び右視点サブタイトル平面3240から構成される。左視点サブタイトル平面3230及び右視点サブタイトル平面3240の横解像度は、原本解像度に比べて、半分に低減し、左視点サブタイトル平面3230の原点座標が、「(OHL,OVL)=(0,0)」であるならば、右視点サブタイトル平面3240の原点座標は、「(OHR,OVR)=(100,0)」である。
このとき、左視点サブタイトル3250のビットマップ及び背景フレームのx座標値も半分に縮小される。すなわち、左視点サブタイトル3250のビットマップの左側上端地点のx座標値BTHL及び右側下端地点のx座標値BBHL、フレームの左側上端地点のx座標値FTHL及び右側下端地点のx座標値FBHLは、それぞれ以下関係式(1),(2),(3)及び(4)によって決定される。
THL=BTH/2 (1)
BHL=BBH/2 (2)
THL=FTH/2 (3)
BHL=FBH/2 (4)
従って、左視点サブタイトル3250のビットマップのx座標値BTHL,BBHL,FTHL及びFBHLは、それぞれ(1)BTHL=BTH/2=30/2=15;(2)BBHL=BBH/2=60/2=30;(3)FTHL=FTH/2=20/2=10;(4)FBHL=FBH/2=70/2=35に決定される。
また、右視点サブタイトル3260のビットマップ及び背景フレームの横軸解像度も、半分に縮小される。右視点サブタイトル3260のビットマップ及び背景フレームのx座標値は、右視点サブタイトル平面3240の原点(OHR,OVR)を基準に設定される。これによって、右視点サブタイトル3260のビットマップの左側上端地点のx座標値BTHR及び右側下端地点のx座標値BBHR、フレームの左側上端地点のx座標値FTHR及び右側下端地点のx座標値FBHRは、それぞれ以下関係式(5),(6),(7)及び(8)によって決定される。
THR=OHR+BTHL±(3d_subtitle_offset/2) (5)
BHR=OHR+BBHL±(3d_subtitle_offset/2) (6)
THR=OHR+FTHL±(3d_subtitle_offset/2) (7)
BHR=OHR+FBHL±(3d_subtitle_offset/2) (8)
すなわち、右視点サブタイトル3260のビットマップ及び背景フレームのx座標値は、右視点サブタイトル平面3240の原点(OHR,OVR)を基準に、対応する左視点サブタイトル3250のx座標値ほど正の方向に移動した位置で、三次元サブタイトル・オフセットほど負の方向または正の方向に移動した位置に設定される。この場合、三次元サブタイトル・オフセット方向情報として、「3d_subtitle_direction=1」であるから、三次元サブタイトル・オフセット方向は、負の方向である。
従って、右視点サブタイトル3260のビットマップ及び背景フレームのx座標値BTHL,BBHL,FTHL及びFBHLは、それぞれ(5)BTHR=OHR+BTHL−(3d_subtitle_offset/2)=100+15−5=110;(6)BBHR=OHR+BBHL−(3d_subtitle_offset/2)=100+30−5=125;(7)FTHR=OHR+FTHL−(3d_subtitle_offset/2)=100+10−5=105;(8)FBHR=OHR+FBHL−(3d_subtitle_offset/2)=100+35−5=130に決定される。
これによって、左視点サブタイトル3250及び右視点サブタイトル3260が、それぞれサブタイトル平面3230,3240上で、x軸方向にオフセットほど移動した位置に表示された三次元サブタイトルを利用し、ディスプレイ機器は、三次元サブタイトルを三次元で再生することができる。
また、第2実施形態によるプログラム符号化部110は、サブタイトルのデプスを定義するための叙述子及びサブタイトルタイプを新たに定義し、PESパケットに挿入してもよい。
表43は、第3実施形態によるプログラム符号化部110によって新たに定義されたサブタイトルデプス叙述子「subtitle_depth_descriptor()」フィールドのシンタックスを例示している。
Figure 0005721732
一実施形態によるサブタイトルデプス叙述子(「subtitle_depth_descriptor())は、サブタイトルのうち、文字のオフセット方向情報(「character_offset_directoin」)、文字のオフセット情報(「character_offset」)、サブタイトルのうち背景フレームのオフセット方向情報(「frame_offset_direction」)、及び背景フレームのオフセット情報(「frame_offset」)を含んでもよい。
また、一実施形態によるサブタイトルデプス叙述子(「subtitle_depth_descriptor()」)は、サブタイトルの文字または背景フレームのオフセットが、基本平面を基準に設定されたか、あるいはビデオ客体の変異を基準に設定されたかを示す情報(「offset_based」)を選択的に含んでもよい。
図33は、第3実施形態によって、ケーブル放送方式によるサブタイトルのデプス感を調節する他の実施形態を図示している。
第3実施形態によるマルチメディア・ストリーム受信装置200は、表41のビットマップフィールドから、サブタイトルのビットマップ座標関連情報、フレーム座標関連情報及びビットマップデータを抽出し、表42のサブタイトル・メッセージ・テーブルから、サブタイトル再生時間関連情報を抽出することができる。また、第3実施形態によるマルチメディア・ストリーム受信装置200は、表43のサブタイトルデプス叙述子フィールドから、サブタイトルのうち文字のオフセット方向情報(「character_offset_direction」)、文字のオフセット情報(「character_offset」)、サブタイトルのうち背景フレームのオフセット方向情報(「frame_offset_direction」)、及び背景フレームのオフセット情報(「frame_offset」)をを抽出することができる。
これによって、ディスプレイキュー3300に、サブタイトル再生時間関連情報(display_in_PTS,display_duration)、サブタイトルのうち文字のオフセット方向情報(character_offset_direction)、文字のオフセット情報(character_offset)、サブタイトルのうち背景フレームのオフセット方向情報(frame_offset_direction)、及び背景フレームのオフセット情報(frame_offset)を含むサブタイトル再生関連情報、並びにサブタイトルデータから構成されたサブタイトル情報セット3310が保存されもする。
例えば、ディスプレイキュー3300に、サブタイトル再生関連情報において、サブタイトル再生時間関連情報として、「display_in_PTS=4」及び「display_duration=600」、サブタイトルのうち文字のオフセット方向情報「character_offset_directoin=1」、文字のオフセット情報として、「character_offset=10」、サブタイトルのうち背景フレームのオフセット方向情報として、「frame_offset_direction=1」及び背景フレームのオフセット情報「frame_offset=4」、サブタイトルのビットマップ座標情報として、「(BTH,BTV)=(30,30)」及び「(BBH,BBV)=(60,40)」、サブタイトルの背景フレーム座標情報として、「(FTH,FTV)=(20,20)」及び「(FBH,FBV)=(70,50)」が保存されている。
三次元サブタイトル転換段階(3180)を介して、ピクセルバッファまたはグラフィック平面3370に、三次元合成フォーマットであるサイドバイサイド・フォーマットの三次元サブタイトル平面3320が保存されもする。
図32を介して説明したところと類似した方式で、ピクセルバッファに保存されるサイドバイサイド・フォーマットの三次元サブタイトル平面3320において、左視点サブタイトル平面3330上の左視点サブタイトル3350のビットマップの左側上端地点のx座標値BTHL及び下端地点のx座標値BBHL、フレームの左側上端地点のx座標値FTHL及び右側下端地点のx座標値FBHLは、それぞれ(9)BTHL=BTH/2=30/2=15;(10)BBHL=BBH/2=60/2=30;(11)FTHL=FTH/2=20/2=10;(12)FBHL=FBH/2=70/2=35に決定される。
また、三次元サブタイトル平面3320において、右視点サブタイトル平面3340上の右視点サブタイトル3360のビットマップの左側上端地点のx座標値BTHR及び右側下端地点のx座標値BBHR、フレームの左側上端地点のx座標値FTHR及び右側下端地点のx座標値FBHRは、それぞれ以下関係式(13),(14),(15)及び(16)によって決定される。
(13)BTHR=OHR+BTHL±(character_offset/2);
(14)BBHR=OHR+BBHL±(character_offset/2);
(15)FTHR=OHR+FTHL±(frame_offset/2);
(16)FBHR=OHR+FBHL±(frame_offset/2)
この場合、三次元サブタイトル・オフセット方向情報として、「character_offset_direction=1」及び「frame_offset_direction=1」であるから、三次元サブタイトル・オフセット方向は、負の方向である。
従って、右視点サブタイトル3360のビットマップ及び背景フレームのx座標値BTHL,BBHL,FTHL及びFBHLは、それぞれ(13)BTHR=OHR+BTHL−(character_offset/2)=100+15−5=110;(14)BBHR=OHR+BBHL−(character_offset/2)=100+30−5=125;(15)FTHR=OHR+FTHL−(frame_offset/2)=100+10−2=108;(16)FBHR=OHR+FBHL−(frame_offset/2)=100+35−2=133に決定される。
これによって、左視点サブタイトル3350及び右視点サブタイトル3360が、それぞれサブタイトル平面3330,3340上で、x軸方向にオフセットほど移動した位置に配置した三次元サブタイトル3320を利用し、三次元ディスプレイ機器は、サブタイトルを三次元で再生することができる。
第3実施形態によるマルチメディア・ストリーム生成装置100は、ケーブルサブタイトルタイプであり、サブタイトルの三次元再生のために、付加視点のためのサブタイトルタイプを追加して設定することができる。表44は、第3実施形態によるマルチメディア・ストリーム生成装置100によって変形されたサブタイトルタイプのテーブルを例示している。
Figure 0005721732
表44のサブタイトルタイプの変形例にによれば、第3実施形態によるマルチメディア・ストリーム生成装置100は、表38のサブタイトルタイプの基本テーブルにおいて、サブタイトルタイプ・フィールド値が、「2〜15」範囲である保留領域(reserved)を利用し、サブタイトルタイプ・フィールド値「2」に、サブタイトルの三次元再生のための付加視点サブタイトルタイプ「subtitle_another_view」を追加して割り当てることができる。
第3実施形態によるマルチメディア・ストリーム生成装置100は、表44のサブタイトルタイプの変形例にに基づいて、表35の基本サブタイトル・メッセージ・テーブルを変形することができる。表45は、サブタイトル・メッセージ・テーブル「subititle_message()」の変形例のシンタックスを示している。
Figure 0005721732
Figure 0005721732
すなわち、サブタイトル・メッセージ・テーブルの変形例は、サブタイトルタイプが「subtitle_another_view」である場合、付加視点サブタイトル情報を設定するための「subtitle_another_view()」フィールドを追加して含んでもよい。表46は、一実施形態による「subtitle_another_view()」フィールドのシンタックスを示している。
Figure 0005721732
Figure 0005721732
一実施形態による「subtitle_another_view()」フィールドは、付加視点のためのサブタイトルのビットマップの座標情報(bitmap_top_H_coordinate,bitmap_top_V_coordinate,bitmap_bottom_H_coordinate,bitmap_bottom_V_coordinate)を含んでもよい。また、一実施形態による「subtitle_another_view()」フィールドは、「background_style」フィールドに基づいて、付加視点のためのサブタイトルの背景フレームが存在するならば、付加視点のためのサブタイトルの背景フレームの座標情報(frame_top_H_coordinate,frame_top_V_coordinate、frame_bottom_H_coordinate,frame_bottom_V_coordinate)を含んでもよい。
また、第3実施形態によるマルチメディア・ストリーム生成装置100は、付加視点のためのサブタイトルのビットマップ関連座標情報、及び背景フレーム関連情報だけではなく、アウトラインが存在するならば、アウトラインの厚み情報(outline_thickness)、ドロップシャドーが存在するならば、ドロップシャドーの右側シャドー及び左側シャドーの厚み情報(shadow_right,shadow_bottom)を一実施形態による「subtitle_another_view()」フィールドに含めることができる。
第3実施形態によるマルチメディア・ストリーム受信装置200は、「subtitle_another_view()」フィールドから、サブタイトルのビットマップの座標情報及び背景フレームの座標情報だけを抽出して利用することによって、データ処理量を減らすこともできる。
図34は、第3実施形態によって、ケーブル放送方式によるサブタイトルのデプス感を調節するさらに他の実施形態を図示している。
第3実施形態によるマルチメディア・ストリーム受信装置200は、サブタイトルタイプ「subtitle_another_view()」を考慮するように変形された表45のサブタイトル・メッセージ・テーブルから、サブタイトル再生時間関連情報を抽出し、表46の「subtitle_another_view()」フィールドから、付加視点サブタイトルのビットマップ座標情報、フレーム座標情報及びビットマップデータを抽出することができる。
これによって、ディスプレイキュー3400に、サブタイトル再生時間関連情報(display_in_PTS,display_duration)、付加視点のためのサブタイトルのビットマップの座標情報(bitmap_top_H_coordinate,bitmap_top_V_coordinate,bitmap_bottom_H_coordinate,bitmap_bottom_V_coordinate)、及び付加視点のためのサブタイトルの背景フレームの座標情報(frame_top_H_coordinate,frame_top_V_coordinate,frame_bottom_H_coordinate,frame_bottom_V_coordinate)を含むサブタイトル再生関連情報、並びにサブタイトルデータから構成されたサブタイトル情報セット3410が保存されもする。
例えば、ディスプレイキュー3400に、サブタイトル再生関連情報において、サブタイトル再生時間関連情報として、「display_in_PTS=4」及び「display_duration=600」、付加視点サブタイトルのビットマップ座標情報として、「bitmap_top_H_coordinate=20」、「bitmap_top_V_coordinate=30」、「bitmap_bottom_H_coordinate=50」、「bitmap_bottom_V_coordinate=40」、及び付加視点サブタイトルの背景フレーム座標情報として、「frame_top_H_coordinate=10」、「frame_top_V_coordinate=20」、「frame_bottom_H_coordinate=60」、「frame_bottom_V_coordinate=50」を含むサブタイトル再生関連情報、サブタイトルのビットマップ座標情報として、「(BTH,BTV)=(30,30)」及び「(BBH,BBV)=(60,40)」、サブタイトルの背景フレーム座標情報として、「(FTH,FTV)=(20,20)」及び「(FBH,FBV)=(70,50)」が保存されている。
三次元サブタイトル転換段階(3180)を介して、ピクセルバッファまたはグラフィック平面3470に、三次元合成フォーマットであるサイドバイサイド・フォーマットの三次元サブタイトル平面3420が保存されもする。図32を介して説明したところと類似した方式で、ピクセルバッファに保存されるサイドバイサイド・フォーマットの三次元サブタイトル平面3420において、左視点サブタイトル平面3430上の左視点サブタイトル3450のビットマップの左側上端地点のx座標値BTHL及び右側下端地点のx座標値BBHL、背景フレームの左側上端地点のx座標値FTHL及び右側下端地点のx座標値FBHLは、それぞれ(17)BTHL=BTH/2=30/2=15;(18)BBHL=BBH/2=60/2=30;(19)FTHL=FTH/2=20/2=10;(20)FBHL=FBH/2=70/2=35に決定される。
また、三次元サブタイトル平面3420において、右視点サブタイトル平面3440上の右視点サブタイトル3460のビットマップの左側上端地点のx座標値BTHR及び右側下端地点のx座標値BBHR、フレームの左側上端地点のx座標値FTHR及び右側下端地点のx座標値FBHRは、それぞれ下記関係式(21),(22),(23)及び(24)によって決定される。
(21)BTHR=OHR+bitmap_top_H_coordinate/2;
(22)BBHR=OHR+bitmap_bottom_H_coordinate/2;
(23)FTHR=OHR+frame_top_H_coordinate/2;
(24)FBHR=OHR+frame_bottom_H_coordinate/2
従って、右視点サブタイトル3460のビットマップのx座標値BTHL,BBHL、FTHL及びFBHLは、それぞれ(21)BTHR=OHR+bitmap_top_H_coordinate/2=100+10=110;(22)BBHR=OHR+bitmap_bottom_H_coordinate/2=100+25=125;(23)FTHR=OHR+frame_top_H_coordinate/2=100+5=105;(24)FBHR=OHR+frame_bottom_H_coordinate/2=100+30=130に決定される。
これによって、左視点サブタイトル3450及び右視点サブタイトル3460がそれぞれサブタイトル平面3430,3440上で、x軸方向にオフセットほど移動した位置に配置した三次元サブタイトル3420を利用し、三次元ディスプレイ機器は、サブタイトルを三次元で再生することができる。
第3実施形態によるマルチメディア・ストリーム生成装置100は、ケーブルサブタイトルタイプであり、サブタイトルの三次元効果のためのサブタイトル変異タイプを追加して設定される。表47は、第3実施形態によるマルチメディア・ストリーム生成装置100によって、サブタイトル変異タイプが追加されるように変形されたサブタイトルタイプのテーブルを例示している。
Figure 0005721732
表47のサブタイトルタイプの変形例によれば、第3実施形態によるマルチメディア・ストリーム生成装置100は、表38のサブタイトルタイプの基本テーブルにおいて保留領域を利用し、サブタイトルタイプ・フィールド値「2」に、サブタイトル変異タイプ「subtitle_disparity」を追加して割り当てることができる。
第3実施形態によるマルチメディア・ストリーム生成装置100は、表47のサブタイトルタイプの変形例に基づいて、サブタイトル変異フィールドを新たに設定することができる。表48は、一実施形態によるサブタイトル変異フィールド「subtitle_disparity()」のシンタックスを示している。
Figure 0005721732
表48によれば一実施形態によるサブタイトル変異フィールドは、左視点サブタイトル及び右視点サブタイトル間の変異情報を含む「disparity」フィールドを含む。
第3実施形態によるマルチメディア・ストリーム受信装置200は、新たに設定されたサブタイトルタイプ「subtitle_disparity」を考慮するように変形されたサブタイトル・メッセージ・テーブルから、サブタイトル再生時間関連情報を抽出し、表48の「subtitle_disparity」フィールドから、三次元サブタイトルの変異情報及びビットマップデータを抽出することができる。これによって、第3実施形態による再生部240によって、右視点サブタイトルが左視点サブタイトル3450の位置から変異ほど移動した位置に表示することによって構成されたサブタイトルは、三次元ディスプレイ機器によって、三次元で再生される。
以下、表49ないし59及び図35ないし図40を参照して、第4実施形態によるEPG情報の三次元再生のためのマルチメディア・ストリームの生成及び受信について説明する。
図35は、EPG情報を伝送するデジタル通信システムのブロック図を図示している。
デジタル通信システム3500にビデオ信号、オーディオ信号及び関連補助データが入力される。ビデオデータは、ビデオ符号化部(video encoder)3510によって符号化され、オーディオデータは、オーディオ符号化部(audio encoder)3520によって符号化される。符号化されたビデオデータ及びオーディオデータは、それぞれパケット化器(packetizer)3530,3540を経て、ビデオPESパケット及びオーディオPESパケットに分割(segmentation)される。
PSIP/PSI生成部(PSIP/SI generator)3550は、PAT(program association table)及びPMT(program map table)を生成し、各種PSIP情報またはSI情報を生成する。このとき、デジタル通信システム3500は、各種EPG情報をPSIPテーブルまたはSIテーブルに挿入してもよい。
デジタル通信システム3500がATSC通信方式に従う場合、PSIP/PSI生成部(PSIP/SI generator)3550は、PSIPテーブルを生成し、デジタル通信システム3500がDVB通信方式に従う場合、PSIP/PSI生成部(PSIP/SI generator)3550は、SIテーブルを生成する。
デジタル通信システム3500の多重化部(MUX)3560は、パケット化器3530,3540から、ビデオPESパケット、オーディオPESパケット、付加データ、及びPSI生成部3550から入力されたPSIテーブル及びATSC−PSIPテーブルまたはDVB−SIテーブルをセクション形態で入力され、多重化して1つのプログラムに係わるTSを生成して出力する。
図36は、ATSC通信方式によって、EPG情報が収録されるPSIPテーブルを図示している。
ATSC通信方式によれば、PSIPテーブルにEPG情報が収録される。PSIPテーブルは、現在時間と日付に係わる情報が収録されるSTT(STT:system time table)3610、放送プログラムの地域別放送視聴等級に係わる情報が収録されるRRT(RRT:rating region table)3620、STT 3610を除外したあらゆるテーブルのPID情報とバージョン情報とが収録されるMGT(master guide table)3630、伝送するチャネル番号などのチャネル情報が収録された衛星VCT(virtual channel table)3460、放送プログラムなどのイベントの題目及び開始時間などのイベント情報が収録されるEIT(event information table)3650,3652,3653、及び放送プログラムに係わる背景、あらすじ、登場人物のような詳細な説明などの付加テキスト情報が収録されるETT(extended text table)3660,3662,3664,3666から構成される。すなわち、PSIPテーブルに放送プログラムなどのイベントに係わる各種情報が収録される。
特に、衛星VCT 3460は、チャネル別に仮想チャネル識別子source_idを含み、仮想チャネル識別子によって、EIT 3650,3652,3653のうち、チャネル別イベント情報が検索される。また、それぞれのETT 3660,3662,3664,3666は、対応するVCT 3460またはEIT 3650,3652,3653のテキスト・メッセージを含んでもよい。
図37は、DVB通信方式によって、EPG情報が収録されるSIテーブルを図示している。
SIテーブルは、地上波、ケーブルまたは衛星ネットワークなどの現在放送のネットワーク種類情報が収録されるNIT(network information table)3710、サービス名、サービス提供業者などのサービス情報が収録されるSDT(service description table)3720、放送プログラムの題目または時間などのイベント関連情報が収録されるEIT(event information table)3730及び現在日付と現在時間との情報が収録されるTDT(time and data table)3740から構成される。従って、SIテーブルに放送プログラムなどのイベントに係わる各種情報が収録される。
以下、ATSC−PSIPテーブルにおいて、VCTテーブルのシンタックスが表49に、RRTテーブルのシンタックスが表50に、STTテーブルのシンタックスが表51に、EITテーブルのシンタックスが表52に、ETTテーブルのシンタックスが表53に図示されている。
Figure 0005721732
Figure 0005721732
Figure 0005721732
Figure 0005721732
Figure 0005721732
Figure 0005721732
Figure 0005721732
図38は、EPG情報が図示された画面及びそれぞれの情報のソースを図示している。
画面3800上に、ATSC通信方式によるPSIPテーブルを利用して構成されたEPG画面3810が表示される。EPG画面3810は、デジタルTVシステムが設定した画面上の所定領域に、PSIPテーブルに収録されたテキストデータが表示されることによって構成される。この場合、デジタルTVシステムは、デジタルTVシステムが具備しているイメージ及びフォントを利用し、PSIPテーブルに収録されたテキストデータを表示することによって、EPG画面3810を構成することができる。
具体的には、EPG画面3810上に、チャネル名3820、チャネル番号3830、地域別等級3840、放送プログラム名及び再生時間3850、放送プログラムに係わる説明テキスト3860及び現在時間及び日時3870が表示される。
チャネル名3820は、表49のVCTテーブルにおいて、「short_name」フィールドの縮約されたチャネル名情報に基づいて決定される。チャネル番号3830は、VCTテーブルにおいて、「major_channel_number」フィールドの主要チャネル番号情報、及び「minor_channel_number」フィールドの付随チャネル番号情報が組み合わさったチャネル情報に基づいて決定される。
地域別等級3840は、表50のRRTテーブル内の「rating_region_name_text()」フィールドの地域名情報と、「abbrev_rating_value_text()」フィールドまたは「rating_value_text()」フィールドの等級情報とに基づいて決定される。
放送プログラム名及び再生時間3850は、表52のEITテーブルにおいて、「title_text()」フィールドの放送プログラム名情報に基づいて決定される。
放送プログラムに係わる説明テキスト3860は、表53のETTテーブルにおいて、「extended_text_message()」フィールドのイベント説明テキスト情報に基づいて決定される。
現在時間及び日時3870は、表51のSTTテーブルにおいて、「system_time」フィールドのシステム時間情報、及び「GPS_UTC_offset」フィールドのGPS−UTC時刻差情報に基づいて決定される。
表54は、表52のETTテーブルの下位フィールド「ETM_id」の構造である。
Figure 0005721732
ETTテーブルにおいて、「ETM_id」フィールドに基づいて、「Channel ETM_id」である場合、現在ETTテーブルが、いずれのVCTテーブルに対応するかが確認され、「event ETM_id」である場合、現在ETTテーブルが、いずれのEITテーブルに対応するかが確認される。対応するチャネルまたはイベントに係わる説明として、現在ETTテーブルの「extended_text_message()」フィールドのテキスト・メッセージ3860が、EPG画面3810上に表示される。
従って、1つのEPG画面3810は、複数個のPSIPテーブルに含まれたEPGデータを利用して構成される。
表49ないし表54及び図35ないし図38を参照して説明したEPGを基に、EPGの三次元再生のために変更された第4実施形態によるマルチメディア・ストリーム生成装置100、及び第4実施形態によるマルチメディア・ストリーム受信装置200の動作について、以下、表55ないし59及び図39及び図40を参照して説明する。
第4実施形態によるマルチメディア・ストリーム生成装置100は、三次元EPG情報を三次元で再生するためのEPG三次元再生情報を、PSIPテーブルまたはSIテーブルに挿入してもよい。第4実施形態によるEPG三次元再生情報は、三次元EPG情報のデプスについての情報として、デプス、変異、両眼視差またはオフセットなどの多様な形態で利用される。
また、第4実施形態によるマルチメディア・ストリーム受信装置200は、ATSC通信方式を介して受信されたTSからセクションをギャザリングし、EPG情報及びEPG三次元再生情報を抽出し、三次元EPG再生情報を利用し、二次元EPG情報を三次元EPG情報に変更して再生することができる。
第4実施形態によるマルチメディア・ストリーム生成装置100は、三次元EPG再生情報を叙述子形態で設定することができる。PSIPテーブルにおいて、ETTテーブルを除き、表49のVCT、表50のRRT、表51のSTT、表52のEITは、いずれも叙述子フィールド「descriptor()」を含む。第4実施形態によるマルチメディア・ストリーム生成装置100は、PSIPテーブルの叙述子フィールドに、第4実施形態による三次元EPG再生情報を含む三次元EPG叙述子を挿入してもよい。ETTは、叙述子フィールドがないが、「ETM_id」フィールドを介して、VCTまたはEITと関連し、関連したテーブルの三次元EPG叙述子を相続される。
表55は、第4実施形態による三次元EPG叙述子のシンタックスである。
Figure 0005721732
「descriptor_tag」フィールドは、三次元EPG叙述子「3D_EPG_descriptor」フィールドの識別子を含む。「descriptor_length」フィールドは、「descriptor_length」フィールドに後続するデータの総バイト数情報を含む。
「3D_EPG_offset」フィールドは、「3D_EPG_descriptor」フィールドを含むPSIPテーブルによって、EPG画面上に表示されるEPG情報のオフセット情報を含む。
「Video_Flat」フィールドは、EPG情報を三次元で再生するとき、現在放送されるプログラムのビデオを、二次元再生モードに転換して再生するか否かを示すビデオ二次元再生情報を含む。表56は、ビデオ二次元再生情報「Video_Flat」の一例である。
Figure 0005721732
「reserved」フィールド及び「addtional_data()」フィールドは、今後使われるために保留された領域である。
以下、DVB−SIテーブルにおいて、NITテーブルのシンタックスは、表57に、SDSテーブルのシンタックスは、表58に、EITテーブルのシンタックスは、表59に図示されている。
Figure 0005721732
Figure 0005721732
Figure 0005721732
Figure 0005721732
DVB通信方式によれば、SIテーブルにおいて、NIT、SDSテーブル、EITの叙述子フィールド「descriptor()」に、EPGテキスト情報が含まれる。表55は、第4実施形態によるマルチメディア・ストリーム生成装置100が、SIテーブルの叙述子フィールドに、第4実施形態による三次元EPG再生情報を含む三次元EPG叙述子を追加して挿入した一例を図示している。
第4実施形態によるマルチメディア・ストリーム受信装置200は、DVB通信方式を介して受信されたTSからセクションをギャザリングし、EPG情報及び三次元EPG再生情報を抽出することができる。EPGが三次元で再生される場合、第4実施形態によるマルチメディア・ストリーム受信装置200は、三次元EPG叙述子を検索し、三次元EPG叙述子が存在するならば、三次元EPG再生情報を利用し、二次元EPG情報を三次元EPG情報に変換して再生することができる。
図39は、第4実施形態によるTS復号化システムのブロック図を図示している。
第4実施形態によるTS復号化システム3900がTSを受信すれば、トランスポート逆多重化部(transport demuxer)3910を介して、ビデオビット・ストリーム、オーディオビット・ストリーム、及びPSIPテーブルまたはSIテーブルが分離される。ビデオビット・ストリーム及びオーディオビット・ストリームは、プログラム復号化部3920に出力され、PSIPテーブルまたはSIテーブルは、プログラムガイド処理部(program guide processor)3960に出力される。
また、ビデオビット・ストリームは、ビデオ復号化部(video decoder)3930に入力され、復元されたビデオは、ディスプレイ処理部(display processing)3940に出力されもする。オーディオビット・ストリームは、オーディオ復号化部(audio decoder)3950を介して復元される。
このとき、第4実施形態によるPSIPテーブルまたはSIテーブルは、三次元EPG再生情報を含んでいる。例えば、第4実施形態によるPSIPテーブルまたはSIテーブルは、表55の「3D_EPG_descriptor」叙述子を含んでもよい。このようなPSIPテーブルまたはSIテーブルを利用し、三次元EPGを再生するためのプログラムガイド処理部(program guide processor)3960及びディスプレイ処理部(display processing)3940の細部動作については、図40を介して説明する。
図40は、第4実施形態によるTS復号化システムのうち、ディスプレイ処理部のブロック図を図示している。
プログラムガイド処理部3960に入力されたPSIPテーブルまたはSIテーブルは、PSIPまたはSIパージング部(PSIP or SI parser)4070によって分析され、EPG構成に必要なEPG情報及び三次元EPG再生情報と、ビデオ二次元再生情報とがPSIPテーブルまたはSIテーブルから抽出される。EPG情報、三次元EPG再生情報及びビデオ二次元再生情報は、ディスプレイ処理部3940のディスプレイ・プロセッサ(display processor)4050に出力されもする。
復元されたビデオは、左視点映像及び右視点映像に分離され、それぞれ左視点ビデオバッファ(decoded video L buffer)4010及び右視点ビデオバッファ(decoded video R buffer)4020に保存されもする。
ディスプレイ・プロセッサ4050は、三次元EPG再生情報に基づいて、三次元EPGの左視点EPG情報及び右視点EPG情報を生成し、左視点EPG情報及び右視点EPG情報をそれぞれ左視点ディスプレイ平面(L display plane)4030及び右視点ディスプレイ平面(R display plane)4040上に表示する。左視点EPGが表示された左視点ディスプレイ平面4030は、左視点ビデオとブレンド(blending)され、右視点EPGが表示された右視点ディスプレイ平面4040は、右視点ビデオとブレンドされ、スイッチ4060によって、交互に再生されることによって、三次元EPG情報が表示された三次元ビデオが再生される。
また、ビデオ二次元再生情報が、ビデオを二次元再生モードに転換して再生するように設定されている場合、ビデオは、二次元で再生されねばならない。例えば、左視点EPG情報が表示された左視点ディスプレイ平面4030、及び右視点EPG情報が表示された右視点ディスプレイ平面4040のいずれにも同一視点ビデオがブレンドされれば、EPG情報は、三次元で再生され、ビデオは、二次元で再生される。
ディスプレイ・プロセッサ4050が、三次元EPG再生情報に基づいて、三次元EPG情報の左視点EPG情報及び右視点EPG情報を生成するために、三次元EPGオフセットを、二次元EPG情報に視点別に異なるように適用することができる。例えば、三次元EPGオフセットが、ピクセルの左右移動距離である場合、ディスプレイ・プロセッサ4050は、二次元EPG情報を、x軸に沿って負の方向にオフセットほど移動させることによって、左視点EPG情報を生成し、正の方向にオフセットほど移動させることによって、右視点EPG情報を生成することができる。または、三次元EPGオフセットが、左右視点間の変異である場合、ディスプレイ・プロセッサ4050は、二次元EPG情報を左視点EPG情報に固定し、二次元EPG情報を、x軸に沿って負または正の方向に、オフセットほど移動させることによって、右視点EPG情報を生成することができる。三次元EPGオフセットの性格によって、ディスプレイ・プロセッサ4050が三次元EPG情報を生成する方法は、変わることがある。
第4実施形態によるマルチメディア・ストリーム生成装置100は、EPGを三次元で再生するために必要なEPGデータ及びEPG三次元再生情報を含む三次元EPGデータ構造を伝送するために、ATSC−PSIPテーブルまたはDVB−SIテーブルに、第4実施形態による三次元EPGデータ構造を挿入し、ビデオストリーム、オーディオストリームと共に伝送することができる。
第4実施形態によるマルチメディア・ストリーム生成装置200は、第4実施形態によるマルチメディア・ストリームを受信してパージングし、抽出されたATSC−PSIPテーブルまたはDVB−SIテーブルから、第4実施形態による三次元EPGデータ構造を抽出することができる。第4実施形態によるマルチメディア・ストリーム生成装置200は、EPG三次元再生情報に基づいて、三次元EPG情報を構成し、EPG情報を三次元で再生することができる。また、第4実施形態によるマルチメディア・ストリーム生成装置200は、EPG三次元再生情報に基づいて、三次元EPG情報を正確に再生することによって、視聴者が感じることがある視覚的息苦しさのような不便を防止することができる。
図41は、一実施形態によるテキストの三次元再生のためのマルチメディア・ストリーム生成方法のフローチャートを図示している。
段階4110で、符号化されたビデオデータ、符号化されたオーディオデータ、付加再生データと共に、付加再生情報の三次元再生のための情報を含むビデオES、オーディオES、付加データストリーム及び補助情報ストリームが生成される。一実施形態による付加再生データは、プログラムに係わるクローズドキャプション・データ、サブタイトルデータ及びEPGデータを含んでもよい。
一実施形態による付加再生情報の三次元再生のための情報は、付加再生情報のデプス感を調節するための左右視点間の変異、デプス差などの視差情報、座標情報及びデプス情報のうち少なくとも一つを示すオフセット情報を含んでもよい。一実施形態による付加再生情報の三次元再生のための情報は、付加再生情報の三次元再生安全性情報、ビデオ二次元再生情報及び三次元再生強調情報などを含んでもよい。
段階4120で、ビデオES、オーディオES及び付加データストリームをパケット化し、ビデオPESパケット、オーディオPESパケット、付加データPESパケットが生成され、補助情報パケットが生成される。一実施形態による付加再生情報の三次元再生のための情報及び付加再生データは、PESパケットレベルで、ストリームに挿入されもする。
第1実施形態によるクローズドキャプション・データ及びクローズドキャプション三次元再生情報は、ビデオES、ビデオESのヘッダまたはセクションに挿入してもよい。第2,3実施形態によるサブタイトルデータ及びサブタイトル三次元再生情報は、サブタイトルPESパケット及びサブタイトルPESパケットのヘッダのうち、少なくとも一つに挿入してもよい。第4実施形態によるEPGデータ及びEPG三次元再生情報は、ATSC−PSIPテーブルまたはDVB_SIテーブル内の叙述子(descriptor)フィールドに挿入してもよい。
段階4130で、ビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを多重化し、TSを生成する。生成されたTSは、所定チャネルを介して伝送される。
図42は、一実施形態によるテキストの三次元再生のためのマルチメディア・ストリーム受信方法のフローチャートを図示している。
段階4210で、ビデオ及び三次元ビデオのうち、少なくとも一つを含むビデオデータを含むマルチメディア・ストリームに係わるTSが受信され、逆多重化されたTSから、ビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットが抽出される。
段階4230で、ビデオPESパケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットから、ビデオES、オーディオES、付加データストリーム及び補助情報ストリームが抽出される。補助情報ストリームは、PSI情報、ATSC−PSIP情報、DVB−SI情報などのプログラム関連情報を含んでもよい。抽出されたPESパケット段階で、付加再生データ及び付加再生情報の三次元再生のための情報が抽出される。
段階4230で、ビデオES、オーディオES、付加データストリーム及びプログラム関連情報からビデオ、オーディオ、付加データ及び付加再生情報が復元され、付加再生情報の三次元再生のための情報が抽出される。抽出されたES段階で、付加再生データ及び付加再生情報の三次元再生のための情報が抽出されもする。
第1実施形態によるクローズドキャプション・データ及びクローズドキャプション三次元再生情報は、ビデオES、ビデオESのヘッダまたはセクションから抽出される。第2,3実施形態によるサブタイトルデータ及びサブタイトル三次元再生情報は、サブタイトルPESパケット及びサブタイトルPESパケットのヘッダのうち、少なくとも一つから抽出される。第4実施形態によるEPGデータ及びEPG三次元再生情報は、ATSC−PSIPテーブルまたはDVB_SIテーブル内の叙述子(descriptor)フィールドから抽出される。
段階4240で、復元されたビデオ、オーディオ、付加データ及び付加再生情報を再生する。一実施形態による付加再生情報の三次元再生のための情報に基づいて、三次元付加再生情報が構成される。ビデオデータの再生と共に、三次元付加再生情報が三次元で再生される。
また、付加再生情報の三次元再生のための情報に基づいて、付加再生情報のデプス感が調節されて三次元で再生されたり、あるいは付加再生情報のオフセット情報の安全性を確認した後で三次元で再生されるので、視聴者がビデオ及び付加再生情報間の不適切なデプス感のために感じることがある不便さが解消される。
一方、前述の本発明の実施形態は、コンピュータで実行されるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用し、前記プログラムを動作させる汎用デジタル・コンピュータで具現される。前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM(read-only memory)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVD(digital versatile disc)など)のような記録媒体を含む。
以上、本発明について、その望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者であるならば、本発明が本発明の本質的な特性から外れない範囲で変形された形態で具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなくして、説明的な観点から考慮されねばならない。本発明の範囲は、前述の説明ではなくして、特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は、本発明に含まれたものであると解釈さればならない。

Claims (18)

  1. マルチメディア・ストリームに係わるTS(transport stream)ストリームを受信して逆多重化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを抽出する段階と、
    前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットから、二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータと共に再生されるための付加再生情報のデータ及び前記付加再生情報の三次元再生のための前記付加再生情報のデプス感情報を含む、ビデオES、オーディオES、付加データストリーム及び補助情報ストリームを抽出する段階と、
    前記ビデオES、前記オーディオES、前記付加データストリーム及び前記補助情報ストリームから、ビデオデータ、オーディオデータ、付加データ及び前記付加再生情報を復元し、前記付加再生情報のデプス感情報を抽出する段階と、
    前記復元されたビデオの再生と共に、前記復元された付加再生情報のデプス感情報に基づいて、前記付加再生情報を三次元で再生する段階と、を含み、
    前記付加再生情報のデプス感情報は、
    前記ビデオの三次元再生中、前記付加再生情報のデプス感を調節するための付加再生情報のオフセットについての情報を含
    前記オフセットが前記ビデオの変位情報よりも視聴者よりでないことを示す場合、前記ビデオが前記付加再生情報よりも視聴者よりで前記付加再生情報と重畳しないように前記ビデオデータ又は前記オフセットの少なくとも一方を映像後処理する段階を含む、
    ことを特徴とする付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  2. 前記付加再生情報のデプス感情報は、前記ビデオの三次元再生中、前記付加再生情報のオフセット方向についての情報をさらに含み、
    前記付加再生情報の三次元再生段階は、
    前記付加再生情報のデプス感情報において、前記付加再生情報のオフセット及びオフセット方向に基づいて、前記付加再生情報を、前記オフセットほど正または負の方向に移動させる段階を含み、
    前記オフセットは、前記ビデオデータのデプス、変位及び両眼視差のうち一つで表現された前記付加再生情報の移動量を示すことを特徴とする請求項1に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  3. 前記付加再生情報の三次元再生段階は、
    前記付加再生情報のオフセット及びオフセット方向に基づいて、
    (i)前記付加再生情報を、デプスが原点の基本平面に対比して、前記オフセットほど正または負の方向に、移動させる段階と、
    (ii)前記付加再生情報を、前記付加再生情報と共に再生されるビデオのデプス、変位及び両眼視差のうち一つに対比して、前記オフセットほど正または負の方向に、移動させる段階と、
    (iii)前記付加再生情報の第1視点付加再生情報及び第2視点付加再生情報のうち1つの視点付加再生情報を、前記オフセットほど正の方向に、残りの視点付加再生情報を、前記オフセットほど負の方向に移動させる段階と、
    (iv)前記付加再生情報の第1視点付加再生情報及び第2視点付加再生情報のうち1つの視点付加再生情報の位置に対比して、残りの視点付加再生情報の位置を、前記オフセットほど移動させる段階と、のうちいずれか1つの段階を含むことを特徴とする請求項2に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  4. 前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリームの抽出段階は、
    前記ビデオESから、前記ビデオと共に、ディスプレイ画面上に再生されるクローズドキャプション・データを抽出する段階と、
    前記クローズドキャプションの三次元再生のための前記クローズドキャプションのデプス感情報を、前記ビデオES、前記ビデオESのヘッダ、前記補助情報ストリームのうち少なくとも一つから抽出する段階と、を含むことを特徴とする請求項1に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  5. 前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリームの抽出段階は、
    前記付加データストリームとして、前記ビデオデータと共に再生されるためのサブタイトルデータに係わるサブタイトルデータストリームを抽出する段階と、
    前記サブタイトルデータの三次元再生のための前記サブタイトルデータのデプス感情報を、前記付加データPESパケット及び前記付加データPESパケットのヘッダのうち少なくとも一つから抽出する段階と、をさらに含むことを特徴とする請求項1に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  6. 前記マルチメディア・ストリームが、ANSI/SCTEAmerican National Standard Institute/Society of Cable Telecommunications Engineers)基盤のケーブル通信システムを介して受信された場合、前記サブタイトルデータのデプス感情報は、三次元サブタイトルのビットマップ及びフレームのうち少なくとも一つの移動量を示す視差情報、前記三次元サブタイトルのデプス情報及び座標情報のうち少なくとも一つを示すオフセット情報を含むことを特徴とする請求項5に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  7. 前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリームの抽出段階は、
    前記マルチメディア・ストリームが、DVB(digital video broadcasting)基盤の通信システムを介して受信された場合、前記サブタイトルデータストリームのページ構成セグメントの保留フィールドから、現在ページ内の領域別オフセット情報を抽出することを特徴とする請求項5に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  8. 前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリームの抽出段階は、
    前記ビデオと同時に再生されるためのEPG(electronic program guide)データ及び前記EPG情報の三次元再生のための前記EPG情報のデプス感情報を、前記補助情報ストリームから抽出する段階を含むことを特徴とする請求項1に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  9. 前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリームの抽出段階は、
    前記マルチメディア・ストリームが、ATSC(advanced television standards committee)基盤の通信システムを介して受信された場合、前記EPG情報のデプス感情報を、ATSCのPSIP(program specific information protocol)テーブル内の叙述子フィールドから抽出することを特徴とする請求項8に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  10. 前記ビデオES、オーディオES、付加データストリーム及び補助情報ストリームの抽出段階は、
    前記マルチメディア・ストリームがDVB基盤の通信システムを介して受信された場合、前記EPG情報のデプス感情報を、DVBのSI(specific information)テーブル内の叙述子フィールドから抽出することを特徴とする請求項9に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  11. 二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータを含むマルチメディア・ストリームに係わるTS(transport stream)ストリームを受信する受信部と、
    前記受信されたTSを逆多重化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを抽出し、前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットから、ディスプレイ画面上に、前記ビデオと共に再生される付加再生情報のデータ及び前記付加再生情報の三次元再生のための前記付加再生情報のデプス感情報を含む、ビデオES(elementary stream)ストリーム、オーディオES、付加データストリーム及び補助情報ストリームを抽出する逆多重化部と、
    前記ビデオES、前記オーディオES、前記付加データストリーム及び前記補助情報ストリームから、ビデオデータ、オーディオデータ、付加データ及び前記付加再生情報を復元し、前記付加再生情報の三次元再生のための情報を抽出する復号化部と、
    前記復元されたビデオの再生と共に、前記付加再生情報のデプス感情報に基づいて、前記復元された付加再生情報を三次元で再生する再生部と、を含み、
    前記付加再生情報のデプス感情報は、前記ビデオデータの三次元再生中、前記付加再生情報のデプス感を調節するための付加再生情報のオフセットについての情報を含み、
    前記再生部は、前記オフセットが前記ビデオの変位情報よりも視聴者よりでないことを示す場合、前記ビデオが前記付加再生情報よりも視聴者よりで前記付加再生情報と重畳しないように前記ビデオデータ又は前記オフセットの少なくとも一方を映像後処理する三次元再生のためのマルチメディア・ストリーム受信装置に対し、マルチメディア・ストリームを送信するマルチメディア・ストリーム生成方法であって、
    二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータ、関連オーディオデータ、ディスプレイ画面上に前記ビデオデータと共に再生される付加再生情報のデータ及び前記付加再生情報の三次元再生のための付加再生情報のデプス感情報を含むように、ビデオES(elementary stream)、オーディオES、付加データストリーム及び補助情報ストリームを生成する段階と、
    前記ビデオES、前記オーディオES及び前記付加データストリームをパケット化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、データPESパケット及び補助情報パケットを生成する段階と、
    前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットを多重化し、TS(transport stream)を生成する段階と、を含み、
    前記付加再生情報のデプス感情報は、前記ビデオデータの三次元再生中、前記付加再生情報のデプス感を調節するための付加再生情報のオフセットについての情報を含むことを特徴とする付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法。
  12. 前記付加再生情報の三次元デプス感情報は、前記ビデオデータの三次元再生中、前記付加再生情報のオフセット方向についての情報をさらに含むことを特徴とする請求項11に記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法。
  13. 二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータを含むマルチメディア・ストリームに係わるTS(transport stream)ストリームを受信する受信部と、
    前記受信されたTSを逆多重化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを抽出し、前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットから、ディスプレイ画面上に、前記ビデオと共に再生される付加再生情報のデータ及び前記付加再生情報の三次元再生のための前記付加再生情報のデプス感情報を含む、ビデオES(elementary stream)ストリーム、オーディオES、付加データストリーム及び補助情報ストリームを抽出する逆多重化部と、
    前記ビデオES、前記オーディオES、前記付加データストリーム及び前記補助情報ストリームから、ビデオデータ、オーディオデータ、付加データ及び前記付加再生情報を復元し、前記付加再生情報の三次元再生のための情報を抽出する復号化部と、
    前記復元されたビデオの再生と共に、前記付加再生情報のデプス感情報に基づいて、前記復元された付加再生情報を三次元で再生する再生部と、を含み、
    前記付加再生情報のデプス感情報は、前記ビデオデータの三次元再生中、前記付加再生情報のデプス感を調節するための付加再生情報のオフセットについての情報を含み、
    前記再生部は、前記オフセットが前記ビデオの変位情報よりも視聴者よりでないことを示す場合、前記ビデオが前記付加再生情報よりも視聴者よりで前記付加再生情報と重畳しないように前記ビデオデータ又は前記オフセットの少なくとも一方を映像後処理する、
    ことを特徴とする付加再生情報の三次元再生のためのマルチメディア・ストリーム受信装置。
  14. 二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータを含むマルチメディア・ストリームに係わるTS(transport stream)ストリームを受信する受信部と、
    前記受信されたTSを逆多重化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを抽出し、前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットから、ディスプレイ画面上に、前記ビデオと共に再生される付加再生情報のデータ及び前記付加再生情報の三次元再生のための前記付加再生情報のデプス感情報を含む、ビデオES(elementary stream)ストリーム、オーディオES、付加データストリーム及び補助情報ストリームを抽出する逆多重化部と、
    前記ビデオES、前記オーディオES、前記付加データストリーム及び前記補助情報ストリームから、ビデオデータ、オーディオデータ、付加データ及び前記付加再生情報を復元し、前記付加再生情報の三次元再生のための情報を抽出する復号化部と、
    前記復元されたビデオの再生と共に、前記付加再生情報のデプス感情報に基づいて、前記復元された付加再生情報を三次元で再生する再生部と、を含み、
    前記付加再生情報のデプス感情報は、前記ビデオデータの三次元再生中、前記付加再生情報のデプス感を調節するための付加再生情報のオフセットについての情報を含み、
    前記再生部は、前記オフセットが前記ビデオの変位情報よりも視聴者よりでないことを示す場合、前記ビデオが前記付加再生情報よりも視聴者よりで前記付加再生情報と重畳しないように前記ビデオデータ又は前記オフセットの少なくとも一方を映像後処理する三次元再生のためのマルチメディア・ストリーム受信装置に対し、マルチメディア・ストリームを送信するマルチメディア・ストリーム生成装置であって、
    二次元ビデオ及び三次元ビデオのうち少なくとも一つを含むビデオデータ、関連オーディオデータ、ディスプレイ画面上に前記ビデオと共に再生される付加再生情報のデータ及び前記付加再生情報の三次元再生のための前記付加再生情報のデプス感情報を含む、ビデオES(elementary stream)、オーディオES、付加データストリーム及び補助情報ストリームを生成し、前記ビデオES、前記オーディオES及び前記付加データストリームをパケット化し、ビデオPES(packetized elementary stream)パケット、オーディオPESパケット、付加データPESパケット及び補助情報パケットを生成するプログラム符号化部と、
    前記ビデオPESパケット、前記オーディオPESパケット、前記付加データPESパケット及び前記補助情報パケットを多重化し、TSを生成するTS生成部と、を含み、
    前記付加再生情報のデプス感情報は、前記ビデオデータの三次元再生中、前記付加再生情報のデプス感を調節するための付加再生情報のオフセットについての情報を含むことを特徴とする付加再生情報の三次元再生のためのマルチメディア・ストリーム生成装置。
  15. 請求項1ないし請求項12のうち、いずれか一項に記載の方法を具現するためのプログラムが記録されたコンピュータで読み取り可能な記録媒体。
  16. 前記映像後処理する段階では、前記ビデオデータを縮小し、前記付加再生情報と合成する映像後処理を行う、ことを特徴とする請求項1記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  17. 前記映像後処理する段階では、前記付加再生情報を前記ビデオデータよりも視聴者よりに表示させる映像後処理を行う、ことを特徴とする請求項1記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
  18. 前記映像後処理する段階では、前記ビデオデータをディスプレイ平面のデプスで表示させる映像後処理を行う、ことを特徴とする請求項1記載の付加再生情報の三次元再生のためのマルチメディア・ストリーム受信方法。
JP2012538769A 2009-11-13 2010-11-15 ビデオ付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びその装置、並びに受信方法及びその装置 Active JP5721732B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US26089309P 2009-11-13 2009-11-13
US61/260,893 2009-11-13
US26663109P 2009-12-04 2009-12-04
US61/266,631 2009-12-04
KR1020100056757A KR20110053160A (ko) 2009-11-13 2010-06-15 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR1020100056756A KR20110053159A (ko) 2009-11-13 2010-06-15 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR10-2010-0056757 2010-06-15
KR10-2010-0056756 2010-06-15
PCT/KR2010/008066 WO2011059289A2 (en) 2009-11-13 2010-11-15 Method and apparatus for generating multimedia stream for 3-dimensional reproduction of additional video reproduction information, and method and apparatus for receiving multimedia stream for 3-dimensional reproduction of additional video reproduction information

Publications (2)

Publication Number Publication Date
JP2013511199A JP2013511199A (ja) 2013-03-28
JP5721732B2 true JP5721732B2 (ja) 2015-05-20

Family

ID=44362910

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012538770A Active JP5721733B2 (ja) 2009-11-13 2010-11-15 ビデオ付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びその装置、並びに受信方法及びその装置
JP2012538769A Active JP5721732B2 (ja) 2009-11-13 2010-11-15 ビデオ付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びその装置、並びに受信方法及びその装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2012538770A Active JP5721733B2 (ja) 2009-11-13 2010-11-15 ビデオ付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びその装置、並びに受信方法及びその装置

Country Status (8)

Country Link
US (2) US20110119708A1 (ja)
EP (2) EP2471263A4 (ja)
JP (2) JP5721733B2 (ja)
KR (2) KR20110053160A (ja)
CN (2) CN102640505A (ja)
BR (2) BR112012010636A2 (ja)
MX (2) MX2012004849A (ja)
WO (2) WO2011059290A2 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2371140B1 (en) * 2009-02-12 2017-03-01 LG Electronics Inc. Broadcast receiver and 3d subtitle data processing method thereof
US8291322B2 (en) * 2009-09-30 2012-10-16 United Video Properties, Inc. Systems and methods for navigating a three-dimensional media guidance application
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
CN102812711B (zh) * 2010-02-25 2016-11-02 汤姆森特许公司 利用视差估计和视差时间变化限制的立体字幕加载
JP5964811B2 (ja) * 2010-04-02 2016-08-03 サムスン エレクトロニクス カンパニー リミテッド 二次元コンテンツ並びに三次元コンテンツを提供するためのデジタル放送コンテンツ伝送方法及びその装置、デジタル放送コンテンツ受信方法及びその装置
CA2797568C (en) 2010-04-30 2017-06-27 Lg Electronics Inc. An apparatus of processing an image and a method of processing thereof
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
CN105812771B (zh) * 2010-06-27 2017-12-08 Lg电子株式会社 数字接收器以及在数字接收器中处理字幕数据的方法
US10326978B2 (en) 2010-06-30 2019-06-18 Warner Bros. Entertainment Inc. Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US9591374B2 (en) 2010-06-30 2017-03-07 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion for 3D movies
US8755432B2 (en) 2010-06-30 2014-06-17 Warner Bros. Entertainment Inc. Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues
US8640182B2 (en) 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
US8593574B2 (en) * 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US8917774B2 (en) 2010-06-30 2014-12-23 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US9654810B2 (en) 2010-07-23 2017-05-16 Lattice Semiconductor Corporation Mechanism for partial encryption of data streams
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
CN102137264B (zh) * 2010-08-25 2013-03-13 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
JP5483357B2 (ja) * 2010-08-27 2014-05-07 アルパイン株式会社 デジタルテレビ受信装置及びデジタルテレビ受信装置を設けた車載装置
EP2613551B1 (en) * 2010-09-01 2017-04-26 LG Electronics Inc. Digital receiver and method for processing 3d content in the digital receiver
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US20120102527A1 (en) * 2010-10-24 2012-04-26 Hsuan-Ching Liu TV system generating three-dimensional parameters according to a classification of a three-dimensional TV program and method thereof
GB2485140A (en) * 2010-10-26 2012-05-09 Sony Corp A Method and Apparatus For Inserting Object Data into a Stereoscopic Image
JP2012120142A (ja) * 2010-11-08 2012-06-21 Sony Corp 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
US9172943B2 (en) * 2010-12-07 2015-10-27 At&T Intellectual Property I, L.P. Dynamic modification of video content at a set-top box device
JP4908624B1 (ja) * 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
JP2012205285A (ja) * 2011-03-28 2012-10-22 Sony Corp 映像信号処理装置及び映像信号処理方法
JP5957769B2 (ja) * 2011-04-28 2016-07-27 パナソニックIpマネジメント株式会社 映像処理装置及び映像処理方法
WO2012160812A1 (ja) * 2011-05-25 2012-11-29 パナソニック株式会社 映像処理装置、送信装置、立体映像視聴システム、映像処理方法、映像処理プログラム及び集積回路
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
WO2013005406A1 (ja) * 2011-07-01 2013-01-10 パナソニック株式会社 送信装置、受信再生装置、送信方法及び受信再生方法
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
US20130169762A1 (en) * 2011-07-15 2013-07-04 Hitachi Consumer Electronics, Ltd. Receiving apparatus, receiving method and transmitting apparatus
EP2600620A4 (en) * 2011-08-04 2014-03-26 Sony Corp SENDING DEVICE, TRANSMISSION PROCEDURE AND RECEIVING DEVICE
US9456194B2 (en) * 2011-08-05 2016-09-27 Panasonic Corporation Reception/reproduction device, transmission device, reception/reproduction method and transmission method
US20130050420A1 (en) * 2011-08-22 2013-02-28 Ding-Yun Chen Method and apparatus for performing image processing according to disparity information
CN103037236A (zh) * 2011-08-22 2013-04-10 联发科技股份有限公司 图像处理方法以及装置
JP2013066075A (ja) * 2011-09-01 2013-04-11 Sony Corp 送信装置、送信方法および受信装置
US8970666B2 (en) * 2011-09-16 2015-03-03 Disney Enterprises, Inc. Low scale production system and method
US20130077690A1 (en) * 2011-09-23 2013-03-28 Qualcomm Incorporated Firmware-Based Multi-Threaded Video Decoding
US8964979B2 (en) * 2011-10-07 2015-02-24 Silicon Image, Inc. Identification and handling of data streams using coded preambles
US10009591B2 (en) * 2011-12-04 2018-06-26 Lg Electronics Inc. Digital broadcasting reception method and apparatus capable of displaying stereoscopic images
US9626798B2 (en) 2011-12-05 2017-04-18 At&T Intellectual Property I, L.P. System and method to digitally replace objects in images or video
AU2013210580A1 (en) * 2012-01-18 2013-11-28 Panasonic Corporation Transmission device, video display device, transmission method, video processing method, video processing program, and integrated circuit
US9071842B2 (en) * 2012-04-19 2015-06-30 Vixs Systems Inc. Detection of video feature based on variance metric
US20130300823A1 (en) * 2012-05-10 2013-11-14 Jiun-Sian Chu Stereo effect enhancement systems and methods
ES2583842T3 (es) * 2012-06-30 2016-09-22 Huawei Technologies Co., Ltd Método, terminal y servidor para restablecer una transmisión de contenido de sesión
CZ308335B6 (cs) * 2012-08-29 2020-05-27 Awe Spol. S R.O. Způsob popisu bodů předmětů předmětového prostoru a zapojení k jeho provádění
TWI475898B (zh) * 2012-09-05 2015-03-01 Acer Inc 多媒體處理系統及音訊信號調整方法
US9413985B2 (en) 2012-09-12 2016-08-09 Lattice Semiconductor Corporation Combining video and audio streams utilizing pixel repetition bandwidth
US11237695B2 (en) * 2012-10-12 2022-02-01 Sling Media L.L.C. EPG menu with a projected 3D image
SG11201504103WA (en) 2012-11-26 2015-06-29 Sony Corp Transmitting apparatus, transmittingmethod, receiving apparatus, receiving method, andreceiving display method
CN104871533A (zh) 2012-12-24 2015-08-26 汤姆逊许可公司 用于显示立体影像的装置和方法
KR102143472B1 (ko) * 2013-07-26 2020-08-12 삼성전자주식회사 다시점 영상 처리 장치 및 그 영상 처리 방법
KR101840203B1 (ko) * 2013-09-03 2018-03-20 엘지전자 주식회사 방송 신호 전송 장치, 방송 신호 수신 장치, 방송 신호 전송 방법, 및 방송 신호 수신 방법
US10306278B2 (en) * 2014-04-27 2019-05-28 Lg Electronics Inc. Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
US9729927B2 (en) * 2014-10-30 2017-08-08 Rovi Guides, Inc. Systems and methods for generating shadows for a media guidance application based on content
WO2016086075A1 (en) * 2014-11-24 2016-06-02 The Nielsen Company (Us), Llc Methods and apparatus to predict time-shifted exposure to media
JP6724791B2 (ja) * 2014-12-19 2020-07-15 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2016163603A1 (ko) * 2015-04-05 2016-10-13 엘지전자 주식회사 Xml 자막에 기반한 방송 서비스를 위한 방송 신호 송수신 방법 및 장치
US10638179B2 (en) * 2015-08-06 2020-04-28 At&T Intellectual Property I, L.P. Content insertion in streaming media content
US10915647B2 (en) 2015-11-20 2021-02-09 Genetec Inc. Media streaming
US10230812B1 (en) * 2016-01-29 2019-03-12 Amazon Technologies, Inc. Dynamic allocation of subtitle packaging
TWI728061B (zh) * 2016-03-15 2021-05-21 日商新力股份有限公司 送訊裝置及收訊裝置
CN110114803B (zh) * 2016-12-28 2023-06-27 松下电器(美国)知识产权公司 三维模型分发方法、三维模型接收方法、三维模型分发装置以及三维模型接收装置
JP7035401B2 (ja) * 2017-09-15 2022-03-15 ソニーグループ株式会社 画像処理装置およびファイル生成装置
CN110730277B (zh) * 2018-07-17 2022-04-05 阿里巴巴集团控股有限公司 一种信息编码及获取编码信息的方法和装置
CN110647657B (zh) * 2019-09-19 2022-05-24 四川东方网力科技有限公司 资源结构化数据自动纠错的方法、装置、设备及存储介质
US20230237731A1 (en) * 2022-01-27 2023-07-27 Meta Platforms Technologies, Llc Scalable parallax system for rendering distant avatars, environments, and dynamic objects

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US7877769B2 (en) * 2000-04-17 2011-01-25 Lg Electronics Inc. Information descriptor and extended information descriptor data structures for digital television signals
US20030169369A1 (en) * 2002-03-05 2003-09-11 Michael Kahn Consumer video captioning system
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP4222875B2 (ja) * 2003-05-28 2009-02-12 三洋電機株式会社 立体映像表示装置及びプログラム
US20070182730A1 (en) * 2003-05-28 2007-08-09 Ken Mashitani Stereoscopic image display apparatus and program
JP4576131B2 (ja) * 2004-02-19 2010-11-04 パイオニア株式会社 立体的二次元画像表示装置及び立体的二次元画像表示方法
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
KR100818933B1 (ko) * 2005-12-02 2008-04-04 한국전자통신연구원 디지털방송 기반 3차원 컨텐츠 서비스 제공 방법
WO2007067020A1 (en) * 2005-12-09 2007-06-14 Electronics And Telecommunications Research Institute System and method for transmitting/receiving three dimensional video based on digital broadcasting
KR100747598B1 (ko) * 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
KR101377736B1 (ko) * 2006-10-11 2014-03-24 코닌클리케 필립스 엔.브이. 3차원 그래픽 데이터의 생성
EP2157803B1 (en) * 2007-03-16 2015-02-25 Thomson Licensing System and method for combining text with three-dimensional content
KR101556123B1 (ko) * 2007-07-25 2015-09-30 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US8400497B2 (en) * 2007-09-07 2013-03-19 Samsung Electronics Co., Ltd Method and apparatus for generating stereoscopic file
US8898686B2 (en) * 2007-09-27 2014-11-25 Verizon Patent And Licensing Inc. Video on demand sneak peek and “snippet” billing
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
KR101472332B1 (ko) * 2008-04-15 2014-12-15 삼성전자주식회사 3차원 디지털 컨텐츠의 제공 방법, 수신 방법 및 그 장치
EP2308240A1 (en) * 2008-07-25 2011-04-13 Koninklijke Philips Electronics N.V. 3d display handling of subtitles
KR101633627B1 (ko) * 2008-10-21 2016-06-27 코닌클리케 필립스 엔.브이. 입력 3차원 비디오 신호를 프로세싱하는 방법 및 시스템
KR101622691B1 (ko) * 2009-01-08 2016-05-19 엘지전자 주식회사 3차원 캡션 신호 전송 방법 및 3차원 캡션 디스플레이 방법
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
JP5627860B2 (ja) * 2009-04-27 2014-11-19 三菱電機株式会社 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置
US8291322B2 (en) * 2009-09-30 2012-10-16 United Video Properties, Inc. Systems and methods for navigating a three-dimensional media guidance application

Also Published As

Publication number Publication date
US20110119708A1 (en) 2011-05-19
WO2011059290A2 (en) 2011-05-19
EP2471263A2 (en) 2012-07-04
JP2013511200A (ja) 2013-03-28
WO2011059290A3 (en) 2011-09-15
WO2011059289A3 (en) 2011-10-13
BR112012011171A2 (pt) 2017-09-12
CN102640504A (zh) 2012-08-15
EP2499828A4 (en) 2014-03-05
BR112012010636A2 (pt) 2017-12-19
EP2471263A4 (en) 2014-03-05
JP5721733B2 (ja) 2015-05-20
EP2499828A2 (en) 2012-09-19
US20110119709A1 (en) 2011-05-19
MX2012004678A (es) 2012-06-14
CN102640505A (zh) 2012-08-15
WO2011059289A2 (en) 2011-05-19
KR20110053159A (ko) 2011-05-19
KR20110053160A (ko) 2011-05-19
JP2013511199A (ja) 2013-03-28
MX2012004849A (es) 2012-06-12

Similar Documents

Publication Publication Date Title
JP5721732B2 (ja) ビデオ付加再生情報の三次元再生のためのマルチメディア・ストリーム生成方法及びその装置、並びに受信方法及びその装置
JP5675810B2 (ja) 付加データの三次元再生のための信号処理方法及びその装置
JP6034420B2 (ja) 3次元映像の再生のための付加情報が挿入された3次元映像データストリーム生成方法及びその装置、3次元映像の再生のための付加情報が挿入された3次元映像データストリーム受信方法及びその装置
CA2749064C (en) 3d caption signal transmission method and 3d caption display method
JP5785193B2 (ja) 三次元マルチメディア・サービスを提供するためのデータストリーム生成方法及びその装置、三次元マルチメディア・サービスを提供するためのデータストリーム受信方法及びその装置
KR101622688B1 (ko) 3차원 캡션 디스플레이 방법 및 이를 구현하기 위한 3차원 디스플레이 장치
KR101659026B1 (ko) 3차원 캡션 디스플레이 방법 및 이를 구현하기 위한 3차원 디스플레이 장치
KR101672283B1 (ko) 3d 비디오 신호 처리 방법 및 이와 같은 기능을 수행하는 디지털 방송 수신기
US20120033039A1 (en) Encoding method, display device, and decoding method
KR20090102116A (ko) 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
JP2012120143A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9270972B2 (en) Method for 3DTV multiplexing and apparatus thereof
WO2013018490A1 (ja) 送信装置、送信方法および受信装置
WO2013018489A1 (ja) 送信装置、送信方法および受信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150324

R150 Certificate of patent or registration of utility model

Ref document number: 5721732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250