Nothing Special   »   [go: up one dir, main page]

JP5007681B2 - 放送システム - Google Patents

放送システム Download PDF

Info

Publication number
JP5007681B2
JP5007681B2 JP2008032673A JP2008032673A JP5007681B2 JP 5007681 B2 JP5007681 B2 JP 5007681B2 JP 2008032673 A JP2008032673 A JP 2008032673A JP 2008032673 A JP2008032673 A JP 2008032673A JP 5007681 B2 JP5007681 B2 JP 5007681B2
Authority
JP
Japan
Prior art keywords
information
image
data
unit
material data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008032673A
Other languages
English (en)
Other versions
JP2009194594A5 (ja
JP2009194594A (ja
Inventor
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2008032673A priority Critical patent/JP5007681B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN200980104689XA priority patent/CN101939988B/zh
Priority to US12/735,489 priority patent/US8767067B2/en
Priority to RU2010132906/07A priority patent/RU2454024C2/ru
Priority to BRPI0907897-5A priority patent/BRPI0907897A2/pt
Priority to KR1020107017592A priority patent/KR20100121614A/ko
Priority to EP09711145A priority patent/EP2242271A4/en
Priority to PCT/JP2009/052363 priority patent/WO2009101997A1/ja
Publication of JP2009194594A publication Critical patent/JP2009194594A/ja
Publication of JP2009194594A5 publication Critical patent/JP2009194594A5/ja
Application granted granted Critical
Publication of JP5007681B2 publication Critical patent/JP5007681B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/13Arrangements for device control affected by the broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、放送システムに関し、特に、例えば、放送システムの受信側において、適切な処理を行うことができるようにする放送システムに関する。
例えば、現行の、アナログ放送やディジタル放送の放送システムでは、送信側である放送局において、素材データとしての画像や音声が編集され、その編集後の画像及び音声が、番組として放送される。
一方、受信側である、例えば、各家庭では、TV(テレビジョン受像機)等によって、放送局からの番組の出力、すなわち、番組としての画像の表示、及び、音声の出力が行われる。
なお、1本の番組に注目した場合、現行の放送システムでは、放送局での編集の結果得られる1種類の画像、及び音声が、1本の番組として放送される。したがって、受信側のユーザは、1種類の画像、及び音声しか楽しむことができない。
しかしながら、例えば、ドラマ番組等の1本の番組について、ユーザの好みの登場人物からの視点でそのドラマ番組の展開を見たいという要求や、見方によってはストーリ展開そのものが異なるようにしたいという、ユーザ参加型の要求が潜在的に存在する。
そこで、本件出願人は、予め用意された視点の異なる複数の素材を、ユーザが任意に選択してモニタすることができるディジタル放送受信装置を、先に提案している(例えば、特許文献1を参照)。
特開2006-217662号公報
ところで、放送局では、例えば、上述のように、画像や音声が編集されるが、その編集は、受信側のTVの、画像を表示する表示画面を考慮して行われるものではない。
したがって、受信側のTVの表示画面が大である場合には、TVにおいて、人の顔が、実際に見た場合の大きさよりも大きく表示され、臨場感が薄れることがある。
また、受信側のTVでは、例えば、上述のように、放送局で編集がされた、編集後の画像及び音声が表示等される。
したがって、例えば、放送局において、多数のテロップが、画像に合成される編集が行われた場合には、テロップによる演出を不要と感じるユーザ(視聴者)であっても、多数のテロップが合成された画像を視聴しなければならない。
本発明は、このような状況に鑑みてなされたものであり、放送システムの受信側において、適切な処理を行うことができるようにし、これにより、例えば、ユーザに臨場感を感じさせることや、ユーザの好みに合った画像を表示すること等ができるようにするものである。
本発明の一側面の放送システムは、データを送信する送信装置と、前記データを受信する受信装置とからなる放送システムであり、前記送信装置は、カメラで撮影された画像を素材データとして送信すると共に、前記カメラの撮影範囲を表す撮影範囲情報を含む、前記受信装置で前記素材データを加工するために用いられる付加情報を送信する送信手段を有し、前記受信装置は、前記素材データと前記付加情報を受信する受信手段と、前記素材データ前記付加情報、及び表示装置の表示画面の大きさを表す大きさ情報を含む、前記表示装置の特性を表す特性情報に基づいて、前記表示装置で表示される画像から認識される物体の大きさが、実世界での大きさに同定されるように、前記表示装置に表示させる画像を出力データとして生成する生成手段と、前記生成手段により前記出力データとして生成された前記画像を表示する前記表示装置を含む、出力手段とを有する放送システムである。
以上のような一側面においては、前記送信装置において、カメラで撮影された画像が素材データとして送信されると共に、前記カメラの撮影範囲を表す撮影範囲情報を含む、前記受信装置で前記素材データを加工するために用いられる付加情報が送信される。前記受信装置では、前記素材データと前記付加情報が受信され、前記素材データ前記付加情報、及び表示装置の表示画面の大きさを表す大きさ情報を含む、前記表示装置の特性を表す特性情報に基づいて、前記表示装置で表示される画像から認識される物体の大きさが、実世界での大きさに同定されるように、前記表示装置に表示させる画像を出力データとして生成される。そして、前記出力データとして生成された前記画像が表示される表示装置が含まれる。
また、送信装置、又は、受信装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
さらに、データの送信(放送)(伝送)は、有線、又は、無線のうちのいずれの伝送媒体を介して行うこともできるし、有線、及び、無線が混在する伝送媒体を介して行うこともできる。
本発明の側面によれば、放送システムの受信側において、適切な処理を行うことができる。
図1は、本発明を適用した放送システム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは、問わない)の一実施の形態の構成例を示している。
図1において、放送システムは、送信装置11と受信装置12とから構成されている。
送信装置11は、例えば、放送局に設置され、番組としての各種のデータを、地上波や衛星回線、インターネット、CATV(Cable Television)網等の伝送媒体13を介して送信する。
受信装置12は、例えば、家庭等に設置され、送信装置11から伝送媒体13を介して送信されてくるデータを受信する。
なお、受信装置12は、例えば、TV等として機能することができる。
また、放送システムにおいて、送信装置11は、1つだけではなく、複数設けることができる。受信装置12も同様である。
図2は、図1の送信装置11の構成例を示している。
図2において、送信装置11は、センサ部31、編集装置32、符号化部33、及び送信部34から構成されている。
なお、センサ部11や編集装置32は、送信装置11とは別個の装置とすることができる。
センサ部31は、編集装置32での編集の素材となる素材データを取得し、編集装置32、及び、符号化部33に供給する。
ここで、センサ部31としては、1種類の1つのセンサや、1種類の複数のセンサ、複数種類のセンサを採用することができる。
また、センサの種類としては、例えば、光をセンシングし、画像を出力する(撮影を行う)カメラ、音をセンシングし、音声を出力する(集音を行う)マイクロフォン、その他、温度や、湿度、風向き、風速、振動、明るさ等をそれぞれセンシングするセンサがある。
カメラによれば、撮影がされ、画像(データ)が、素材データとして出力される。また、マイクロフォンによれば、集音が行われ、音声(データ)が、素材データとして出力される。その他、温度、湿度、風向き、風速、振動、又は、明るさをそれぞれセンシングするセンサによれば、温度、湿度、風向き、風速、振動、又は、明るさを表すデータが、素材データとして出力される。
編集装置32は、センサ部31からの素材データに基づき、受信装置12で素材データを加工するために用いられる付加情報を生成し、符号化部33に供給する。
ここで、付加情報には、センサ部31によるセンシングが行われた対象についての実世界の物理量を表す実世界情報と、素材データの加工に用いられる情報であるエフェクト情報とが含まれる。
エフェクト情報は、例えば、放送局において、番組の制作を行う番組制作者が、編集装置32を操作することにより、その操作に従って生成される。
実世界情報は、番組制作者の操作に関係なく生成される。
なお、編集装置32において、付加情報は、例えば、1種類の素材データごとに生成される。したがって、センサ部31において、複数種類のセンサが採用されており、センサ部31から、符号化部33に対して、複数種類の素材データが供給される場合には、編集装置32から、符号化部33に対しては、その複数種類の素材データの各種類に対応する付加情報が供給される。
符号化部33は、センサ部31からの素材データと、編集装置32からの付加情報とを符号化する。なお、符号化部33は、必要に応じて、素材データ及び符号化データの多重化を行う。そして、符号化部33は、符号化の結果得られる符号化データを、送信部34に供給する。
送信部34は、符号化部33からの符号化データ、すなわち、センサ部31で取得した素材データと、編集装置32で生成した付加情報とを、伝送媒体13(図1)を介して送信する。
次に、編集装置32で生成される付加情報のうちのエフェクト情報について説明する。
図3は、素材データと、その素材データに対するエフェクト情報とを示している。
すなわち、図3Aは、素材データとしての、複数ストリームの画像(動画)を示している。
例えば、ある番組の画像が、複数であるN個のストリームの画像S#1,S#2,・・・,S#Nを編集して構成される場合、その番組の画像については、そのN個のストリームの画像S#1ないしS#Nが、素材データとなる。
ここで、N個のストリームの画像S#1ないしS#Nは、N個のセンサとしてのN個のカメラで、それぞれ取得した画像であっても良いし、N個未満(かつ1個以上)のM個のセンサとしてのM(<N)個のカメラで取得した画像であっても良い。
すなわち、N個のストリームの画像S#1ないしS#Nとしては、例えば、1個のカメラで、異なる時間に、異なる場所の風景を撮影して得られるN個のストリームの画像を採用することができる。
また、N個のストリームの画像S#1ないしS#Nとしては、例えば、N個のカメラで、オーケストラの全体、指揮者、特定の楽器の演奏者、観客席等を、それぞれ撮影して得られるN個のストリームの画像や、サッカー等のスポーツ中継において、競技場全体、スコアボード、特定の選手、観客席等を、それぞれ撮影して得られるN個のストリームの画像、音楽番組等において、スタジオ全体、各出演者等を、それぞれ撮影して得られるN個のストリームの画像等を採用することができる。
図3Bは、図3Aの素材データであるN個のストリームの画像S#1ないしS#Nに対するエフェクト情報を示している。
エフェクト情報としては、例えば、切り替え情報、表示画枠情報、及び合成用データ等がある。
切り替え情報は、例えば、素材データであるN個のストリームの画像S#1ないしS#Nから、1つのストリームの画像を選択することにより、受信装置12の、後述する表示装置に表示する画像を切り替えるための情報である。
表示画枠情報は、例えば、素材データである画像(図3では、画像S#1ないしS#Nのうちのいずれか)のうちの、受信装置12の表示装置に表示する部分の領域を表す。
合成用データは、例えば、素材データである画像(図3では、画像S#1ないしS#Nのうちのいずれか)との合成に用いられるデータで、その画像に合成される被合成データを含む。
ここで、被合成データとしては、ピクチャインピクチャの子画面の画像(以下、PinP画像という)のデータ(ピクチャインピクチャ用のデータ)や、テロップのデータ(字幕のデータ)等がある。
次に、図4を参照して、図3のエフェクト情報のうちの切り替え情報について説明する。
切り替え情報は、例えば、上述したように、ある番組Aの画像が、N個のストリームの画像S#1ないしS#Nを編集して構成される場合、そのN個のストリームの画像S#1ないしS#Nから、1つのストリームの画像を選択することにより、受信装置12の表示装置に表示する画像を切り替えるための情報である。
例えば、図2の編集装置32において、番組制作者の操作に応じて、図4に示すように、素材データである画像S#1のタイムコードts1ないしte1、素材データである画像S#2のタイムコードts2ないしte2、素材データである画像S#3のタイムコードts3ないしte3、素材データである画像S#1のタイムコードts4ないしte4、・・・の範囲を、順次つなぎ合わせるカット編集が行われることによって、ある番組A(の画像)が制作された場合、例えば、番組Aの各時刻において、番組Aの画像となる素材データと、その素材データのタイムコードとを特定する情報が、切り替え情報となる。
なお、編集装置32において、例えば、ある画像S#iと、他の画像#i'とのつなぎ目(いわゆる編集点)に、ワイプ等の特殊効果が施された場合には、切り替え情報には、その特殊効果に関する情報も含められる。
次に、図5を参照して、図3のエフェクト情報のうちの表示画枠情報について説明する。
表示画枠情報は、例えば、上述したように、素材データである画像のうちの、受信装置12の表示装置に表示する部分の領域を表す。
すなわち、例えば、素材データが、画像である場合、編集装置32では、番組制作者の操作に応じて、図5に示すように、素材データである画像の一部分の矩形の領域を、受信装置12の表示装置に表示する部分の領域(以下、表示用領域ともいう)として、番組の画像とする編集を行うことができるようになっている。
この場合、編集装置32によれば、番組制作者は、素材データである画像の領域を最大限として、その領域内において、カメラを、番組制作者自身が、パンや、チルト、ズームの操作をして撮影を行ったかのような番組を制作することができる。
ここで、表示用領域の最大は、素材データである画像の領域である。したがって、センサ部31(図2)としてのカメラを、最大画角(最も広角側)にして撮影を行うことにより、表示用領域を、最も大きくすることができる。
なお、表示画角情報としては、表示用領域を特定することができる情報であれば、どのような情報であっても良い。
すなわち、表示画角情報としては、例えば、素材データである画像の領域を基準とする座標系を定義し、その座標系における、表示用領域の1つの頂点と、その頂点の対角にある頂点との座標や、表示用領域の1の頂点の座標と、表示用領域の横及び縦の長さ等を採用することができる。
また、表示画角情報としては、例えば、所定の位置の、所定の大きさの表示用領域を、デフォルトの表示用領域として、そのデフォルトの表示用領域に対して、番組制作者が編集として行ったパン、チルト、及びズームの操作の履歴を採用することができる。
次に、図6を参照して、図3のエフェクト情報のうちの合成用データについて説明する。
合成用データは、上述したように、素材データとの合成に用いられるデータで、素材データに合成される被合成データと、その被合成データを用いた合成を行うタイミングを表すタイミング情報とを含む。
すなわち、例えば、素材データが、画像であり、図2の編集装置32において、番組制作者の操作に応じて、素材データである画像に、PinP画像やテロップを重畳(合成)する編集が行われることによって、番組が制作された場合、そのPinP画像や、テロップが、被合成データとなる。
また、被合成データとしてのPinP画像や、テロップを重畳している時間(例えば、重畳を開始する時刻と、重畳を終了する時刻)を表す、例えば、番組のタイムコードが、タイミング情報となる。
なお、合成用データは、その他、例えば、被合成データとしてのPinP画像や、テロップを重畳する画像上の位置を表す情報等を含む。
また、例えば、素材データが、音声である場合には、BGM(Background Music)等が、被合成データとなる。
ある種類の素材データが、音声であり、その音声が、他の種類の素材データである画像(動画)に付随する音声である場合には、音声に合成されるBGMのタイミング情報としては、その音声を基準とする時刻を表す情報を採用することもできるし、その音声に付随する画像のタイムコードを採用することもできる。
次に、編集装置32(図2)で生成される付加情報のうちの実世界情報について説明する。
実世界情報は、上述したように、センサ部31(図2)によるセンシングが行われた対象についての実世界の物理量を表す情報であり、例えば、センサ部31がカメラである場合に、そのカメラで撮影する撮影対象(以下、撮影オブジェクトともいう)の位置における撮影範囲を表す撮影範囲情報等が、実世界情報に含まれる。
ここで、図7を参照して、カメラの撮影範囲について説明する。
図7は、カメラで撮影を行っている状態を模式的に示す上面図である。
いま、説明を簡単にするために、カメラの光学系(レンズ群)に歪みがないこととし、カメラの水平方向の画角(以下、カメラ画角ともいう)を、θとするとともに、カメラから撮影オブジェクトまでの距離(以下、オブジェクト距離ともいう)を、Xとする。
なお、カメラ画角θは、既知であることとする。
また、オブジェクト距離Xは、例えば、いわゆるオートフォーカスの技術を利用して測定される。
すなわち、オブジェクト距離Xは、例えば、赤外線センサや、ソナーを用いて測定することができる。また、オブジェクト距離Xは、カメラで撮影される画像のコントラストを最大にするように、フォーカスを調整するコントラスト検知式や、カメラで撮影される画像の位相差をなくすように、フォーカスを調整する位相差検知式等を利用して測定することができる。
なお、カメラでの撮影時に、オブジェクト距離Xがあらかじめ分かっている場合には、オブジェクト距離Xの測定を行う必要はない。
いま、説明を簡単にするために、撮影オブジェクトの位置において、カメラで撮影される実世界の横及び縦の長さのうちの、例えば、横の長さだけに注目し、その横の長さを、撮影オブジェクトの位置における撮影範囲Dということとする。
撮影範囲Dは、カメラ画角θと、オブジェクト距離Xとから、式D=2×X×tan(θ/2)に従って求めることができる。
そこで、図2の編集装置32は、センサ部31としてのカメラから、素材データである画像の他、カメラ画角θ及びオブジェクト距離Xをも取得し、そのカメラ画角θ及びオブジェクト距離Xから、撮影範囲Dを求める。そして、編集装置32は、撮影範囲Dを撮影範囲情報として、実世界情報に含めて、符号化部33に供給する。
次に、図8を参照して、図2の送信装置11の処理(送信処理)について説明する。
送信装置11では、センサ部31で取得された素材データが、編集装置32、及び、符号化部33に供給される。
編集装置32では、センサ部31からの素材データ等に基づき、エフェクト情報、及び、実世界情報のうちの一方、又は両方を含む付加情報が生成され、符号化部33に供給される。
符号化部33は、以上のようにして、センサ部31から素材データが供給されるとともに、編集装置32から付加情報が供給されると、ステップS11において、センサ部31からの素材データと、編集装置32からの付加情報とを符号化し、その結果得られる符号化データを、送信部34に供給して、処理は、ステップS12に進む。
ステップS12では、送信部34は、符号化部33からの符号化データを、伝送媒体13(図1)を介して送信する。
次に、図9は、図1の受信装置12の構成例を示している。
図9において、受信装置12は、受信部51、復号部52、分離部53、生成部54、出力部55、及び、入力部56から構成される。
なお、出力部55や入力部56は、受信装置12とは別個の装置とすることができる。
受信部51は、送信装置11から伝送媒体13を介して送信されてくる符号化データ、すなわち、素材データと付加情報を受信し、復号部52に供給する。
復号部52は、受信部51からの符号化データを復号し、分離部53に供給する。
分離部53は、復号部52から供給されるデータを、素材データと、付加情報とに分離し、生成部54に供給する。
生成部54は、分離部53からの素材データと付加情報とに基づいて、出力データを生成し、出力部55に供給する。
出力部55は、生成部54からの出力データに基づき、所定の出力を行う。
ここで、出力部55としては、人の五感を刺激する装置(デバイス)を採用することができる。
すなわち、出力部55としては、例えば、画像を表示する表示装置や、光を発する照明装置等の、視覚を刺激する装置を採用することができる。また、出力部55としては、例えば、音を発するスピーカ等の、聴覚を刺激する装置を採用することができる。
さらに、出力部55としては、温度や、湿度、風の、いわゆる空調(空気調節)(空気調和)をすることができるエアコンディショナや、振動を与える動揺装置等の、触覚を刺激する装置を採用することができる。
入力部56は、受信装置12のユーザによって操作される。ユーザが、ある指示を行うために、入力部56を操作すると、入力部56は、そのユーザによる指示を受け付け、その指示を表す指示情報を、生成部54に供給する。
ここで、生成部54は、入力部56から指示情報が供給された場合、その指示情報に基づいて、出力データを生成する。
次に、図10を参照して、図9の受信装置12の処理(受信処理)について説明する。
受信部51は、送信装置11から伝送媒体13を介して符号化データが送信されてくるのを待って、ステップS31において、その符号化データを受信し、復号部52に供給して、処理は、ステップS32に進む。
ステップS32では、復号部52は、受信部51からの符号化データを復号し、分離部53に供給して、処理は、ステップS33に進む。
ステップS33では、分離部53は、復号部52から供給されるデータ(復号データ)を、素材データと、付加情報とに分離し、生成部54に供給して、処理は、ステップS34に進む。
ステップS34では、生成部54は、分離部53からの素材データと付加情報とに基づいて、出力データを生成し、出力部55に供給して、処理は、ステップS35に進む。
ステップS35では、出力部55は、生成部54からの出力データに基づき、所定の出力を行う。
以上のように、図9の受信装置12では、生成部54において、素材データと付加情報とに基づいて、出力データを生成する処理が行われるが、この処理は、リアリティモード処理と、エンターテイメントモード処理とに分けられる。
すなわち、付加情報には、上述したように、実世界情報とエフェクト情報とが含まれるが、出力データを生成する処理のうちの、実世界情報を用いて行われる処理が、リアリティモード処理であり、エフェクト情報を用いて行われる処理が、エンターティメントモード処理である。
以下、リアリティモード処理と、エンターティメントモード処理について説明する。
図11は、受信装置12が、リアリティモード処理を行う場合に、生成部54に供給されるデータ(情報)を示している。
リアリティモード処理では、生成部54に対しては、分離部53から、素材データと、付加情報に含まれる実世界情報が供給される。
また、リアリティモード処理では、ユーザが、ズームを指示するように、入力部56を操作すると、その操作に対応した指示情報が、入力部56から生成部54に供給される。
さらに、リアリティモード処理では、生成部54に対しては、出力部55の特性を表す特性情報が、例えば、出力部55から供給される。
そして、リアリティモード処理では、生成部54は、素材データ、実世界情報、及び、出力部55の特性情報に基づき、出力部55の出力から認識される物理量が、実世界情報が表す物理量に同定されるように、出力データを生成する。
ここで、生成部54は、入力部56から指示情報が供給された場合、その指示情報にも基づき、出力データを生成する。
なお、リアリティモード処理については、受信装置12は、入力部56を設けずに構成することができる。受信装置12が、入力部56を設けずに構成される場合、生成部54に対しては、指示情報は、供給されない。
次に、例えば、出力部55が、表示装置であり、出力データが、表示装置である出力部55で表示される画像であるとして、リアリティモード処理を説明する。
ここで、実世界情報には、図7で説明した撮影範囲情報Dが含まれることとし、また、特性情報には、表示装置である出力部55が画像を表示する表示画面の大きさを表す大きさ情報Fが含まれることとする。
なお、ここでは、説明を簡単にするために、大きさ情報Fは、撮影範囲情報D(撮影範囲D)と同様に、表示装置である出力部55の表示画面の横及び縦の長さのうちの、例えば、横の長さを表すこととする。
図12は、受信装置12がリアリティモード処理を行う場合の生成部54の構成例を示している。
図12において、生成部54は、BF(バッファ)71、付加情報解析部72、及び、画像処理部73から構成される。
BF71には、分離部53(図11)から、素材データである画像が供給される。BF71は、分離部53からの素材データである画像を記憶する。
付加情報解析部72には、分離部53から、付加情報に含まれる実世界情報が供給される。付加情報解析部72は、分離部53からの実世界情報を解析し、例えば、その実世界情報に含まれる撮影範囲情報D(図7)を抽出して、画像処理部73に供給する。
画像処理部73には、上述したように、付加情報解析部72から、撮影範囲情報Dが供給される。さらに、画像処理部73には、BF71に記憶された素材データである画像が供給されるとともに、表示装置である出力部55(図11)から、その表示装置の特性情報である大きさ情報Fが供給される。
また、ユーザが、ズームを指示するように、入力部56(図11)を操作すると、画像処理部73には、その操作に対応した指示情報が、入力部56から供給される。
画像処理部73は、BF71からの素材データである画像、付加情報解析部72からの撮影範囲情報D、及び、出力部55からの特性情報である大きさ情報Fに基づき、素材データである画像を加工することにより、表示装置である出力部55で表示される画像から認識される物体(撮影オブジェクト)の大きさが、実世界での大きさに同定されるように、出力データである画像を生成して、表示装置である出力部55(図11)に供給する。
また、画像処理部73は、BF71からの素材データである画像、付加情報解析部72からの撮影範囲情報D、及び、出力部55からの特性情報である大きさ情報Fに基づき、素材データである画像を加工することにより、表示装置である出力部55で表示される画像から認識される撮影オブジェクトの大きさが、実世界での大きさを越えない大きさとなる画像を、出力データとして生成して、表示装置である出力部55(図11)に供給する。
すなわち、画像処理部73は、入力部56から、指示情報が供給された場合、BF71からの素材データである画像を、入力部56からの指示情報が指示するズームの倍率だけ拡大する加工を行うことで、出力データを生成する。
但し、この場合、画像処理部73は、素材データである画像の拡大を、表示装置である出力部55で表示される画像から認識される撮影オブジェクトの大きさが、実世界での大きさを越えない大きさとなるように制限する。
なお、素材データである画像を拡大するときの倍率を、表示ズーム倍率zということとすると、表示ズーム倍率zが、1未満(かつ0より大)である場合の拡大は、縮小になる。
また、図12では、大きさ情報Fが、表示装置である出力部55から、生成部54の画像処理部73に供給されることとしたが、大きさ情報Fは、その他、例えば、生成部54に、あらかじめ記憶させておくことができる。
次に、画像処理部73の処理について、さらに説明する。
なお、ここでは、説明を簡単にするため、表示画角情報が表す表示用領域(図5)は、素材データである画像の領域全体に等しいこととする。
図13は、カメラで撮影オブジェクトの撮影を行っている状態と、その撮影によって得られた素材データである画像の、表示装置である出力部55での表示の状態とを模式的に示している。
すなわち、図13Aは、カメラで撮影を行っている状態を模式的に示す上面図であり、図7と同一の図である。
上述したように、撮影範囲情報Dは、カメラ画角θと、オブジェクト距離Xとから、式D=2×X×tanθ/2に従って求めることができる。
図13Bは、カメラで、図13Aのように撮影を行って得られる素材データである画像を、拡大することなく、表示装置である出力部55で表示した表示状態を示している。
表示装置である出力部55では、大きさが撮影範囲情報Dの実世界が、大きさが大きさ情報Fの表示画面に表示される。
したがって、撮影オブジェクトは、実世界での大きさのF/D倍の大きさで表示される。
いま、撮影範囲情報Dが、大きさ情報F以上であるとすると(F≦D)、表示ズーム倍率zがD/F以下であれば、表示装置である出力部55に表示される撮影オブジェクトの大きさは、実世界での大きさ以下となる。
したがって、撮影範囲情報Dが、大きさ情報F以上である場合には、表示ズーム倍率zがD/F以下であれば、表示装置である出力部55において、撮影オブジェクトが、実世界での大きさよりも大きく表示されることによって、表示装置である出力部55で表示される撮影オブジェクトのリアリティが損なわれることはない。
そこで、画像処理部73(図12)では、撮影範囲情報Dが、大きさ情報F以上である場合には、素材データである画像を拡大するときの表示ズーム倍率zがD/F以下に制限される。
一方、撮影範囲情報Dが、大きさ情報F未満である場合には(F>D)、素材データである画像を、そのまま、表示装置である出力部55で表示すると、その出力部55に表示される撮影オブジェクトの大きさは、実世界での大きさを越える大きさとなる。
このように、表示装置である出力部55において、撮影オブジェクトが、実世界での大きさよりも大きく表示されると、表示装置である出力部55で表示される撮影オブジェクトのリアリティが損なわれ、臨場感が失われることになる。
以上のように、撮影範囲情報Dが、大きさ情報F未満になる場合としては、例えば、出力部55が、大画面の表示装置である場合がある。
また、例えば、素材データである画像が、いわゆる光学ズームや、ディジタルズームを使用して撮影された場合も、撮影範囲情報Dが、大きさ情報F未満になることがある。
図14は、カメラで、光学ズームを使用して、撮影オブジェクトの撮影を行っている状態と、その撮影によって得られた素材データである画像の、表示装置である出力部55での表示の状態とを模式的に示している。
すなわち、図14Aは、カメラで、光学ズームを使用して撮影を行っている状態を模式的に示す上面図である。
光学ズームを使用することにより、カメラ画角θは狭くなり(小になり)、その結果、撮影範囲情報Dは、例えば、図13Aの場合よりも小となる。
図14Bは、カメラで、図14Aのように撮影を行って得られる素材データである画像を、表示装置である出力部55で表示した表示状態を示している。
表示装置である出力部55では、大きさが撮影範囲情報Dの実世界が、大きさが大きさ情報Fの表示画面に表示される。
図14では、撮影範囲情報Dが、大きさ情報F未満になっており、そのため、表示装置である出力部55では、撮影オブジェクトが、実世界での大きさよりも大きく(F/D倍の大きさで)表示されている。
図15は、カメラで、ディジタルズームを使用して、撮影オブジェクトの撮影を行っている状態と、その撮影によって得られた素材データである画像の、表示装置である出力部55での表示の状態とを模式的に示している。
すなわち、図15Aは、カメラで、ディジタルズームを使用して撮影を行っている状態を模式的に示す上面図である。
ディジタルズームでは、カメラで撮影された画像の、例えば、中央部分を切り取り、信号処理によって拡大するトリミングによって得られる画像が、素材データである画像として出力される。
ディジタルズームを使用して得られた素材データである画像については、カメラ画角θが、光学ズームの場合(図14)と同様に狭くなり、その結果、撮影範囲情報Dは、例えば、図13Aの場合よりも小となる。
図15Bは、カメラで、図15Aのように撮影を行って得られる素材データである画像を、表示装置である出力部55で表示した表示状態を示している。
表示装置である出力部55では、大きさが撮影範囲情報Dの実世界が、大きさが大きさ情報Fの表示画面に表示される。
図15では、撮影範囲情報Dが、大きさ情報F未満になっており、そのため、表示装置である出力部55では、撮影オブジェクトが、実世界での大きさよりも大きく(F/D倍の大きさで)表示されている。
以上のように、素材データである画像が、光学ズームや、ディジタルズームを使用して撮影されると、撮影範囲情報Dが、大きさ情報F未満になることがあり、その場合、撮影オブジェクトは、実世界での大きさよりも大きく表示され、リアリティが損なわれる。
そこで、画像処理部73(図12)は、撮影範囲情報Dが、大きさ情報F未満である場合には、表示ズーム倍率zを、D/F倍に設定し、素材データである画像を、D/F倍に拡大する(ここでは、D/Fは、1未満であるため、画像は縮小される)。
この場合、画像処理部73で拡大(縮小)を行わなければ、実世界での大きさのF/D倍で表示される撮影オブジェクトが、そのD/F倍、つまり、実世界での大きさに等しい大きさで表示される。
図16は、撮影範囲情報Dが、大きさ情報F未満である場合に、表示装置である出力部55に表示される画像を示している。
すなわち、図16Aは、光学ズームを使用して撮影された素材データである画像を、表示装置である出力部55で表示した表示状態を示しており、図16Bは、ディジタルズームを使用して撮影された素材データである画像を、表示装置である出力部55で表示した表示状態を示している。
撮影範囲情報Dが、大きさ情報F未満である場合には、画像処理部73は、表示ズーム倍率zを、D/F(<1)倍に設定し、素材データである画像を、D/F倍に拡大して、出力データとして出力部55に供給する。
その結果、表示装置である出力部55では、撮影オブジェクトが、実世界での大きさに等しい大きさで表示される。
ここで、画像処理部73では、素材データである画像が、D/F(<1)倍に拡大(縮小)される結果、その拡大によって得られる画像(出力データ)は、横の長さが、撮影範囲情報Dに等しい画像となる。
そして、いまの場合、撮影範囲情報Dが、大きさ情報F未満であるため、出力データである画像の横の長さF'(=D)は、大きさ情報F、つまり、表示装置である出力部55の表示画面の横の長さよりも小となる。
そのため、表示装置である出力部55では、その表示画面のうちの、出力データである画像が表示される部分以外の部分には、例えば、図16Aに示すように、黒(いわゆる黒枠)等が表示される。
なお、素材データである画像が、ディジタルズームを使用して撮影された場合には、カメラで撮影された画像のうちの、ディジタルズームで拡大された中央部分以外の部分(図15Aにおいて、斜線を付してある部分)(以下、トリミング部分ともいう)が残っていることがある。
この場合、表示装置である出力部55では、その表示画面のうちの、出力データである画像が表示される部分以外の部分には、例えば、図16Bに示すように、トリミング部分が表示される。
次に、図17を参照して、図12の画像処理部73で行われるリアリティモード処理について説明する。
画像処理部73は、ステップS51において、付加情報解析部72から供給される実世界情報に含まれる撮影範囲情報Dと、表示装置である出力部55の特性情報である大きさ情報Fとに基づき、素材データである画像を拡大する表示ズーム倍率zの最大値である最大ズーム倍率D/Fを求めるとともに、入力部56(図11)から指示情報が供給されない場合の表示ズーム倍率zである標準ズーム倍率z1を設定し、処理は、ステップS52に進む。
ここで、撮影範囲情報Dが、大きさ情報F以上である場合、標準ズーム倍率z1は、1倍に設定される。撮影範囲情報Dが、大きさ情報F未満である場合、標準ズーム倍率z1は、最大ズーム倍率D/Fに設定される。
ステップS52では、画像処理部73は、入力部56から、ズームを指示する指示情報が供給されたかどうかを判定する。
ステップS52において、入力部56から画像処理部73に、指示情報が供給されていないと判定された場合、処理は、ステップS53に進み、画像処理部73は、表示ズーム倍率zを、標準ズーム倍率z1に設定して、処理は、ステップS57に進む。
また、ステップS52において、入力部56から画像処理部73に、指示情報が供給されたと判定された場合、処理は、ステップS54に進み、画像処理部73は、入力部56からの指示情報が指示するズームの倍率(以下、指示ズーム倍率Aともいう)が、最大ズーム倍率D/F以下であるかどうかを判定する。
ステップS54において、指示ズーム倍率Aが、最大ズーム倍率D/F以下であると判定された場合、処理は、ステップS55に進み、画像処理部73は、表示ズーム倍率zを、指示ズーム倍率Aに設定して、処理は、ステップS57に進む。
また、ステップS54において、指示ズーム倍率Aが、最大ズーム倍率D/F以下でないと判定された場合、すなわち、撮像オブジェクトを、実世界での大きさよりも大きく表示する、最大ズーム倍率D/Fを越える倍率のズームが、ユーザによって指示された場合、処理は、ステップS56に進み、画像処理部73は、表示ズーム倍率zを、最大ズーム倍率D/Fに設定して、処理は、ステップS57に進む。
ステップS57では、画像処理部73は、BF71に記憶された素材データとしての画像を、表示ズーム倍率zだけ拡大した拡大画像を、出力データとして生成し、表示装置である出力部55(図11)に供給する。
そして、表示装置である出力部55では、画像処理部73からの出力データである拡大画像が表示され、これにより、撮影オブジェクトは、図13で説明したように、実世界での大きさのF/D倍の大きさで表示される。
したがって、入力部56から画像処理部73に、指示情報が供給されていない場合、つまり、ユーザが、ズームを指示する操作をしていない場合には、表示装置である出力部55において、撮影オブジェクトは、実世界での大きさに等しい大きさ(z(=D/F)×F/D)、又は、実世界での大きさのF/D倍の大きさ(z(=1)×F/D)で表示される。
すなわち、撮影範囲情報Dが、大きさ情報F未満である場合には、上述したように、標準ズーム倍率z1、ひいては、表示ズーム倍率zは、最大ズーム倍率D/Fに設定されるので、撮影オブジェクトは、実世界での大きさのD/F×F/D倍の大きさ、つまり、実世界での大きさに等しい大きさで表示される。
また、撮影範囲情報Dが、大きさ情報F以上である場合には、上述したように、標準ズーム倍率z1、ひいては、表示ズーム倍率zは、1倍に設定されるので、撮影オブジェクトは、実世界での大きさのF/D(≦1)倍の大きさで表示される。
一方、入力部56から画像処理部73に、指示情報が供給された場合、つまり、ユーザが、指示ズーム倍率Aのズームを指示する操作をした場合には、指示ズーム倍率Aが、最大ズーム倍率D/F以下であるときには、撮影オブジェクトは、実世界での大きさのF/D×A倍の大きさ(z(=A)×F/D)で表示され、指示ズーム倍率Aが、最大ズーム倍率D/F以下でないときには、撮影オブジェクトは、実世界での大きさに等しい大きさ(z(=D/F)×F/D)で表示される。
すなわち、指示ズーム倍率Aが、最大ズーム倍率D/F以下である場合には、上述したように、表示ズーム倍率zは、指示ズーム倍率Aに設定されるので、撮影オブジェクトは、実世界での大きさのA(≦D/F)×F/D倍の大きさで表示される。
また、指示ズーム倍率Aが、最大ズーム倍率D/F以下でない場合には、上述したように、表示ズーム倍率zは、最大ズーム倍率D/Fに設定されるので、撮影オブジェクトは、実世界での大きさのD/F×F/D倍の大きさ、つまり、実世界での大きさに等しい大きさで表示される。
いずれにしても、撮影オブジェクトは、実世界での大きさ以下の大きさで表示される。
なお、図17のリアリティモード処理は、例えば、フレーム(又はフィールド)ごとに行われる。
また、図17のリアリティモード処理は、撮影オブジェクトが、実世界での大きさを越える大きさで表示される場合にだけ行うことが可能である。
すなわち、リアリティモード処理は、例えば、実世界での大きさを越える大きさで表示された撮影オブジェクトを見たユーザが、その表示の改善を指示するように、入力部56を操作した場合に行うようにすることが可能である。
図18は、受信装置12が、エンターテイメントモード処理を行う場合に、生成部54に供給されるデータ(情報)を示している。
エンターテイメントモード処理では、生成部54に対しては、分離部53から、素材データと、付加情報に含まれるエフェクト情報が供給される。
また、エンターテイメントモード処理では、ユーザが、素材データの加工を指示するように、入力部56を操作すると、その操作に対応した指示情報が、入力部56から生成部54に供給される。
そして、エンターテイメントモード処理では、生成部54は、分離部53からのエフェクト情報、又は、入力部56からの指示情報に基づき、分離部53からの素材データに対して加工を施すことにより、出力データを生成する。
すなわち、生成部54は、入力部56からの指示情報の供給がない場合には、分離部53からのエフェクト情報に基づき、分離部53からの素材データに対して加工を施すことにより、出力データを生成する。
また、生成部54は、入力部56からの指示情報の供給がある場合には、その指示情報に基づき、分離部53からの素材データに対して加工を施すことにより、出力データを生成する。
次に、例えば、出力部55が、表示装置であり、出力データが、表示装置である出力部55で表示される画像であるとして、エンターテイメントモード処理を説明する。
図19は、受信装置12がエンターテイメントモード処理を行う場合の生成部54の構成例を示している。
ここで、エフェクト情報には、図3ないし図6で説明した切り替え情報、表示画枠情報、及び、合成用データが含まれることとし、素材データとしては、N個のストリームの画像S#1ないしS#Nがあることとする。
図20において、生成部54は、画像データBF(バッファ)81、付加情報解析部82、被合成データBF83、及び、画像処理部84から構成される。
画像データBF81には、分離部53(図18)から、素材データであるN個のストリームの画像S#1ないしS#Nが供給される。画像データBF81は、分離部53からの素材データであるN個のストリームの画像S#1ないしS#Nを記憶する。
付加情報解析部82には、分離部53から、付加情報に含まれるエフェクト情報が供給される。
付加情報解析部82は、分離部53からのエフェクト情報を解析し、例えば、そのエフェクト情報に含まれる切り替え情報、表示画枠情報、及び、合成用データを抽出する。
さらに、付加情報解析部82は、合成用データから、素材データに合成される被合成データと、その合成のタイミングを表すタイミング情報を抽出する。
そして、付加情報解析部82は、被合成データを、被合成データBF83に供給するとともに、切り替え情報、表示画枠情報、及び、タイミング情報を、画像処理部84に供給する。
ここで、付加情報解析部82が画像処理部84に供給する切り替え情報、表示画枠情報、及び、タイミング情報、つまり、エフェクト情報に含まれる切り替え情報、表示画枠情報、及び、タイミング情報を、まとめて、デフォルト情報ともいう。
被合成データBF83は、付加情報解析部82からの被合成データを記憶する。
画像処理部84には、上述したように、付加情報解析部82から、デフォルト情報が供給される。さらに、画像処理部84には、画像データBF81に記憶された素材データであるN個のストリームの画像S#1ないしS#Nが供給されるとともに、被合成データBF83に記憶された被合成データが供給される。
また、ユーザが、素材データ等の加工を指示するように、入力部56(図18)を操作すると、画像処理部84には、その操作に対応した指示情報が、入力部56から供給される。
ここで、ユーザは、入力部56を操作することにより、表示装置である出力部55(図18)に表示される画像を撮影しているカメラを、パン、チルト、又は、ズームさせるかのような指示(以下、PTZ(pan,tilt,zoom)指示ともいう)を行うことができる。
さらに、ユーザは、入力部56を操作することにより、表示装置である出力部55に表示される画像を、素材データであるN個のストリームの画像S#1ないしS#Nのうちの、1の画像S#iから、他の1の画像S#i'に切り替える指示(以下、切り替え指示ともいう)を行うことができる。
また、ユーザは、入力部56を操作することにより、表示装置である出力部55に表示される画像に、被合成データを合成(重畳)する指示(以下、合成指示ともいう)を行うことができる。
ユーザが、入力部56を操作することにより、PTZ指示を行うと、入力部56は、そのPTZ指示に従って移動、又は、大きさを変更した表示用領域(図5)を特定する表示画枠情報を生成し、その表示画枠情報を含む指示情報を、画像処理部84に供給する。
また、ユーザが、入力部56を操作することにより、切り替え指示を行うと、入力部56は、その切り替え指示に従って、切り替え情報(図4)を生成し、その切り替え情報を含む指示情報を、画像処理部84に供給する。
さらに、ユーザが、入力部56を操作することにより、合成指示を行うと、入力部56は、その合成指示に従って、素材データに合成する被合成データを選択するための選択情報を生成し、その選択情報を含む指示情報を、画像処理部84に供給する。
画像処理部84は、付加情報解析部82からのデフォルト情報、又は、入力部56からの指示情報に基づき、画像データBF81に記憶された素材データに対して、被合成データBF83に記憶された被合成データを必要に応じて用いて、加工を施すことにより、出力データである画像を生成し、表示装置である出力部55(図18)に供給する。
すなわち、画像処理部84は、入力部56からの指示情報の供給がない場合には、付加情報解析部82からのデフォルト情報に基づき、画像データBF81に記憶された素材データに対して加工を施すことにより、出力データである画像を生成する。
具体的には、例えば、画像処理部84は、デフォルト情報に含まれる切り替え情報に基づいて、画像データBF81に記憶された素材データであるN個のストリームの画像S#1ないしS#Nの中から、1つのストリームの画像を、出力データとする画像(以下、出力用画像ともいう)として選択する。
さらに、例えば、画像処理部84は、デフォルト情報に含まれる表示画枠情報に基づいて、その表示画枠情報が表す表示用領域の画像を、出力用画像から抽出する。
また、例えば、画像処理部84は、デフォルト情報に含まれるタイミング情報に基づいて、表示用領域の画像に、被合成データBF83に記憶された被合成データを合成する。なお、ここでは、被合成データBF83に、複数の被合成データが記憶されている場合には、その複数の被合成データのうちの、どの被合成データを、表示用領域の画像に合成するかの情報は、デフォルト情報に含まれるタイミング情報に含まれていることとする。
以上のように、画像処理部84では、入力部56からの指示情報の供給がない場合には、付加情報解析部82からのデフォルト情報、すなわち、送信装置11の編集装置32(図2)で生成されたエフェクト情報(に含まれる切り替え情報、表示画枠情報、及び、タイミング情報)に基づき、素材データの加工が行われるので、表示装置である出力部55では、番組制作者が編集装置32を操作することにより行った編集により得られる画像が表示される。
一方、画像処理部84は、入力部56からの指示情報の供給があった場合には、その指示情報に基づき、画像データBF81に記憶された素材データに対して加工を施すことにより、出力データである画像を生成する。
具体的には、例えば、画像処理部84は、指示情報に切り替え情報が含まれている場合には、デフォルト情報に含まれる切り替え情報ではなく、指示情報に含まれる切り替え情報に基づいて、画像データBF81に記憶された素材データであるN個のストリームの画像S#1ないしS#Nの中から、1つのストリームの画像を、出力用画像として選択する。
また、例えば、画像処理部84は、指示情報に表示画枠情報が含まれている場合には、デフォルト情報に含まれる表示画枠情報ではなく、指示情報に含まれる表示画枠情報に基づいて、その表示画枠情報が表す表示用領域の画像を、出力用画像から抽出する。
さらに、例えば、画像処理部84は、指示情報に選択情報が含まれている場合には、デフォルト情報に含まれるタイミング情報ではなく、指示情報に含まれる選択情報に従って、表示用領域の画像に合成する被合成データを、被合成データBF83に記憶された被合成データの中から選択し、その被合成データを、表示用領域の画像に合成する。
なお、タイミング情報や、選択情報を用いた被合成データの選択では、複数の被合成データ(例えば、複数の字幕や、1つの字幕及び1つのPinP画像等)が選択されることがある。
また、選択情報は、被合成データを選択しないことを表すことがある。選択情報が、被合成データを選択しないことを表している場合、画像処理部84では、デフォルト情報に含まれるタイミング情報が、ある被合成データを、表示用領域の画像に合成することを表していても、その被合成データの合成は、行われない。
以上のように、画像処理部84は、入力部56からの指示情報の供給があった場合には、デフォルト情報ではなく、指示情報に基づき、画像データBF81に記憶された素材データに対して加工を施すことにより、出力データである画像を生成する。
なお、画像処理部84に対して、入力部56から、指示情報の供給があった後、その供給がなくなった場合には、画像処理部84は、デフォルト情報に基づいて、画像データBF81に記憶された素材データに対して加工を施すことにより、出力データである画像を生成する。
したがって、例えば、タイミング情報が、ある被合成データとしての字幕を、表示用領域の画像に合成することを表している場合において、ユーザが、被合成データの合成を禁止する(行わない)ように、入力部56を操作したときには、字幕は、その入力部56の操作に従って表示されない。
そして、その後、被合成データの合成の禁止を解除するように、入力部56を操作すると、字幕が、デフォルト情報に含まれるタイミング情報に従って、表示用領域の画像に合成されて表示される。
なお、図19の生成部54では、画像処理部84に対して、分離部53から、実世界情報を供給するとともに、出力部55から、特性情報を供給し、画像処理部84において、図12の画像処理部73と同様のリアリティモード処理を、さらに行うようにすることができる。
すなわち、画像処理部84では、入力部56からの指示情報の供給がない場合に、図17のリアリティモード処理のうちの、ステップS51,S53、及びS57の処理を行うようにすることが可能である。この場合、画像処理部84では、表示装置である出力部55の表示(出力)から認識される撮影オブジェクトの大きさ(物理量)が、実世界情報に含まれる撮影範囲情報Dに対応する大きさ(実世界での撮影オブジェクトの大きさ)に同定されるように、出力データである画像が生成される。
次に、図20は、図19の画像処理部84の構成例を示している。
図20において、画像処理部84は、画像選択部91、指示選択部92、表示領域設定部93、ゲート部94、及び重畳処理部95から構成される。
画像選択部91には、画像データBF81に記憶された素材データであるN個のストリームの画像S#1ないしS#Nが供給される。
また、指示選択部92には、付加情報解析部82(図19)から、デフォルト情報が供給されるとともに、入力部56(図18)から、指示情報が供給される。
指示選択部92は、付加情報解析部82からのデフォルト情報に含まれる切り替え情報を、画像選択部91に供給するとともに、そのデフォルト情報に含まれる表示画枠情報を、表示領域設定部93に供給する。
また、指示選択部92は、デフォルト情報に含まれるタイミング情報に基づき、被合成データを合成すべきタイミングで、合成に用いる被合成データを選択するための選択情報を生成し、ゲート部94に供給する。
但し、指示選択部92は、入力部56(図18)から、指示情報が供給された場合には、その指示情報を優先的に選択する。
すなわち、指示選択部92は、入力部56から、指示情報が供給され、その指示情報に切り替え情報が含まれている場合には、デフォルト情報に含まれる切り替え情報ではなく、指示情報に含まれる切り替え情報を、画像選択部91に供給する。
また、指示選択部92は、入力部56から、指示情報が供給され、その指示情報に表示画枠情報が含まれている場合には、デフォルト情報に含まれる表示画枠情報ではなく、指示情報に含まれる表示画枠情報を、表示領域設定部93に供給する。
さらに、指示選択部92は、入力部56から、指示情報が供給され、その指示情報に選択情報が含まれている場合には、デフォルト情報に含まれるタイミング情報から生成した選択情報ではなく、指示情報に含まれる選択情報を、ゲート部94に供給する。
画像選択部91は、指示選択部92からの切り替え情報に基づき、画像データBF81からの素材データであるN個のストリームの画像S#1ないしS#Nの中から、1つのストリームの画像を、出力用画像として選択し、表示領域設定部93に供給する。
表示領域設定部93は、画像選択部91の出力用画像から、指示選択部92からの表示画枠情報が表す表示用領域の画像を抽出し、重畳処理部95に供給する。
一方、ゲート部94には、上述したように、指示選択部92から選択情報が供給される他、被合成データBF83に記憶された被合成データが供給される。
ゲート部94は、被合成データBF83に記憶された被合成データのうちの0個以上の被合成データを、指示選択部92から選択情報に従って選択し、重畳処理部95に供給する。
重畳処理部95は、表示領域設定部93からの表示用領域の画像に、ゲート部94からの0個以上の被合成データを合成(重畳)し、その合成後の画像を、出力データとして、出力部55(図18)に供給する。
なお、ゲート部94から重畳処理部95に対して、0個の被合成データが供給された場合、つまり、被合成データが供給されなかった場合、重畳処理部95は、表示領域設定部93からの表示用領域の画像を、そのまま、出力データとして、出力部55に供給する。
次に、図21は、図1の受信装置12の他の構成例を示している。
なお、図中、図9の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図2で説明したように、送信装置11では、センサ部31として、光をセンシングし、画像を出力するカメラや、温度をセンシングする温度センサ、湿度をセンシングする湿度センサ、風速をセンシングする風速センサ、振動をセンシングする振動センサ、明るさをセンシングする明るさセンサ等の様々な種類のセンサを採用することができる。
送信装置11において、センサ部31として、例えば、カメラ、温度センサ、湿度センサ、及び、振動センサを採用した場合には、カメラで取得された画像、温度センサで取得された温度、湿度センサで取得された湿度、及び、振動センサで取得された振動のデータのそれぞれが、対応する付加情報とともに送信される。
この場合、受信装置12の分離部53は、図21に示すように、復号部52から供給されるデータを、素材データである画像のデータ、温度のデータ、湿度のデータ、振動のデータ、及び、各素材データに対応する付加情報のそれぞれに分離する。
そして、分離部53は、素材データである画像のデータと、対応する付加情報を、生成部54に供給する。
また、分離部53は、素材データである温度及び湿度のデータと、対応する付加情報を、生成部101に供給するとともに、素材データである動揺のデータと、対応する付加情報を、生成部111に供給する。
生成部54は、上述したように、分離部53からの素材データである画像のデータと、付加情報、又は、入力部56からの指示情報に基づき、素材データを加工することで、出力データである画像を生成して、出力部55に供給する。
出力部55は、例えば、上述したように、表示装置であり、生成部54からの出力データに基づき、画像の表示(出力)を行う。
一方、生成部101には、分離部53から、素材データである温度及び湿度のデータと、対応する付加情報が供給される他、入力部56と同様に、ユーザによって操作される入力部103から指示情報が供給される。
生成部101は、分離部53からの素材データである温度及び湿度のデータと、付加情報、又は、入力部103からの指示情報に基づき、素材データを加工することで、出力データを生成して、出力部102に供給する。
すなわち、出力部102は、例えば、エアコンディショナ等の空調装置であり、生成部101は、温度及び湿度のデータを加工することで、空調装置である出力部102を制御する空調制御情報を生成し、出力データとして、出力部102に供給する。
出力部102は、生成部101からの出力データである空調制御情報に基づき、風向き、温度、風速、湿度等を調整した風(空気)を出力する。
また、生成部111には、分離部53から、素材データである振動のデータと、対応する付加情報が供給される他、入力部56と同様に、ユーザによって操作される入力部113から指示情報が供給される。
生成部111は、分離部53からの素材データである振動のデータと、付加情報、又は、入力部113からの指示情報に基づき、素材データを加工することで、出力データを生成して、出力部112に供給する。
すなわち、出力部112は、例えば、椅子や、表示装置である出力部55を動揺(振動)させる動揺装置であり、生成部111は、振動のデータを加工することで、動揺装置である出力部112を制御する振動情報を生成し、出力データとして、出力部112に供給する。
出力部112は、生成部111からの出力データである振動情報に基づき、椅子等を動揺させる。
その他、例えば、送信装置11において、明るさをセンシングする明るさセンサで取得した明るさのデータを、素材データとして、対応する付加情報とともに送信することができ、その場合、受信装置12では、その素材データ、及び、付加情報から生成される出力データに基づき、例えば、受信装置12が設置されている部屋の照明装置による照明を調整することができる。
また、例えば、送信装置11では、風速をセンシングする風速センサで取得した風速のデータを、素材データとして、対応する付加情報とともに送信することができ、その場合、受信装置12では、その素材データ、及び、付加情報から生成される出力データに基づき、空調装置である出力部102が出力する風の風速を調整することができる。
以上のように、送信装置11において、センサ部31で取得した、画像や、温度、湿度、風速、振動、明るさ等の素材データを、対応する付加情報とともに送信し、受信装置12において、素材データと付加情報とに基づいて、出力データを生成し、出力データに基づき、出力を行う表示装置、空調装置、動揺装置、照明装置等において、出力を行うことで、センサ部31で素材データを取得した環境における風景や、温度、風速、湿度、揺れ、明るさ等を、写実的に再現し、ユーザは、臨場感がある体験をすることができる。
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図22は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク205やROM203に予め記録しておくことができる。
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体211に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体211は、いわゆるパッケージソフトウエアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体211からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部208で受信し、内蔵するハードディスク205にインストールすることができる。
コンピュータは、CPU(Central Processing Unit)202を内蔵している。CPU202には、バス201を介して、入出力インタフェース210が接続されており、CPU202は、入出力インタフェース210を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部207が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)203に格納されているプログラムを実行する。あるいは、また、CPU202は、ハードディスク205に格納されているプログラム、衛星若しくはネットワークから転送され、通信部208で受信されてハードディスク205にインストールされたプログラム、またはドライブ209に装着されたリムーバブル記録媒体211から読み出されてハードディスク205にインストールされたプログラムを、RAM(Random Access Memory)204にロードして実行する。これにより、CPU202は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU202は、その処理結果を、必要に応じて、例えば、入出力インタフェース210を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部206から出力、あるいは、通信部208から送信、さらには、ハードディスク205に記録等させる。
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
以上のように、図1の放送システムでは、送信装置11において、センサ部31で取得した素材データと、対応する付加情報とを送信し、受信装置12において、素材データと付加情報とに基づいて、出力データを生成し、出力データに基づき、出力を行うので、受信装置12側において、適切な処理を行うことができ、これにより、例えば、ユーザに臨場感を感じさせることや、ユーザの好みに合った画像を表示すること等が可能となる。
すなわち、受信装置12では、適切な処理として、リアリティモード処理を行うことができ、リアリティモード処理によれば、例えば、撮影オブジェクトが、実世界での大きさよりも大きく表示されることによって、リアリティが損なわれることを防止することができる。
具体的には、例えば、人の顔が、実際の大きさよりも大きく表示されるといった、いわばミスマッチを解消し、ユーザに臨場感を感じさせることができる。
なお、リアリティモード処理において、出力部55として、表示画面が大きい(例えば、100インチ以上等)表示装置を採用した場合には、いわば借景的な表示を行うことができる。
また、リアリティモード処理は、例えば、風景の画像や、オーケストラの演奏の音楽を、素材データとする場合に、特に有用である。
すなわち、例えば、実際の風景の画像のデータを、センサとしてのカメラで取得し、その画像のデータを、素材データとして、リアリティモード処理を行うことにより、実際の風景が見える場所で、その風景を見ているかのような大きさで、その風景を構成する木や山等の画像を表示することができる。
また、例えば、実際のオーケストラの演奏の音楽のデータを、センサとしてのマイク(マイクロフォン)で取得し、その音楽のデータを、素材データとして、リアリティモード処理を行うことにより、実際の演奏会場で、オーケストラの演奏を聴いているかのような音量で、音楽(音)を出力することができる。
さらに、受信装置12では、適切な処理として、エンターテイメントモード処理を行うことができ、エンターテイメントモード処理によれば、例えば、ユーザの好みにあった画像を表示することができる。
すなわち、エンターテイメントモード処理によれば、番組制作者が編集により行った、ユーザにとって不要な演出を排除することや、ユーザの好みの演出を付加すること、情報を選択すること、デフォルメ表示等が可能となる。
具体的には、例えば、エンターテイメントモード処理によれば、ユーザが、入力部56を操作することにより、合成指示を行うと、入力部56において、その合成指示に従って、素材データに合成する被合成データを選択するための選択情報が生成され、画像処理部84(図19)では、その選択情報に従って、画像に合成する字幕(テロップ)やPinP画像等の被合成データの選択(又は、非選択)が行われる。
したがって、テロップやPinP画像が多い、例えば、ニュース番組について、そのテロップやPinP画像による演出を不要と感じるユーザは、入力部56を操作することにより、テロップやPinP画像がない状態のニュース番組を視聴することが可能となる。
また、例えば、エンターテイメントモード処理によれば、ユーザが、入力部56を操作することにより、PTZ指示を行うと、入力部56において、そのPTZ指示に従って、表示用領域(図5)を特定する表示画枠情報が生成され、画像処理部84(図19)では、その表示画枠情報が表す表示用領域の画像が、素材データから抽出される。
したがって、スポーツ番組や、音楽番組において、特定の選手や芸能人のファンであるユーザは、入力部56を操作することにより、特定の選手や芸能人を追いかけた画像を視聴することが可能となる。
なお、上述したように、画像処理部84(図19)は、入力部56からの指示情報の供給がある場合には、その指示情報を優先的に選択し、その指示情報に基づき、素材データの加工を行うことで、ユーザの好みにあった画像を表示するが、入力部56からの指示情報の供給がない場合には、デフォルト情報、すなわち、送信装置11の編集装置32で生成されたエフェクト情報(に含まれる切り替え情報、表示画枠情報、及び、タイミング情報)に基づき、素材データの加工が行われる。
したがって、ユーザは、入力部56を操作することにより、表示装置である出力部55に、ユーザの好みにあった画像を表示させることができ、入力部56の操作をしないことにより(入力部56を操作することにより行ったPTZ指示や、切り替え指示、合成指示を解除するように、入力部56を操作することにより)、表示装置である出力部55に、番組制作者が編集装置32を操作することにより行った編集により得られる画像を表示させることができる。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した放送システムの一実施の形態の構成例を示すブロック図である。 送信装置11の構成例を示すブロック図である。 素材データとエフェクト情報を説明する図である。 切り替え情報を説明する図である。 表示画角情報を説明する図である。 合成用データを説明する図である。 実世界情報を説明する図である。 送信処理を説明するフローチャートである。 受信装置12の構成例を示すブロック図である。 受信処理を説明するフローチャートである。 リアリティモード処理において、生成部54に供給されるデータを説明する図である。 リアリティモード処理を行う生成部54の構成例を示すブロック図である。 カメラで撮影オブジェクトの撮影を行っている状態と、表示装置である出力部55での表示の状態とを模式的に示す図である。 カメラで、光学ズームを使用して、撮影オブジェクトの撮影を行っている状態と、表示装置である出力部55での表示の状態とを模式的に示す図である。 カメラで、ディジタルズームを使用して、撮影オブジェクトの撮影を行っている状態と、表示装置である出力部55での表示の状態とを模式的に示す図である。 表示装置である出力部55に表示される画像を示す図である。 リアリティモード処理を説明するフローチャートである。 エンターテイメントモード処理において、生成部54に供給されるデータを説明する図である。 エンターテイメントモード処理を行う生成部54の構成例を示すブロック図である。 画像処理部84の構成例を示すブロック図である。 受信装置12の他の構成例を示すブロック図である。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
符号の説明
11 送信装置, 12 受信装置, 13 伝送媒体, 31 センサ部, 32 編集装置, 33 符号化部, 34 送信部, 51 受信部, 52 復号部, 53 分離部, 54 生成部, 55 出力部, 56 入力部, 71 BF, 72 付加情報解析部, 73 画像処理部, 81 画像データBF, 82 付加情報解析部, 83 被合成データBF, 84 画像処理部, 91 画像選択部, 92 指示選択部, 93 表示領域設定部, 94 ゲート部, 95 重畳処理部, 101 生成部, 102 出力部, 103 入力部, 111 生成部, 112 出力部, 113 入力部, 201 バス, 202 CPU, 203 ROM, 204 RAM, 205 ハードディスク, 206 出力部, 207 入力部, 208 通信部, 209 ドライブ, 210 入出力インタフェース, 211 リムーバブル記録媒体

Claims (10)

  1. データを送信する送信装置と、前記データを受信する受信装置とからなる放送システムにおいて、
    前記送信装置は、カメラで撮影された画像を素材データとして送信すると共に、前記カメラの撮影範囲を表す撮影範囲情報を含む、前記受信装置で前記素材データを加工するために用いられる付加情報を送信する送信手段を有し、
    前記受信装置は、
    前記素材データと前記付加情報を受信する受信手段と、
    前記素材データ前記付加情報、及び表示装置の表示画面の大きさを表す大きさ情報を含む、前記表示装置の特性を表す特性情報に基づいて、前記表示装置で表示される画像から認識される物体の大きさが、実世界での大きさに同定されるように、前記表示装置に表示させる画像を出力データとして生成する生成手段と、
    前記生成手段により前記出力データとして生成された前記画像を表示する前記表示装置を含む、出力手段と
    を有する
    放送システム。
  2. 前記付加情報は、さらに、前記素材データの加工に用いられる情報であるエフェクト情報を含み、
    前記生成手段は、さらに、前記エフェクト情報に基づいて、前記素材データに対して加工を施すことにより、出力データを生成する
    請求項1に記載の放送システム。
  3. 前記受信装置は、ユーザによる加工の指示を受け付ける指示入力手段をさらに有し、
    前記生成手段は、ユーザによる加工を指示するための指示情報に基づいて、前記素材データに対して、ユーザが所望する加工を施す
    請求項に記載の放送システム。
  4. 記指示情報は、前記素材データである画像のうちの、前記表示装置に表示する部分の領域を表す表示画枠情報を含み、
    前記生成手段は、前記素材データである画像から、前記表示画枠情報が表す領域の画像を抽出することにより、前記出力データを生成する
    請求項に記載の放送システム。
  5. 記エフェクト情報は、前記素材データである画像に合成される被合成データを含み、
    前記生成手段は、前記エフェクト情報に基づいて、前記素材データである画像に、前記被合成データを合成することにより、前記出力データを生成する
    請求項に記載の放送システム。
  6. 前記被合成データは、字幕のデータ、又は、ピクチャインピクチャ用のデータである
    請求項に記載の放送システム。
  7. 記エフェクト情報は、前記素材データである画像のうちの、前記表示装置に表示する部分の領域を表す表示画枠情報を含み、
    前記生成手段は、前記素材データである画像から、前記表示画枠情報が表す領域の画像を抽出することにより、前記出力データを生成する
    請求項に記載の放送システム。
  8. 記素材データは、前記カメラで撮影された複数ストリームの画像であり、
    記エフェクト情報は、前記素材データである複数ストリームの画像から、1つのストリームの画像を選択することにより、前記表示装置に表示する画像を切り替えるための切り替え情報を含み、
    前記生成手段は、前記切り替え情報に基づいて、前記素材データである複数ストリームの画像から、1つのストリームの画像を選択することにより、前記出力データを生成する
    請求項に記載の放送システム。
  9. 前記受信装置は、ユーザによる加工の指示を受け付ける指示入力手段をさらに有し、
    前記生成手段は、前記エフェクト情報、又は、ユーザによる加工を指示するための指示情報に基づいて、前記素材データに対して、ユーザが所望する加工を施す
    請求項に記載の放送システム。
  10. 前記エフェクト情報は、前記被合成データの合成を行うタイミングを表すタイミング情報をさらに含み、
    前記生成手段は、ユーザによる加工の指示がなかった場合には、前記タイミング情報に基づいて、前記素材データである画像に、前記被合成データを合成することにより、前記出力データを生成する
    請求項に記載の放送システム。
JP2008032673A 2008-02-14 2008-02-14 放送システム Expired - Fee Related JP5007681B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2008032673A JP5007681B2 (ja) 2008-02-14 2008-02-14 放送システム
US12/735,489 US8767067B2 (en) 2008-02-14 2009-02-13 Broadcasting system, sending apparatus and sending method, receiving apparatus and receiving method, and program
RU2010132906/07A RU2454024C2 (ru) 2008-02-14 2009-02-13 Система широковещания, устройство передачи и способ передачи, устройство приема и способ приема и программа
BRPI0907897-5A BRPI0907897A2 (pt) 2008-02-14 2009-02-13 Sistema de radiodifusão, aparelhos de transmissão e de recepção, método de transmissão para um aparelho de transmissão, programa, e, método de recepção para um aparelho de recepção
CN200980104689XA CN101939988B (zh) 2008-02-14 2009-02-13 广播系统、发送设备和发送方法、接收设备和接收方法
KR1020107017592A KR20100121614A (ko) 2008-02-14 2009-02-13 방송 시스템, 송신 장치 및 송신 방법, 수신 장치 및 수신 방법, 및 프로그램
EP09711145A EP2242271A4 (en) 2008-02-14 2009-02-13 RADIATION SYSTEM, TRANSMITTER AND TRANSMISSION PROCEDURE, RECEIVER AND RECEPTION METHOD AND PROGRAM
PCT/JP2009/052363 WO2009101997A1 (ja) 2008-02-14 2009-02-13 放送システム、送信装置、及び送信方法、受信装置、及び受信方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008032673A JP5007681B2 (ja) 2008-02-14 2008-02-14 放送システム

Publications (3)

Publication Number Publication Date
JP2009194594A JP2009194594A (ja) 2009-08-27
JP2009194594A5 JP2009194594A5 (ja) 2009-10-08
JP5007681B2 true JP5007681B2 (ja) 2012-08-22

Family

ID=40957028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008032673A Expired - Fee Related JP5007681B2 (ja) 2008-02-14 2008-02-14 放送システム

Country Status (8)

Country Link
US (1) US8767067B2 (ja)
EP (1) EP2242271A4 (ja)
JP (1) JP5007681B2 (ja)
KR (1) KR20100121614A (ja)
CN (1) CN101939988B (ja)
BR (1) BRPI0907897A2 (ja)
RU (1) RU2454024C2 (ja)
WO (1) WO2009101997A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101493884B1 (ko) * 2010-11-19 2015-02-17 한국전자통신연구원 4d 방송 서비스를 위한 방송 네트워크와 홈 네트워크의 제어 방법 및 장치
MX338815B (es) 2012-02-07 2016-05-03 Sony Corp Dispositivo de recepcion, metodo de recepcion, y programa.
US9693108B2 (en) 2012-06-12 2017-06-27 Electronics And Telecommunications Research Institute Method and system for displaying user selectable picture
KR20140004341A (ko) 2012-07-02 2014-01-13 한국전자통신연구원 시청자 선택형 증강방송 서비스 제공 장치 및 방법
US20140115649A1 (en) * 2012-10-19 2014-04-24 Electronics And Telecommunications Research Institute Apparatus and method for providing realistic broadcasting
GB2517730A (en) * 2013-08-29 2015-03-04 Mediaproduccion S L A method and system for producing a video production
CN108965963A (zh) * 2018-09-30 2018-12-07 联想(北京)有限公司 电子设备

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6443840B2 (en) * 1986-03-10 2002-09-03 Response Reward Systems, L.C. Evaluation of responses of participatory broadcast audience with prediction of winning contestants; monitoring, checking and controlling of wagering, and automatic crediting and couponing
JP2829962B2 (ja) * 1988-04-28 1998-12-02 松下電器産業株式会社 テレビジョン受像機
JP2906462B2 (ja) * 1989-07-18 1999-06-21 ソニー株式会社 テレビジョン受信機
US5208660A (en) * 1989-07-29 1993-05-04 Sharp Kabushiki Kaisha Television display apparatus having picture-in-picture display function and the method of operating the same
JP3192924B2 (ja) 1995-06-20 2001-07-30 三洋電機株式会社 電子カタログシステム
JP3162633B2 (ja) * 1996-09-27 2001-05-08 松下電器産業株式会社 放送システム及びこれに用いる情報放送受信端末装置
JP3750760B2 (ja) * 1996-10-24 2006-03-01 ソニー株式会社 繰返し使用データ挿入装置およびディジタル放送送信システム
JP4240554B2 (ja) * 1997-07-11 2009-03-18 ソニー株式会社 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法
DE69842037D1 (de) * 1997-09-04 2011-01-20 Comcast Ip Holdings I Llc Vorrichtung für videozugang und kontrolle über ein rechnernetzwerk mit bildkorrektur
US6557171B1 (en) * 1998-02-02 2003-04-29 Matsushita Electric Industrial Co., Ltd. Digital tv broadcast sending apparatus, digital tv broadcast receiving apparatus, and digital tv broadcast sending / receiving system which facilitate preselection of tv programs, and computer readable recording medium storing a program for achieving a function of the digital tv broadcast receiving apparatus
JP4822304B2 (ja) * 1998-08-06 2011-11-24 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
JP2000358222A (ja) * 1999-06-15 2000-12-26 Toshiba Corp 表示表現装置および情報伝送方式
US7013479B2 (en) * 2000-04-14 2006-03-14 Matsushita Electric Industrial Co., Ltd. Broadcasting apparatus and method for pre-transmitting data carousel and receiving apparatus for receiving data carousel
US7647619B2 (en) * 2000-04-26 2010-01-12 Sony Corporation Scalable filtering table
JP2001344352A (ja) * 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
US20040014484A1 (en) * 2000-09-25 2004-01-22 Takahiro Kawashima Mobile terminal device
CN1262955C (zh) * 2001-01-23 2006-07-05 索尼公司 通信设备及方法,电子装置及控制方法
JP3818575B2 (ja) * 2001-09-19 2006-09-06 株式会社日立製作所 デジタル放送受信装置
JP4000844B2 (ja) * 2001-12-11 2007-10-31 日本電気株式会社 コンテンツ配信システム、コンテンツ配信システムの配信サーバ及び表示端末、コンテンツ配信プログラム
US7196733B2 (en) * 2002-01-28 2007-03-27 Canon Kabushiki Kaisha Apparatus for receiving broadcast data, method for displaying broadcast program, and computer program
JP4136383B2 (ja) * 2002-01-28 2008-08-20 キヤノン株式会社 テレビ受信装置及びその制御方法
US7073193B2 (en) * 2002-04-16 2006-07-04 Microsoft Corporation Media content descriptions
US20060161309A1 (en) * 2002-04-19 2006-07-20 Moore Steven E Irrigation control system
US7403840B2 (en) * 2002-04-19 2008-07-22 Irrisoft, Inc. Irrigation control system
US20030018969A1 (en) * 2002-06-21 2003-01-23 Richard Humpleman Method and system for interactive television services with targeted advertisement delivery and user redemption of delivered value
US7878908B2 (en) * 2002-11-14 2011-02-01 Nintendo Co., Ltd. Multiplexed secure video game play distribution
EP1526714A1 (en) * 2003-08-06 2005-04-27 Matsuhita Electric Industrial Co., Ltd. Information processing apparatus
JP2005210707A (ja) * 2003-12-26 2005-08-04 Sharp Corp 表示装置、テレビジョン受信機、画像表示制御方法及び画像表示制御処理プログラム
JP2005198061A (ja) * 2004-01-08 2005-07-21 Matsushita Electric Ind Co Ltd Catvシステム
CN1750612A (zh) * 2004-09-14 2006-03-22 乐金电子(沈阳)有限公司 具有风信息接收功能的图像显示设备及其控制方法
JP2006302052A (ja) * 2005-04-22 2006-11-02 Hitachi Ltd ストレージシステムおよびデジタル放送システム
US20070100698A1 (en) * 2005-07-08 2007-05-03 Onestop Media Group Adaptive advertisements and adaptive advertising distribution system
KR100757865B1 (ko) * 2005-07-20 2007-09-11 삼성전자주식회사 디지털 방송 수신기에서의 영상 처리 장치 및 방법
CN101258492A (zh) * 2005-09-07 2008-09-03 国际商业机器公司 显示装置、输出装置、显示系统、显示方法、媒体、程序以及外部单元
JP2006217662A (ja) 2006-04-26 2006-08-17 Sony Corp ディジタル放送受信装置
US20090144137A1 (en) * 2006-07-21 2009-06-04 Gregory Hagan Moulton Automated content production for largely continuous transmission
KR101295301B1 (ko) * 2006-11-10 2013-08-08 엘지전자 주식회사 수신기 및 이 수신기에서 방송 신호를 처리하는 방법
KR101176501B1 (ko) * 2006-11-17 2012-08-22 엘지전자 주식회사 데이터 서비스를 이용하여 방송관련정보를 표시할 수 있는방송수신 단말기 및 그 제어방법
KR100903070B1 (ko) * 2007-04-16 2009-06-18 삼성전자주식회사 데이터 재생 장치 및 방법
KR101333065B1 (ko) * 2007-07-04 2013-11-27 삼성전자주식회사 화면 속 화면을 이용한 방송데이터 표시방법 및 장치
US8904432B2 (en) * 2007-12-28 2014-12-02 Verizon Patent And Licensing Inc. Method and apparatus for providing displayable applications
JP5225037B2 (ja) * 2008-11-19 2013-07-03 株式会社東芝 番組情報表示装置および方法

Also Published As

Publication number Publication date
RU2454024C2 (ru) 2012-06-20
EP2242271A4 (en) 2012-02-29
WO2009101997A1 (ja) 2009-08-20
US8767067B2 (en) 2014-07-01
BRPI0907897A2 (pt) 2015-07-28
RU2010132906A (ru) 2012-02-10
EP2242271A1 (en) 2010-10-20
CN101939988B (zh) 2013-05-08
US20100289894A1 (en) 2010-11-18
JP2009194594A (ja) 2009-08-27
KR20100121614A (ko) 2010-11-18
CN101939988A (zh) 2011-01-05

Similar Documents

Publication Publication Date Title
JP5007681B2 (ja) 放送システム
JP6267961B2 (ja) 映像提供方法および送信装置
CN111742353B (zh) 信息处理装置、信息处理方法和程序
JP4126663B2 (ja) 立体映像視覚効果確認装置及び立体映像視覚効果確認方法
JP5777185B1 (ja) 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
US20070122786A1 (en) Video karaoke system
CN107852476B (zh) 动画播放装置、动画播放方法、动画播放系统以及动画发送装置
WO2015174501A1 (ja) 全周動画配信システム、全周動画配信方法、画像処理装置、通信端末装置およびそれらの制御方法と制御プログラム
US20150036050A1 (en) Television control apparatus and associated method
WO2012046371A1 (ja) 画像表示装置および画像表示方法
JP5517598B2 (ja) 映像再生装置及びその制御方法
JP4670923B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP2010074775A (ja) 表示制御装置、表示制御方法、およびプログラム
KR20080048308A (ko) 기본 장치와 확장 장치의 연동 장치 및 방법
JP6002191B2 (ja) 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
JP6024002B2 (ja) 動画配信システム
US20180176628A1 (en) Information device and display processing method
JP6934052B2 (ja) 表示制御装置、表示制御方法及びプログラム
KR102084970B1 (ko) 가상현실 관람 방법 및 가상현실 관람 시스템
KR100619494B1 (ko) 삼차원 가상 스투디오를 이용한 가라오케
KR20050116916A (ko) 환경 정보를 포함하는 콘텐츠를 생성하고 재생하는 방법과그 재생 장치
KR101194825B1 (ko) 멀티 앵글 디지털 방송 시스템 및 그 방법
JPH11261884A (ja) パノラマ映像放送方法および放送受信装置
KR100811022B1 (ko) 방송카메라와 연동된 주문형 방송서비스방법
JP5646033B2 (ja) 画像表示装置および画像表示方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120514

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees