Nothing Special   »   [go: up one dir, main page]

JP2010109965A - オーケストラメディアサービスシステム及び方法 - Google Patents

オーケストラメディアサービスシステム及び方法 Download PDF

Info

Publication number
JP2010109965A
JP2010109965A JP2009187359A JP2009187359A JP2010109965A JP 2010109965 A JP2010109965 A JP 2010109965A JP 2009187359 A JP2009187359 A JP 2009187359A JP 2009187359 A JP2009187359 A JP 2009187359A JP 2010109965 A JP2010109965 A JP 2010109965A
Authority
JP
Japan
Prior art keywords
audio
video
orchestra
media
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009187359A
Other languages
English (en)
Inventor
Jaekwan Yun
テクァン ユン
Hae Ryong Lee
ヘ リョン イ
Kwang Roh Park
クァン ロ パク
Sung Won Sohn
スン ウォン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2010109965A publication Critical patent/JP2010109965A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】複数のオーディオ/ビデオを含むメディアを有無線ネットワークを介して複数の能動型デバイス及び受動型デバイスと同期を合せてプレイできるオーケストラメディアサービスシステム及び方法を提供する。
【解決手段】メディア提供業者から伝送された複数のオーディオ/ビデオトラック及びネオデータを有するオーケストラメディアデータを連結された複数のデバイスと共有して再現する。前記オーケストラメディアデータをパーシングしてオーディオ/ビデオデータとネオデータとに分離後、複数のオーディオ/ビデオからのメインオーディオ/ビデオをTVのような出力デバイス上でレンダリングし、前記結合された映像が再生される時間を中心に連結されたデバイスとの同期を合せ、前記ネオデータを連結された受動デバイスを活性化するための制御命令にマッピングし、それぞれの連結方式を備えたデバイスと連結し、当該受動デバイスに前記制御命令を伝送する。
【選択図】図1

Description

本発明はメディア再現技術に関し、特に、複数のオーディオ/ビデオを含むメディアを有無線ネットワークを介して複数の能動型デバイス及び受動型デバイスと同期を合せてプレイを行うのに適したオーケストラメディアサービスシステム及び方法に関する。
一般に、デジタルホームは実感、知能型ユビキタスホームに進化すると見られ、実感、知能型ユビキタスホームでは家庭内に存在するデジタルデバイスが次第に有無線ネットワークにより互いに連結されると予想される。家庭内のメディア装置は、アクチュエータを用いてメディア再現を担ってきた。アクチュエータは例えば、家庭内でホームサーバ、デジタルテレビなどによって具現されることができ、移動中にはスマートホン、PDA(PersonalDigitalAssistants、PMP(PortableMediaPlayer)などによって具現され得る。例えば、メディアは家庭内でテレビのような再現装置を用いて再現されてきた。今後のメディア再現方式はユーザに更に多くの効果を伝達するために、1つのアクチュエータであらゆるメディア再現を処理される形よりは再現装置同士で有機的に協力し、再現装置自らがユーザのホームに合うように進化する方向に発展され得ると見られ、これについての複数の装置を共に使用する様々なメディア再生方案が議論されている。
即ち、家庭内に存在する再現デバイスの数が次第に増えており、各再現デバイスが自らメディアを再現できる機能を内蔵しているが、これらを全て統合して再現できる方法がないため、家庭内に存在するデバイスを十分に活用できずにいる。
韓国公開特許第10-2002-0064888号明細書
前述したように動作する従来技術によるメディア再現システムにおいては、1つのオーディオ/ビデオを1つの再現デバイスでのみプレイするので、家庭内にメディアを再現できる複数台のデバイスが存在する場合にもこのようなデバイスは複数のオーディオ/ビデオ再現を支援しなかったため、1つのメディアを再現するために1つのデバイスだけ使用し得た1つのメディアに複数のオーディオ/ビデオ及び特定場面に係わる効果データが存在すれば、メディアの効果を最大化するためにこのようなメディアを再現するに全てのデバイスを使用するのが良い。
そこで、本発明は上記事情に鑑みてなされたものであって、その目的は、複数のオーディオ/ビデオを含むメディアを有無線ネットワークを介して複数の能動型デバイス例えば、PC、PDA(PersonalDigitalAssistants、UMPC(UltraMobilePC)、PMP(PlaystationPortable)など、及び受動型デバイス例えば、暖房装置、照光装置、明暗装置、温度及び湿度制御器を有無線ネットワークと同期を合せてプレイできるオーケストラメディアサービスシステム及び方法を提供することにある。
本発明の他の目的は、複数のトラックを有しているメディアファイルを有無線ネットワークを介して複数の能動型デバイスに伝達し、メディアファイルの内部にある互いに異なるオーディオ/ビデオを複数の能動型デバイスでプレイし、非視覚、非聴覚的効果、例えば、匂、煙、光、振動などをアクチュエータで再現されるメインオーディオ/ビデオと同期を合せるために受動型デバイスを制御できるオーケストラメディアサービスシステム及び方法を提供することにある。
前記目的を達成するために、本発明の一観点によれば、メディア提供業者から伝送された複数のオーディオ/ビデオトラック及びネオデータを有するオーケストラメディアデータの伝達を受けてこれを連結された複数のデバイスと共有して再現するオーケストラメディアサービスシステムであって、前記オーケストラメディアデータをパーシングしてオーディオ/ビデオデータとネオデータとに分離した後、複数のオーディオ/ビデオからのメインオーディオ/ビデオをTVのような出力デバイス上でレンダリングし、前記結合された映像が再生される時間を中心に連結されたデバイスとの同期を合せ、前記ネオデータを分析して連結された受動デバイスを活性化するための制御命令にマッピングするクライアントエンジン部と、それぞれの連結方式を備えたデバイスと連結を行い、連結された受動デバイスに前記制御命令を伝送する通信インターフェースとを含む。
本発明の他の観点によれば、能動型及び受動型デバイスと連結を行って連結されたデバイスと持続的な同期化を行うアクチュエータ内において、メディア提供業者から伝送されたオーケストラメディアデータの再現のために全体時間を制御する過程と、前記オーケストラメディアをパーシングしてオーディオ/ビデオデータとネオデータとに分離する過程と、前記ネオデータを分析して連結されたそれぞれのデバイスに伝送するための制御命令にマッピングする過程と、前記マッピングされた制御命令を受動型デバイスに伝送し、メインオーディオ/ビデオを除いた各オーディオ/ビデオを能動型デバイスに伝送する過程とを含む。
本発明によれば、動画、オーディオ及びテキストからなる既存のメディアに実感サービスなどの応用のためにデバイス制御及び同期化情報を追加した新たなメディアを家庭内のデバイスと同期を合せて再現する時、同期及び制御を更に正確に行えるという効果を奏する。
そして、1つのメディアを1つのデバイスで再現する方式とは別にマルチのオーディオ/ビデオを複数の能動型デバイスを用いて再現してマルチの受動型デバイスを活性化することで、メディアの活用度を高めることができ、用いられるオーディオ/ビデオトラックと能動型デバイスの個数が多くなり、これを再現する方法を調節すれば、ドーム状(360度視野)の円形劇場で小さなメディア出力を連続して付けて3Dメディア(例えば、自動車広告のために1つのオーケストラメディア内に3個のオーディオ/ビデオトラックがあり、その中の1つ目のトラックは自動車の前姿、2つ目は自動車の左姿、3つ目は自動車の右姿を含んでいる場合、このトラックは共にプレイされユーザに3D効果を提供し得る)によって一度に再現できる円形のメディア再現などにも使用され得る。
また、ユーザが所有している多様なモバイル装置を融合して複数のモバイル装置で教育放送や映画を再現でき、これを通じてメディア再現のための差別化されたサービスを提供できるという効果がある。
本発明の好適な実施形態によるオーケストラメディアサービスシステムの構造を示す図である。 本発明の好適な実施形態による受動型デバイスの駆動過程を示す図である。 本発明の好適な実施形態による能動型デバイスの駆動過程を示す図である。 図1のオーケストラメディアサービスシステムのクライアントエンジン部を示すブロック図である。 図4のメイン制御部の構造を示すブロック図である。 図4のオーディオ/ビデオプレーヤモジュールの構造を示すブロック図である。 それぞれ図4のパーサモジュールの構造を示すブロック図。ネオデータの資料構造。本発明の好適な実施形態によるネオデータを再現するためのデータ構造である。 図4の同期化モジュールの構造を示すブロック図である。 図4の能動型デバイスの構造を示すブロック図である。 図4の受動型デバイスの構造を示すブロック図である。 本発明の好適な実施形態によるオーケストラメディアサービスシステムの動作手順を示すフローチャートである。
以下、添付する図面を参照して本発明の1つの実施例を詳細に説明する。
図1は、本発明の好適な実施形態によるオーケストラメディアサービスシステムの構造を示す図である。
図1を参照すれば、オーケストラメディアサービスシステムは、オーケストラメディアSP(Service Provider)100からオーケストラメディアの伝送を受け、伝送されたオーケストラメディアはアクチュエータ102に伝達される。
そして、ホームサーバ102のクライアントエンジン104では伝達されたオーケストラメディアを分析して、複数のオーディオ/ビデオ各能動型デバイスで再現可能にし、対応するメディアとオーケストラメディアから分離されたネオデータを通信インターフェースAPI(Application Program Interface)106を経てそれぞれインターフェース108(Serialport、USBport、LAN/WLANport、Audio Outport、Video Outport)に連結された受動型デバイス周囲のユーザに伝送する。
実際に、受動型デバイスには複数のオーディオ/ビデオトラックの伝達を受けるためにWLAN/LANインターフェースが使用され、受動型デバイスにはシリアルポート、USBポート、オーディオ出力ポート、ビデオ出力ポートなどが使用される。
具体的に、制御インターフェース例えば、シリアルポート110を介して伝送される制御データは、ジグビー(ZigBee)無線ネットワーク120を介してジグビー制御器122に伝達され、ジグビー制御器122はヒータ124、ファン126、香り発生器128などにメディアデータを伝達するようになる。
また、シリアルポート110は、制御インターフェース例えば、RS-485直列通信インターフェースによって連結された調光装置(Dimmer)、照明(light)、カラー照明などの照明装置130と、制御インターフェース例えば、RS-232直列通信インターフェースによって連結されたブラインド、カーテン装置132などに制御データを伝送するに使用される。USBポート112は制御インターフェース例えば、USB通信インターフェースに連結されたフラッシュ134に制御データを伝送し、LAN/WANポート114はLAN/WAN通信方式で連動されたコンピュータ、携帯電話、UMPC(Ultra Mobile PC)、PDA(Personal Digital Assistants)などのような適切な能動型デバイス136に各オーディオ/ビデオを伝送する。
更に、振動椅子138などのような電動機器は制御インターフェース例えば、オーディオ出力ポート116にオーディオケーブルを通じて連結され、デジタルテレビ140は制御インターフェース例えば、ビデオ出力ポート118にHDMI(High Definition Multimedia Interface)ケーブルを通じてと連結され、各デバイスに該当するメディアデータを伝送するようになる。
オーケストラメディアサービスシステムで用いられる能動型及び受動型デバイスは、ホームネットワークで一般に用いられる家電機器であってもよく、特化された効果の再現のために別途の装置(例えば、スモッグマシン、シャボン玉生成器など)が使用されてもよい。
図2は、本発明の好適な実施形態による受動型デバイスの駆動手続きを示す図である。
図2を参照すれば、200段階ではアクチュエータ102でプレイするメディアを分析するパーシング過程を行う。パーシング過程では効果データと、オーディオ/ビデオトラックとネオデータ間の同期化情報を有する複数のオーディオ/ビデオトラック及びネオデータが抽出され、202段階でまずバッファに格納された後、204段階で各能動型デバイスと受動型デバイスに位置したそれぞれの複数のオーディオ/ビデオプレーヤを同時に再生するために同期化過程が行われユーザに別の効果、例えば、風効果、お香効果を提供するようになり、206段階で抽出されたオーディオ/ビデオ、ネオデータ及び同期化情報はバッファに格納される。
その後、208段階で複数のオーディオ/ビデオトラックに選択されたメインオーディオ及びビデオはレンダリング過程に伝達され、アクチュエータ102内のオーディオ/ビデオプレーヤで再現され、制御データの伝達を受けた受動型デバイスは210段階で同時に活性化される。
図3は、本発明の好適な実施形態による能動型デバイスの駆動手続きを示す図である。
図3を参照すれば、能動型デバイスの例として、コンピュータ、デジタルテレビ、携帯電話は自体に運営体制が積載されており、自ら動作でき、別途に伝達されたオーディオとビデオをプレイできるソフトウェアを内蔵している。
複数のトラックで構成されたメディアはアクチュエータ102に伝達され、パーシング過程を経てそれぞれの能動型デバイス)に伝送されるが、この過程で各能動型デバイスとアクチュエータ102は持続的に相互間の同期化を行う。そして、時間が同期化されたという仮定の下で共通のイベントチャネル300を共有するようになり、このようなイベントチャネル300に制御命令が発生すれば、その制御命令はイベントキュー302に登録され、登録されたイベントキュー302のイベント制御命令はイベントディスパッチャ304により該当する能動型デバイス306、308に伝達され、能動型デバイス306、308ではパーシングされたメディアデータを実行するようになる。
図4は、図1のオーケストラメディアサービスシステムの構造を示すブロック図である。
図4を参照すれば、オーケストラメディアサービスシステムは、伝送エンジン402、メイン制御部404、オーディオ/ビデオプレーヤモジュール406、パーサモジュール408、同期化モジュール410、デバイス制御部412、を含み、このとき、オーケストラメディアは既存のオーディオ、ビデオ、テキストだけでなく、メディアの再現効果を最大化するための効果情報、デバイス同期化情報、デバイス連動情報(例えば、ウェブブラウザーURL)などの追加の情報を有する
具体的に、オーケストラメディアデータ供給業者100から伝達されたオーケストラメディアは、伝送エンジン402を介してクライアントエンジン104のメイン制御部404に伝達されるものであって、メイン制御部404ではメディア再現のための全体時間を管理し、オーケストラメディアのパーシングを行って、各オーディオ/ビデオトラック及びネオデータに分離し、パーシングされたデータをオーディオ/ビデオプレーヤモジュール406及びパーサモジュール408に伝達する。オーディオ/ビデオプレーヤモジュール406は、メイン制御部404から伝達されたオーディオ及びビデオファイルを同期化して再生し、パーサモジュール408は、メイン制御部404から伝達されたデータであるネオデータに対する分析を行って各受動型デバイスに伝達するためにネオデータの制御命令としてのマッピングを行う。
そして、同期化モジュール410は、パーサモジュール408から制御命令及び同期化情報の伝達を受け、制御命令が伝達された能動型及び受動型デバイスと同期を合せるようになる。その後、同期が合わせられた状態で同期化モジュール410はデバイス制御部412にマッピングされた制御命令を伝達し、デバイス制御部412では通信API106を用いて連結された受動型デバイス418を確認した後、伝達を受けたマッピングされた制御命令に基づいて効果を実現できる受動型デバイスを判断して選択し、選択した受動型デバイスに各デバイスで実現され得る制御命令を伝送するようになる。
また、A/Vプレーヤパート406のマルチトラックセンダ608はオーケストラメディアから分離された各オーディオ/ビデオをメインオーディオ/ビデオを除いて図6で説明する能動型デバイスの周辺のユーザに伝達する。
以下、下記の図面を通じて各ブロックについて具体的に説明する。
図5は、図4のメイン制御部の構造を示すブロック図である。
図5を参照すれば、メイン制御部404は、メインクロック管理部(Main Clock Manager)500と、メディアパーサ(Media Parser)502と、A/V制御部(A/V Controller)504とを含む。メインクロック管理部500は、アクチュエータ102及び複数のデバイス全体に影響を与える時間を管理する。メインクロック管理部500は、アクチュエータ102に連結された出力デバイス上でプレイされるメインオーディオ/ビデオの時間を中心に時間を管理し、コンピュータに内蔵されているクロック時間を基準として増加又は減少する。メディアパーサ502は、伝送されたオーケストラメディアにパーシングを行って複数のオーディオ/ビデオトラックとネオデータトラックとに分離する役割を行い、このとき、ネオデータは時間帯別又は場面別の効果同期化情報を含む。A/V制御部504は、メディアパーサ502で分離されたメインオーディオ/ビデオトラックをA/Vプレーヤモジュール406に伝達する役割を行う。
図6は、図4のA/Vプレーヤモジュールの構造を示すブロック図である。
図6を参照すれば、A/Vプレーヤパート406は、アクチュエータ102上でメインオーディオ/ビデオをプレイする機能と周辺の複数のユーザにメインオーディオ/ビデオを除いたオーディオ/ビデオを伝送する機能を担い、A/Vバッファ600、A/Vシンカ602、A/Vレンダラ604、H/Wデコーダ606、そしてマルチトラックセンダ608を含む。
A/Vバッファ600は、メイン制御部404のメディアパーサ502により分析されたオーディオビデオが格納され、A/Vシンカ602はバッファに格納されているオーディオとビデオの同期を合せる役割を行う。A/Vレンダラ604は、同期が合わせられたオーディオ/ビデオを1つの映像に結合するのに用いられ、H/Wデコーダ606は、レンダリングされた映像をH/Wに出力できるようにデコーディングを行う。そして、マルチトラックセンダ608は、アクチュエータ102と有無線インターフェースを通じて連結されている能動型デバイスであって、互いに異なるトラックのオーディオ/ビデオを伝送する役割を担う。
図7Aは、図4のパーサモジュールの構造を示すブロック図である。
図7Aを参照すれば、パーサパート408は、メイン制御部404のメディアパーサ502が分析したネオデータを分析するものであって、パーシングテーブル700と、ネオデータ(Neodata)分析器702と、ネオデータマッパ704とを含む。パーシングテーブル700は、メイン制御部404のメディアパーサ502で分析されたネオデータが格納されるバッファである。ネオデータがストリーム形態で伝送される場合、EPG(ElectronicProgramGuide)のように複数にわたって伝送され得る意味であるので臨時バッファはネオデータを格納して分析すべきである。しかしながら、このようなネオデータは一定の量(例えば、時間帯別、場面別など)のネオデータさえ伝送されればよいため、パーサテーブル700はこれを臨時格納するために用いられる。
パーシングテーブル700に格納されているネオデータは、共に伝送されたオーディオ/ビデオに関する効果情報のみを含んでいるため、ネオデータ分析器702がパーシングテーブル700に格納されている効果データを制御命令に変換する過程が必要である。そのため、ネオデータ分析器702ではネオデータに含まれている効果情報を分析して効果情報に含まれている資料の構造を確認し、それにより、効果情報が分析されたネオデータは実際にアクチュエータ102に連結されているデバイスと連結するためにネオデータマッパ704で効果情報が各デバイスで実行され得るように該当デバイスに適した資料の構造を変換するマッピング過程を経る。
図7Bと図7Cはネオデータの資料構造と本発明の実施例によるネオデータを再生するための資料構造をそれぞれ表す。
ネオデータのマッピングの例は、以下の通りである。例えば、風が吹く場面でネオデータは図7Bの706の資料構造のように、効果タイプ、開始時間、効果実行時間、効果値などで表すことができるので、<WindEffect、10.0s、3.5s、1ms>という環境情報を有するようになる。WindEffectは風効果を表し、10.0sはメインメディアで風効果が開始されなければならない時間を表し、3.5sは3.5秒間効果が持続しなければならず、1msは秒速1mの風効果を意味する。
これを家庭内のデバイスで再現するためには、図7Cの参照番号708の資料構造のように、デバイスタイプ、デバイスID、連結インターフェース、実行時間、制御タイプ、制御値などで表すことができるので、ネオデータマッパ704ではこれを<Electronic Fan、1005、IR、9s、3段に対する制御コード、ON>という制御情報に変換した後、同期化モジュール410に伝達する。これはElectronic Fanは電気ファンを表し、1005は電気ファンの固有IDを表し、IRは無線赤外線通信を表し、9sは実行時間であり、3段に対する制御コードは制御タイプを表し、ONは電源オン状態の効果を意味する。
図8は、図4の同期化モジュールの構造を示すブロック図である。
図8を参照すれば、同期化パート410は、同期テーブル800、同期タイマーチェッカ802、同期テーブルアップデータ804、デバイス制御インターフェース806を含む。同期テーブル800は、ネオデータマッパ704でマッピングされたデータを格納するバッファであり、マッピングされたネオデータはマッピングされる順に同期テーブル800に格納される。
同期タイムチェッカ802は、メインクロック管理部500の時間によって連結されているデバイス(例えば、能動型デバイス)と同期化の要否を持続的にチェックし、もし、同期化されない能動型デバイスがある場合に能動型デバイスに同期設定命令を伝送する。同期テーブルアップデータ804は、実際にマッピングされたデバイスが実際に行われる時間(Execution Time)を考慮して事前にデバイスが実行され得るように制御情報を修正する役割を担う。同期テーブルアップデータ804で実際の実行時間を計算するためには、下記の<式1>が用いられる。各デバイスの実際の実行時間Eiは各デバイスの開始時間Tiから実行時間Δt(di)とネットワークディレーΔt(ni)を引いた値で計算される。
Figure 2010109965
このとき、受動型デバイスの場合にはハードウェアを用いるため、ある程度の誤差範囲(例えば、40μs 以下)を有することができるが、コンピュータ及びPDAのような能動型デバイスは自体にCPUを有して内部スケジューリングを行うため、各プロセスが行われる時間が不規則的である。従って、アクチュエータ102から制御命令が直接伝達されても実行される時間に誤差が発生せざるを得ない。また、現在の有無線通信インターフェースがリアルタイム性を保障するプロトコルではないので、これに対するディレーも考慮しなければならない。従って、同期テーブルアップデータ804では実際にデバイスが行われる時間を計算する時、能動型デバイスであるか、受動型デバイスであるかを区分する。各能動型及び受動型デバイスの実行時間Δt(di)は下記の<式2>を用いて求めることができる。
Figure 2010109965
ここで、SPD(Sender Processing Delay)は、アクチュエータ102側で命令を処理するために発生するディレー時間を意味し、SMAD(Sender Media Access Delay)は、アクチュエータ102側でメディアを読み込むのにかかる時間を意味する。RPD(Receiver Processing Delay)は、オーディオ/ビデオを受け取る能動型デバイスにおけるプロセシングディレー時間であり、RMAD(Receiver Media Access Delay)は、能動型デバイスで受け取ったオーディオ/ビデオをプレイするために用いられる時間である。
ネットワークディレーΔt(ni)値は、受動型デバイスの場合にハードウェアを用いるので、ネットワークディレーは0に設定し、能動型デバイスの場合には有無線で伝送する時に発生するディレー値をネットワークディレー値として求める。
デバイス制御インターフェース806は、図4のデバイス制御部412と連結されているので、デバイス制御部412は制御命令を連結された受動型デバイス418に伝送し、通信API106を通じて各制御命令に対する受信確認メッセージなどを各デバイスから伝達を受けるようになる。
図9は、図4の能動型デバイスの構造を示すブロック図である。
図9を参照すれば、能動型デバイス416は、ホームサーバ102との連結を維持するためのセッション管理部900、同期を合せるために時間を管理するクロック管理部902、ホームサーバ102とメディア再現時に同期を合せ、補正を行うためのメディアシンカ904、そして能動型デバイスに伝送されたオーディオ/ビデオを再現するメディアプレーヤ906を含む。
図10は、図4の受動型デバイスの構造を示すブロック図である。
図10を参照すれば、受動型デバイス418は、ホームサーバ102との連結を維持するためのセッション管理部1000、アクチュエータ102と同期を合せるための時間管理を行うクロック管理部1002、そして実際に受動型デバイスを制御するデバイス制御部1004を含む。
図11は、本発明の好適な実施形態によるオーケストラメディアサービスシステムの動作手順を示すフローチャートである。
図11は参照すれば、1100段階の能動型及び受動型デバイスと連結を行って連結されたデバイスと持続的な同期化を行うアクチュエータ上にメディア提供業者からオーケストラメディアデータが入力された場合、メイン制御部404のメインクロック管理部500で1102段階を通じてオーケストラメディアデータの再現のために全体時間を制御するようになり、このとき、制御の中心となる時間はA/Vプレーヤモジュール406においてメインオーディオ/ビデオを再生する時間になり得る。
そして、1104段階ではメディアパーサ502を通じてオーケストラメディアデータのパーシングを行ってオーディオ/ビデオとネオデータとに分離するようになる。これにより、パーシングされたビデオ/オーディオは、A/Vプレーヤモジュール406に伝達されてA/Vプレーヤモジュール406では1106段階でオーディオ/ビデオの同期化をした後、レンダリング作業及びデコーディング作業を通じてレンダリングをし、1つのオーケストラメディアに複数のトラック別映像が存在する場合にはパーサ部はこれを各部分に分割し、マルチトラックセンダは分離されたトラックを能動型デバイスに伝送する。
能動型デバイスを決定するため、アクチュエータは能動型デバイスの容積を知るべきである。能動型デバイスは分離されたオーディオ/ビデオの伝達を受け、能動型デバイスは同期化された方式にメインオーディオ/ビデオと共にオーディオ/ビデオを再生する。
そして、パーシングされたネオデータはパーサパート408に伝達して1108段階でネオデータに対する分析を行い、これを該当デバイスで実行され得る制御命令へ変換するマッピングを行う。その後、1110段階でデバイス制御部412はマッピングされた制御命令をパーサモジュール408から伝達を受け、効果装置を活性化するために制御命令を受動デバイスに伝送し、A/Vプレーヤモジュール406はメインオーディオ/ビデオをテレビのような出力デバイス上でプレイし、オーケストラメディアから分離された別のオーディオ/ビデオをメインオーディオ/ビデオと同期化してプレイするために対応する能動型デバイスに伝送する。この段階以後、メインオーディオ/ビデオ、別のオーディオ/ビデオ及び効果データは同期化課程の助けで別々のデバイスでプレイし、各デバイスは調和をとれる。即ち、これらは別個に離れてプレイすることで、同期化し得る。
以上説明した通り、本発明は複数のオーディオ/ビデオを含むメディアを有無線ネットワークを介して複数の能動型デバイス及び受動型デバイスと同期を合せてプレイできるように実現するものであって、複数のトラックを有しているメディアファイルを有無線ネットワークを介して複数の能動型デバイスに伝達し、アクチュエータで再現されるメインメディアと同期を合せてメディアファイルの内部にある互いに異なるオーディオ/ビデオを複数の能動型デバイス及び受動型デバイスでプレイする。
一方、本発明の詳細な説明では具体的な実施形態について説明したが、本発明の範囲から逸脱しない範囲内で様々な変形が可能であるのはもちろんである。従って、本発明の範囲は説明された実施形態に限定されず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等なものにより定まるべきである。
400 オーケストラメディア
402 オーケストラメディア伝送エンジン
404 メイン制御部
406 A/Vプレーヤパート
408 パーサモジュール
410 同期化モジュール
412 デバイス制御部
106 通信API
416 能動型デバイス
418 受動型デバイス

Claims (20)

  1. メディア提供業者から伝送された複数のオーディオ/ビデオトラック及びネオデータを有するオーケストラメディアデータの伝達を受けてこれを連結された複数のデバイスと共有して再現するオーケストラメディアサービスシステムであって、
    前記オーケストラメディアデータをパーシングしてオーディオ/ビデオデータとネオデータとに分離した後、複数のオーディオ/ビデオからのメインオーディオ/ビデオをテレビのような出力デバイス上でレンダリングし、前記結合された映像が再生される時間を中心に連結されたデバイスとの同期を合せ、前記ネオデータを分析して連結された受動デバイスを活性化するための制御命令にマッピングする、クライアントエンジン部と、
    それぞれの連結方式を備えたデバイスと連結を行い、連結された受動デバイスに前記制御命令を伝送する通信インターフェースと
    を含むオーケストラメディアサービスシステム。
  2. 前記クライアントエンジン部は、
    前記オーケストラメディアデータの再現のために現在の同期化時間を管理し、前記オーケストラメディアデータをパーシングしてビデオ/オーディオデータとネオデータとに分離するメイン制御部と、
    前記メイン制御部から伝達されたメインオーディオ/ビデオを再生するオーディオ/ビデオプレーヤモジュールと、
    前記メイン制御部から伝達を受けたネオデータを分析して前記ネオデータ内の効果を制御命令にマッピングして連結された受動デバイスを活性化するパーサモジュールと、
    オーディオ/ビデオプレーヤモジュールからのメインオーディオ/ビデオの再現時間、実行時間及び前記パーサモジュールから受動デバイスのための制御命令の伝達を受け、前記メインオーディオ/ビデオを除いた各オーディオ/ビデオトラックの伝達を受ける能動型デバイスと、前記制御命令が伝送される受動デバイスと同期化を行う同期化モジュールと、
    前記能動及び受動デバイスと連結を行い、連結された能動及び受動デバイスに前記制御命令を伝送するデバイス制御部と
    を含むことを特徴とする請求項1に記載のオーケストラメディアサービスシステム。
  3. 前記メイン制御部は、
    前記オーディオ/ビデオプレーヤモジュールを通じて再生されるメインオーディオ/ビデオの時間を中心に連結された全体デバイスの時間を管理するメインクロック管理部と、
    前記オーケストラメディアにパーシングを行って複数のオーディオ/ビデオトラックと時間帯別、場面別の効果情報を含むネオデータトラックに分離するメディアパーサ部と、
    前記分離されたオーディオ及びビデオトラックを前記プレーヤパートに伝達するオーディオ/ビデオ制御部と
    を含むことを特徴とする請求項2に記載のオーケストラメディアサービスシステム。
  4. 前記プレーヤモジュールは、
    前記メイン制御部から伝達されたオーディオ/ビデオデータを格納するバッファと、
    前記バッファに格納されたオーディオ/ビデオデータの同期を合せるシンカと、
    前記同期が合わせられたオーディオ/ビデオデータが1つの映像になるようにレンダリングするレンダラと、
    前記レンダリングされた映像をデコードして出力するデコーダと、
    前記デコードされた映像を連結されたデバイスに互いに異なるトラックのオーディオ及びビデオを伝送するマルチトラックセンダと
    を含むことを特徴とする請求項2に記載のオーケストラメディアサービスシステム。
  5. 前記パーサモジュールは、
    前記メイン制御部から伝達を受けた前記ネオデータを格納してバッファリングを行うパーシングテーブルと、
    前記ネオデータに含まれている効果情報を分析して資料構造を確認するためのネオデータ分析器と、
    前記分析された制御命令を各デバイスに適した制御命令に変換してマッピングするネオデータマッパと
    を含むことを特徴とする請求項2に記載のオーケストラメディアサービスシステム。
  6. 前記ネオデータの資料構造は、
    効果タイプ、開始時間、効果実行時間、効果値のうち少なくともいずれか1つを含むことを特徴とする請求項5に記載のオーケストラメディアサービスシステム。
  7. 前記同期化モジュールは、
    前記パーサモジュールを介して伝達を受けたマッピングされたデータに対するバッファリングを行う同期テーブルと、
    連結された受動デバイス間の同期化を持続的にチェックする同期タイムチェッカと、
    前記連結されたデバイスが実際に行われる時間を考慮して制御情報を修正する同期テーブルアップデータと、
    前記デバイス制御部と連結して制御命令を送信し、フィードバックを受信するデバイス制御インターフェースと
    を含むことを特徴とする請求項2に記載のオーケストラメディアサービスシステム。
  8. 前記デバイスの実際の実行時間は、
    デバイス開始時間から装置の活性化時間と、ネットワークディレーを引いた値で算出することを特徴とする請求項7に記載のオーケストラメディアサービスシステム。
  9. 前記実行される時間は、
    前記デバイスが能動型デバイスである場合、
    ホームサーバで命令を処理するために発生するディレー時間と、アクチュエータ部でメディアを読み込むのにかかる時間と、オーディオ/ビデオを受け取る能動型デバイスにおけるプロセシングディレー時間と、オーディオ/ビデオデータをプレイするために用いられる時間の和であることを特徴とする請求項8に記載のオーケストラメディアサービスシステム。
  10. 前記パーサモジュールを通じてマッピングされた制御命令は、
    デバイスタイプ、デバイスID、連結インターフェース、実行時間、制御タイプ、制御値のうち少なくともいずれか1つを含むことを特徴とする請求項2に記載のオーケストラメディアサービスシステム。
  11. 前記デバイス制御部は、
    通信アプリケーション・プログラム・インターフェースを通じて前記能動型又は受動型デバイスとの連結を行い、
    連結された前記能動型又は受動型デバイスに制御命令を送受信し、フィードバックを受信することを特徴とする請求項2に記載のオーケストラメディアサービスシステム。
  12. 能動型及び受動型デバイスと連結を行って連結されたデバイスと持続的な同期化を行うアクチュエータ内において、メディア提供業者から伝送されたオーケストラメディアデータの再現のために全体時間を制御する過程と、
    前記オーケストラメディアをパーシングしてオーディオ/ビデオとデータとネオデータとに分離する過程と、
    前記オーディオ/ビデオデータの伝達を受けてこれに対する同期を行って再生する過程と、
    前記ネオデータを分析して連結されたそれぞれのデバイスに伝送するための制御命令にマッピングする過程と、
    前記マッピングされた制御命令を受動型デバイスに伝送し、メインオーディオ/ビデオを除いた各オーディオ/ビデオを能動型デバイスに伝送する過程と
    を含むオーケストラメディアサービス方法。
  13. 前記再生する過程は、
    各オーディオ/オーディオデータに対して互いの同期を合せる過程と、
    前記同期が合わせられたオーディオ/ビデオデータを1つの映像に結合させる過程と、
    前記結合された映像をデコードする過程と、
    前記デコードされた映像を連結された該当デバイスに伝送する過程と
    を含むことを特徴とする請求項12に記載のオーケストラメディアサービス方法。
  14. 前記制御命令にマッピングする過程は、
    前記ネオデータを格納してバッファリングを行う過程と、
    前記ネオデータの資料構造に対する分析を行って前記ネオデータに含まれている効果情報を実現するための制御命令を確認する過程と、
    前記確認された制御命令を各デバイスに適した制御命令に変換してマッピングする過程と
    を含むことを特徴とする請求項12に記載のオーケストラメディアサービス方法。
  15. 前記ネオデータの資料構造は、
    効果タイプ、開始時間、効果実行時間、効果値のうち少なくともいずれか1つを含むことを特徴とする請求項14に記載のオーケストラメディアサービス方法。
  16. 前記アクチュエータ内で持続的な同期化のために、前記マッピングされた制御命令に対するバッファリングを行う過程と、
    前記連結されたデバイスが実際に行われる時間を考慮して制御情報の修正及び同期化時間の制御を行う過程と
    を含むことを特徴とする請求項12に記載のオーケストラメディアサービス方法。
  17. 前記デバイスが実際に行われる時間は、
    デバイス開始時間からデバイスの実行される時間と、ネットワークディレー時間を引いた値で算出することを特徴とする請求項16に記載のオーケストラメディアサービス方法。
  18. 前記実行される時間は、
    前記デバイスが能動型デバイスである場合、アクチュエータ部で命令を処理するために発生するディレー時間と、メディアを読み込むのにかかる時間と、オーディオ/ビデオデータを受け取る能動型デバイスにおけるプロセシングディレー時間と、オーディオ/ビデオデータをプレイするために用いられる時間の和であることを特徴とする請求項17に記載のオーケストラメディアサービス方法。
  19. 前記マッピングされた制御命令は、
    デバイスタイプ、デバイスID、連結インターフェース、実行時間、制御タイプ、制御値のうち少なくともいずれか1つを含むことを特徴とする請求項12に記載のオーケストラメディアサービス方法。
  20. 前記マッピングされた制御命令を前記能動型及び受動型デバイスに伝送する過程は、
    通信アプリケーション・プログラム・インターフェースを通じて前記能動型又は受動型デバイスとの連結を行った後、連結された前記能動型又は受動型デバイスと制御命令及びデータを送受信することを特徴とする請求項12に記載のオーケストラメディアサービス方法。
JP2009187359A 2008-10-28 2009-08-12 オーケストラメディアサービスシステム及び方法 Pending JP2010109965A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080105763A KR100989079B1 (ko) 2008-10-28 2008-10-28 오케스트라 미디어 서비스 시스템 및 방법

Publications (1)

Publication Number Publication Date
JP2010109965A true JP2010109965A (ja) 2010-05-13

Family

ID=42117589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009187359A Pending JP2010109965A (ja) 2008-10-28 2009-08-12 オーケストラメディアサービスシステム及び方法

Country Status (3)

Country Link
US (1) US20100104255A1 (ja)
JP (1) JP2010109965A (ja)
KR (1) KR100989079B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8208787B2 (en) * 2008-12-02 2012-06-26 Electronics And Telecommunications Research Institute SMMD media producing and reproducing apparatus
WO2013003813A1 (en) 2011-06-30 2013-01-03 Lutron Electronics Co., Inc. Device and method of optically transmitting digital information from a smart phone to a load control device
WO2013012547A1 (en) 2011-06-30 2013-01-24 Lutron Electronics Co., Inc. Load control device having internet connectivity, and method of programming the same using a smart phone
US9544977B2 (en) 2011-06-30 2017-01-10 Lutron Electronics Co., Inc. Method of programming a load control device using a smart phone
WO2013033257A1 (en) 2011-08-29 2013-03-07 Lutron Electronics Co., Inc. Two-part load control system mountable to a single electrical wallbox
US10244086B2 (en) 2012-12-21 2019-03-26 Lutron Electronics Co., Inc. Multiple network access load control devices
US10019047B2 (en) * 2012-12-21 2018-07-10 Lutron Electronics Co., Inc. Operational coordination of load control devices for control of electrical loads
US9413171B2 (en) 2012-12-21 2016-08-09 Lutron Electronics Co., Inc. Network access coordination of load control devices
US10135629B2 (en) 2013-03-15 2018-11-20 Lutron Electronics Co., Inc. Load control device user interface and database management using near field communication (NFC)
WO2015129992A1 (ko) * 2014-02-27 2015-09-03 엘지전자 주식회사 디지털 디바이스 및 이의 제어 방법
CN104483851B (zh) * 2014-10-30 2017-03-15 深圳创维-Rgb电子有限公司 一种情景感知控制装置、系统及方法
US9984686B1 (en) * 2015-03-17 2018-05-29 Amazon Technologies, Inc. Mapping device capabilities to a predefined set
US10655951B1 (en) 2015-06-25 2020-05-19 Amazon Technologies, Inc. Determining relative positions of user devices
US10365620B1 (en) 2015-06-30 2019-07-30 Amazon Technologies, Inc. Interoperability of secondary-device hubs
CN107239253B (zh) * 2016-03-29 2020-05-12 扬智科技股份有限公司 同步播放速度的无线局域网播放器、系统及其方法
CN107452409B (zh) * 2017-08-16 2024-04-26 柳州桂通科技股份有限公司 信息记录方法、装置、系统、存储介质和处理器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2005229153A (ja) * 2004-02-10 2005-08-25 Sony Corp 調光システムおよび調光方法、配信装置および配信方法、受信装置および受信方法、記録装置および記録方法、ならびに、再生装置および再生方法
JP2006331735A (ja) * 2005-05-24 2006-12-07 Sharp Corp 視聴環境制御方法、視聴環境制御装置及び映像表示装置
JP2007310777A (ja) * 2006-05-22 2007-11-29 Mitsubishi Electric Corp 管理装置及び端末装置及び通信システム及び同期管理方法及びプログラム
JP2008252422A (ja) * 2007-03-30 2008-10-16 Sony Corp 多画面同期再生システム、表示制御端末、多画面同期再生方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269843B2 (en) * 2000-04-26 2007-09-11 Minolta Co., Ltd. Broadcasting system and media player
KR100541636B1 (ko) * 2003-04-17 2006-01-10 삼성전자주식회사 컨텐츠 동기화 방법 및 데이터 포맷
US7519274B2 (en) * 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
KR20050116916A (ko) * 2004-06-09 2005-12-14 레이디오펄스 주식회사 환경 정보를 포함하는 콘텐츠를 생성하고 재생하는 방법과그 재생 장치
JP4636320B2 (ja) * 2005-04-15 2011-02-23 ソニー株式会社 ビデオカメラ及びマウント制御方法
JP4815962B2 (ja) * 2005-09-12 2011-11-16 ソニー株式会社 再生装置および再生方法、プログラム、並びに、プログラム格納媒体
KR100871840B1 (ko) * 2006-08-17 2008-12-03 한국전자통신연구원 Smmd 기반 유비쿼터스 홈 미디어 서비스 장치 및 방법과, 그를 이용한 홈 미디어 서비스 시스템 및 그 방법
US20080046944A1 (en) * 2006-08-17 2008-02-21 Lee Hae-Ryong Ubiquitous home media service apparatus and method based on smmd, and home media service system and method using the same
KR20080048308A (ko) * 2006-11-28 2008-06-02 삼성전자주식회사 기본 장치와 확장 장치의 연동 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324402A (ja) * 2002-05-07 2003-11-14 Nippon Hoso Kyokai <Nhk> 外部機器連動型コンテンツ生成装置、その方法及びそのプログラム、外部機器連動型コンテンツ再生装置、その方法及びそのプログラム
JP2005229153A (ja) * 2004-02-10 2005-08-25 Sony Corp 調光システムおよび調光方法、配信装置および配信方法、受信装置および受信方法、記録装置および記録方法、ならびに、再生装置および再生方法
JP2006331735A (ja) * 2005-05-24 2006-12-07 Sharp Corp 視聴環境制御方法、視聴環境制御装置及び映像表示装置
JP2007310777A (ja) * 2006-05-22 2007-11-29 Mitsubishi Electric Corp 管理装置及び端末装置及び通信システム及び同期管理方法及びプログラム
JP2008252422A (ja) * 2007-03-30 2008-10-16 Sony Corp 多画面同期再生システム、表示制御端末、多画面同期再生方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014179984A (ja) * 2013-03-14 2014-09-25 Immersion Corp グループイベント時のハプティック効果のブロードキャスト

Also Published As

Publication number Publication date
KR20100046761A (ko) 2010-05-07
KR100989079B1 (ko) 2010-10-25
US20100104255A1 (en) 2010-04-29

Similar Documents

Publication Publication Date Title
JP2010109965A (ja) オーケストラメディアサービスシステム及び方法
US20100275235A1 (en) Sensory effect media generating and consuming method and apparatus thereof
US7434154B2 (en) Systems and methods for synchronizing media rendering
CN105814900B (zh) 用于在自适应流播环境中管理相邻频道的系统和方法
JP6610555B2 (ja) 受信装置、送信装置、およびデータ処理方法
US20080046944A1 (en) Ubiquitous home media service apparatus and method based on smmd, and home media service system and method using the same
US20110188832A1 (en) Method and device for realising sensory effects
IL220482A (en) Deaf hearing with codec frame dimensions - held
US20230362461A1 (en) Interactive Media Events
JP2009543201A (ja) ローカル・ユーザ・インターフェースの、リモートで生成されたユーザ・インターフェースおよびメディアとの組合せ構成
Alexandraki et al. Exploring new perspectives in network music performance: The DIAMOUSES framework
KR100871840B1 (ko) Smmd 기반 유비쿼터스 홈 미디어 서비스 장치 및 방법과, 그를 이용한 홈 미디어 서비스 시스템 및 그 방법
US20120127268A1 (en) Method and apparatus for controlling broadcasting network and home network for 4d broadcasting service
US11128739B2 (en) Network-edge-deployed transcoding methods and systems for just-in-time transcoding of media data
US20220394328A1 (en) Consolidated Watch Parties
KR20090033562A (ko) Smmd 기반 미디어 서비스를 위한 미디어와 멀티디바이스 동기 제어 시스템 및 방법
JP2005006037A (ja) メディア同期システム及びそれに用いるサービス提供方法
Kato et al. Songle Sync: A large-scale web-based platform for controlling various devices in synchronization with music
WO2010087153A1 (ja) 感覚効果情報のデータ構造、感覚効果情報出力装置、感覚効果情報出力方法、感覚効果情報生成装置、制御装置、システム、プログラムおよび記録媒体
JP2009089350A (ja) ネットワーク基盤のカスタマイズコンテンツを提供するためのユーザ装置及びその方法並びに著作装置及びその方法
WO2021049048A1 (ja) 映像提供システムおよびプログラム
US20110110641A1 (en) Method for real-sense broadcasting service using device cooperation, production apparatus and play apparatus for real-sense broadcasting content thereof
JP2018530944A (ja) 異種ネットワーキング環境におけるメディアレンダリングの同期化
KR20110052431A (ko) 디바이스 협업을 통한 실감 방송 구현 방법 및 이를 위한 실감 방송 시스템
WO2021152280A1 (en) T entertainment system and method of delivery augmented content

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120928